Formación personalizada: ¿necesidad real o moda inefectiva?

Por formación personalizada me refiero al resultado de adaptar una actividad formativa determinada a la casuística concreta de un cliente, colectivo o situación en particular, más allá de lo necesario para el desarrollo efectivo de dicha actividad formativa o, incluso, en contra de ello.

Aunque la tendencia ha decrecido de forma significativa recientemente, las solicitudes de «adaptación» o «personalización» han venido siendo algo bastante habitual en los últimos años en el mundo de la formación, como en su día lo fueron las «pre-actividades» y las «post-actividades» formativas, es decir, el trabajo previo y posterior a la actividad formativa propiamente dicha.

El gran problema de las modas es que son simplemente modas y, por tanto, su correspondencia o no con las necesidades reales existentes – de existir – es pura coincidencia. Es algo que pude experimentar en primera persona durante mi etapa como Director de Formación y Desarrollo en HP Servicios.

Por ejemplo, el trabajo previo a la formación puede ser muy útil en determinados casos y un grave error en otros. Si tomamos el caso concreto de metodologías de productividad y efectividad personal, como GTD® y OPTIMA3®, el trabajo previo – entendido como facilitar información por adelantado sobre la metodología – es un grave error, ya que en lugar de partir de una única ignorancia compartida, la persona que facilita la formación tiene que lidiar con múltiples interpretaciones erróneas, derivadas de las suposiciones que cada persona ha generado por su cuenta a partir de ese trabajo previo.

Lo mismo ocurre con las «post-actividades» tipo «café para todos», que normalmente quedan definidas antes de que tenga siquiera lugar la formación y, por tanto, antes de saber cuáles son las necesidades reales de cada persona una vez ha participado en la misma. Afortunadamente, también empieza a ser habitual que muchas organizaciones ofrezcan servicios de «acompañamiento» posteriores a la formación, de manera que las personas cuenten con el apoyo que necesitan a la hora de interiorizar y aplicar lo aprendido ya que, como todo el mundo sabe, tu vida no va a cambiar en un taller formativo.

Pero volvamos al tema de la formación personalizada. ¿Es una demanda que obedece a una necesidad real o es simplemente una moda absurda? La respuesta es «depende».

Depende de si estamos hablando de una formación centrada en «cómos» o de si estamos hablando de una formación centrada en «qués».

Si se trata de una formación centrada en «cómos», la personalización puede ser importante e, incluso, imprescindible. Si, por ejemplo, quiero que una persona aprenda «cómo» cambiar una pieza específica de un mecanismo complejo, el proceso de aprendizaje será mucho más efectivo si se lleva a cabo sobre ese mecanismo en concreto que si se lleva a cabo sobre un mecanismo genérico parecido y mucho más aún que si me dedico a contarle a la persona «qué» tiene que hacer para cambiar la pieza en lugar de explicarle «cómo» cambiarla.

Sin embargo, si se trata de una formación centrada en «qués», la personalización suele ser un error, en la medida que constituye un obstáculo potencial al proceso de aprendizaje. ¿A qué se debe esto? Muy sencillo. Moverse en el mundo de los «qués» significa moverse en un mundo abstracto, conceptual, que para la gran mayoría de las personas supone un esfuerzo superior – o sea, es menos cómodo – que moverse en el mundo de los «cómos», es decir, de las secuencias concretas de acciones que simplemente hay que seguir para lograr los «qués».

El problema de los «cómos» es que pueden ejecutarse sin necesidad de saber «qué» efecto producen, ni «por qué» ni «para qué» se ejecutan. Por ese motivo, al ser ajenos al resto del contexto, en el momento en que es necesario hacer algún cambio en el «cómo», todo lo aprendido puede volverse inútil.

En el trabajo del conocimiento en particular, como muy bien explica Pablo Arango en este post, centrar el esfuerzo en aprender los «cómos» es una pérdida de tiempo, ya que lo importante es entender y dominar los «qués», sin perder nunca de vista los «por qués» y los «para qués». Cuando se entiende y se sabe «qué» se está haciendo, «por qué» se está haciendo y «para qué» se está haciendo, el «cómo» hacerlo resulta extremadamente sencillo. Lo que ocurre es que a casi todos nos atraen mucho más los «cómos», porque nos exigen mucho menos esfuerzo intelectual.

En el caso de la formación en productividad y efectividad personal, lo importante es que las personas entiendan con claridad «qué» tiene que hacer distinto, «por qué» es necesario ese cambio y «para qué» lo hacen, es decir, que van a obtener de ello. Los «cómo» son la simple consecuencia lógica de lo anterior. Centrar una formación en productividad y efectividad personal en explicar muy bien los «cómos» sin haber asegurado antes la comprensión de los «qués», «por qués» y «para qués» suele ser síntoma inequívoco de mediocridad, tanto en lo que atañe al producto como en lo que atañe a la competencia profesional de quien lo imparte.

El problema de personalizar este tipo de formaciones es que las personas, al ver los ejemplos tan próximos a su día a día, entienden que lo relevante son los «cómos» e intentan memorizarlos, para luego repetirlos, haciendo caso omiso a los «qués», «por qués» y «para qués». La utilidad de emplear ejemplos y casos ajenos a lo cotidiano «fuerza» de algún modo a estas personas a salir de la comodidad de los «cómos» y tener que adentrarse en las incomodidades de los «qués», produciendo un efecto análogo al del «ruido conceptual».

En resumen, seguir las modas suele ser una mala praxis cuando se trata de formación para profesionales del conocimiento. Formar en «cómos» ha sido lo habitual en el «trabajo manual», pero el trabajo del conocimiento es excesivamente volátil, incierto, cambiante y ambiguo, por lo que nada basado en «cómos» es mínimamente duradero, de ahí la gran importancia del aprendizaje basado en «qués», «por qués» y «para qués» y de dejar a un lado la inefectiva moda de la personalización.

Chapuza y perfeccionismo frente a eficacia óptima

Efectividad es la combinación idónea de eficiencia y eficacia, lo que Peter Drucker llamó «hacer bien las cosas correctas». La eficiencia tiene que ver con el uso de recursos para la consecución del resultado. La eficacia tiene que ver con la calidad del resultado. En la práctica, la efectividad máxima rara vez está asociada a una eficiencia o a una eficacia máximas. Por el contrario, la efectividad máxima suele ir asociada a una combinación de eficiencia y eficacia óptimas.

En este contexto, la «chapuza» es el resultado de maximizar la eficiencia en detrimento de la eficacia. Por su parte, el perfeccionismo supone maximizar la eficacia en detrimento de la eficiencia. En contraste con lo anterior, la efectividad conlleva optimizar tanto la eficiencia como la eficacia. Lo importante es entender que, cuando hablamos de efectividad, «máximo» y «óptimo» pueden, y suelen, ser distintos.

Muchas organizaciones continúan obsesionadas con maximizar la eficiencia y esto les plantea un serio problema a la hora de mejorar su efectividad. Esta obsesión procede de un pasado en el que la mayor parte del trabajo era manual. En ese contexto, tenía sentido que el foco de las organizaciones estuviera puesto en maximizar la eficiencia, es decir, en maximizar la productividad, bien produciendo más por el mismo coste, bien manteniendo la producción reduciendo los costes.

Pero en el trabajo del conocimiento la situación es muy distinta, hasta el punto de que una menor eficiencia puede incluso traducirse en un aumento de efectividad, al ser compensada por una mayor eficacia. Esto nunca puede suceder en el trabajo manual.

A pesar de que la mayor parte de las organizaciones actuales dejaron de trabajar hace décadas en esquemas de trabajo manual, su mentalidad sigue anclada a este viejo paradigma de la eficiencia máxima. Una consecuencia de lo anterior es que muchas organizaciones siguen operando a la búsqueda de la «eficacia mínima viable», es decir, aplicando la «ley del mínimo esfuerzo».

El paradigma de la «eficacia mínima viable» es un problema para las organizaciones porque antepone la maximización de la eficiencia a todo lo demás, lo que implica, entre otras cosas, abandonar de antemano la búsqueda de la «eficacia óptima», que es la que en realidad les permitiría mejorar su efectividad.

Un ejemplo de las consecuencias derivadas de esta visión estrecha de la realidad son los procesos de toma de decisiones, que suelen dejar mucho que desear. A menudo, la decisión que se toma es la «primera decisión viable», en lugar de continuar el proceso en busca de otras «decisiones viables» que puedan conducir a la «decisión óptima viable».

En muchas organizaciones se entiende – culturalmente hablando – que seguir trabajando en una decisión tiene sentido, únicamente, mientras las alternativas que van surgiendo no son viables, por cualquier motivo: son demasiado caras, llevan demasiado tiempo, conllevan demasiado riesgo, etc. En el momento en que aparece una posible decisión sin un «demasiado» junto a ella, se da por válida. La pregunta que habría que plantearse aquí es ¿cuál es la probabilidad de que la «primera decisión viable» sea siempre la «decisión óptima viable»?

Trabajar en el paradigma de la «eficacia mínima viable» lleva a las organizaciones a vivir asentadas en el reino de la «chapuza», es decir, a buscar por sistema soluciones para «salir del paso», ya que es este planteamiento lo que les permite alcanzar los resultados maximizando la eficiencia. Además de los efectos negativos evidentes en cuanto a calidad del resultado, este planteamiento supone una puñalada mortal a la hora de que las personas de la organización puedan ejercer y acrecentar su maestría, lo que contribuye a explicar por qué el trabajo postureo está cada vez más asentado en estas organizaciones.

Como alternativa a estas malas prácticas, las metodologías de efectividad más innovadoras plantean técnicas específicas para encontrar las «decisiones óptimas viables» y trabajar a partir de ellas. El resultado de aplicar estas técnicas probadas es transformar una reducción insignificante de eficiencia en una ganancia espectacular de eficacia y, por consiguiente, en un incremento sustancial de la efectividad.

En el extremo opuesto a la «chapuza» tenemos el otro gran enemigo de la eficacia: el perfeccionismo. En este caso, en lugar de operar a la búsqueda de la «eficacia mínima viable» se opera a la búsqueda de la «eficacia máxima posible», es decir, de la perfección del resultado. Si la «chapuza» supone el desprecio por la calidad, el perfeccionismo supone el desprecio por los recursos, lo que da lugar al despilfarro de los mismos.

El problema del perfeccionismo es que, una vez superado el punto de «eficacia óptima», se entra en zona de rendimientos decrecientes, es decir, las pérdidas de eficiencia dejan de ser compensadas por las ganancias de eficacia, lo que se traduce en una pérdida de efectividad neta. Además, cuanto más nos alejamos del punto de «eficacia óptima», mayor es la desproporción entre la pérdida de eficiencia y la ganancia de eficacia y, por tanto, mayor es la pérdida de efectividad total.

Pongamos un ejemplo. Imaginemos que para conseguir un resultado de una calidad «C» con una efectividad máxima necesito invertir una cantidad de recursos «R» durante un tiempo «T». Si opero en un paradigma de «eficiencia máxima», seguramente pueda reducir la cantidad de recursos «R» y el tiempo «T» empleado, pero ello irá en detrimento de la calidad del resultado «C», con lo que mi efectividad disminuirá. Cuanto más reduzca la cantidad de recursos «R» y el tiempo «T», más eficiente seré, pero mayor «chapuza» será el resultado, siendo también cada vez menor mi efectividad.

En el otro extremo, si opero en un paradigma de «eficacia máxima», seguramente pueda aumentar la calidad del resultado «C», pero ello irá en detrimento del consumo de recursos «R» y del tiempo empleado «T», con lo que mi efectividad también disminuirá. Cuanto más recursos «R» y tiempo «T» dedique a mejorar la calidad «C», más «perfecto» será el resultado, pero mayor será mi ineficiencia, siendo también cada vez menor mi efectividad.

En resumen, la paradoja a la que nos enfrentamos en el trabajo del conocimiento es que la forma de «maximizar» la efectividad es olvidarnos de «maximizar» la eficiencia y la eficacia. La clave para «maximizar» la efectividad es «optimizar» tanto la eficiencia como la eficacia, teniendo claro que sus valores óptimos van a ser, por lo general, inferiores a sus valores máximos.

Recordando a Drucker, «hacer bien las cosas» es distinto de «hacer las cosas de la forma más eficiente posible» y, del mismo modo, «hacer las cosas correctas» es distinto de «hacer las cosas perfectas». La «chapuza» y el perfeccionismo son – por igual – los dos grandes enemigos de la efectividad, porque la efectividad consiste en hacer las cosas de forma óptima en cuanto a consumo de recursos y calidad obtenida.

Big Data: Su efectividad está en las personas

Últimamente hay mucho «hype» alrededor del «Big data», como si se tratara de algo realmente novedoso. Y lo cierto es que el «Big data» lleva ya bastantes años entre nosotros. Simplemente ha cambiado y ahora es distinto, pero sigue manteniendo su esencia original.

¿Por qué es tan importante el «Big data»? Muy sencillo. En el trabajo del conocimiento, tu efectividad depende en gran medida de la calidad de las decisiones que tomas. Por eso el «análisis y la toma de decisiones» está en la lista de las 10 competencias más críticas para 2020 identificadas por el último foro de Davos. Y la calidad de las decisiones que tomas se ve influida enormemente por la calidad y diversidad de la información que utilizas para tomarlas. Por desgracia, muchas decisiones en las grandes organizaciones se siguen tomando a partir de suposiciones, creencias, egos, luchas de poder internas, experiencias previas, pensamiento de grupo o la simple costumbre, en lugar de hacerlo a través de un proceso riguroso y contrastado.

Leía a Javier Ongay en este post para Sintetia que «en el recorrido de los datos a la sabiduría existen dos peldaños intermedios, que son la información y el conocimiento». Añadía Javier que el «Big data» tiene que ser «Useful data» y que esa utilidad va estrechamente ligada a la identificación de un propósito, es decir, a saber «para qué» quiero, necesito o tengo que usar ese «Big data». Suscribo por completo esa afirmación, que viene a poner de maniefiesto la necesidad imperiosa de abandonar el «hacer por hacer», tan instaurado en las organizaciones (su simplismo lo hace muy cómodo), y sustituirlo por el «hacer con sentido» (exige más trabajo pero genera más valor).

Personalmente, siempre he sido un convencido de la utilidad del «Big data», algo que ha estado muy presente en todas las posiciones que he ocupado en mi actividad profesional, y sigue estándolo a día de hoy.

Por ejemplo, hace más de veinte años, cuando trabajaba como Director de Logística en HP, pedí a mi manager que me autorizara la incorporación de una persona adicional a mi equipo para que desarrollara un área de «inteligencia empresarial» o «business intelligence», que era como se le llamaba entonces en aquel entorno internacional. La respuesta de mi manager fue una pregunta: «¿para qué necesitas a una persona de «inteligencia empresarial» en un departamento de logística?». Esta pregunta me hizo tomar conciencia, por primera vez, de que aquella necesidad, que para mí era evidente además de urgente, podría no serlo para todo el mundo. El caso es que conseguí la aprobación y un año después contábamos con una sencilla, ultra barata y, a la vez, potentísima estructura, que nos permitía conocer y entender mucho mejor nuestro «negocio», solucionar los problemas con rapidez y efectividad y, lo que es mejor, ser proactivos a la hora de detectar y resolver potenciales problemas futuros antes de que se produjeran.

Años después, ya en el sector de la biotecnología, pude comprobar en primera persona hasta qué punto el «Big data» va a formar parte inseparable de nuestro futuro. Cuando lanzamos la división de negocio de NGS (Next Generation Sequencing), uno de mis primeros retos fue liderar un proceso europeo de selección de un perfil nuevo y desconocido hasta el momento: una persona experta en bioinformática, es decir, una persona con un alto nivel de conocimientos de estadística, ciencias de la computación, química y bioquímica. ¿Por qué? Muy sencillo. El equipo que comercializábamos para secuenciación genética, el SOLiD, generaba entre 1,2 y 1,4 billones anglosajones de datos por proceso de secuenciación, el cual venía a durar de una a dos semanas. Esa cantidad ingente de datos, «Big data» puro, requería un tratamiento y análisis adecuado para poder convertirlo en información y luego en conocimiento. El proceso de selección se prolongó casi nueve meses (aún recuerdo el nombre del candidato que seleccionamos, un inglés con formación académica en bioquímica y estadística y con un gran dominio de bases de datos, adquirido de manera autodidacta). Desde entonces, tengo bastante claro que muchas de las profesiones del futuro serán hibridaciones de las actuales.

¿Y qué pasa con Recursos Humanos, un área en la que el potencial del «Big data» es indudable? Pues que tenemos un problema y es que, salvo contadas excepciones, que generalmente se encuentran en los departamentos de compensación y beneficios, un porcentaje importante de profesionales de Recursos Humanos se encuentra próximo al analfabetismo tecnológico en materia de «Big data». Durante años he sufrido numerosas y frustrantes experiencias a la hora de encontrar profesionales de esta función que dominaran Excel a un nivel aceptable (me refiero a saber explotar Excel como base de datos sobre la que hacer «data mining»), lo que nos lleva a plantearnos una vez más qué perfiles necesita esta función para salir de una vez de esa adolescencia eterna en la que lleva sumida desde hace años.

Digo que tenemos un problema porque, cuando no se entiende ni se sabe trabajar con él, el «Big data» se convierte en «Junk data», es decir, en «datos basura». Ves datos, pero realmente no sabes lo que ves. Y para poder entender y aprovechar el potencial del «Big data», un profesional de Recursos Humanos necesita saber lo que ve, algo prácticamente imposible si no se domina Excel, o los conceptos de bases de datos en general, y no se han adquirido unas nociones mínimas de estadística, psicología social y antropología social, por citar unas pocas, a lo que habría que añadir alguna de las competencias recomendadas por Davos, como por ejemplo el pensamiento crítico. Si estos requisitos faltan, los datos solo sirven de adorno.

Un ejemplo. Desde hace años, los departamentos de RRHH manejan volúmenes ingentes de información. ¿Quién la está usando y para qué? He visto entrevistas de salida de varios años olvidadas sin que nadie dedicara un segundo a analizarlas. ¿Para qué se hacen entonces? Con frecuencia he escuchado afirmaciones carentes de fundamento y, lo que es peor, he visto tomar e implementar decisiones a partir de esas afirmaciones carentes de fundamento, simplemente por no ir a los datos y averiguar la verdad.

El hecho es que RRHH no progresa adecuadamente en su nivel de influencia organizativa y una de las razones es que no sabe usar los datos. Y guste o no guste, «sin datos solo eres una opinión más», como solía repetir uno de mis managers.

El «Big data» es fantástico y sus posibilidades son enormes. Sin duda. Pero, para aprovecharlas, hacen falta unos perfiles profesionales con determinadas competencias que a día de hoy distan mucho de ser el estándar. Y hasta que esto no cambie, el «Big data» será simplemente otro «palabro» de moda más, con escaso valor. Porque, en realidad, y como ocurre con otras muchas cosas, el «Big data» por sí mismo sirve para poco. Su efectividad está en las personas.

Logo redca
sigue este blog en feedly
FacileThings

Categorías