4º Espacio Factor Humà: Redefiniendo el liderazgo

El pasado día 25 de octubre tuvo lugar en Barcelona el 4º Espacio Factor Humà, en el que tuve el placer de participar invitado como ponente. El título de mi ponencia era «El nuevo liderazgo se llama efectividad», que coincide con el título de uno de los posts más leídos del blog, en el que recojo 30 frases memorables de Peter Drucker sobre esta nueva competencia.

Quienes me conocen, saben que soy bastante reacio a participar en eventos, pero en este caso se trataba de algo distinto. Creo que Anna Fornés y todo el equipo de Fundació Factor Humà están llevando a cabo un magnífico y muy necesario trabajo llevando aire fresco al, por lo general, rancio mundo de Recursos Humanos, así que este proyecto me sedujo desde el primer instante.

Días antes del evento, recibía los resultados de una encuesta previa al mismo en la que participaron más de 300 personas del ámbito de Recursos Humanos. Me llamó la atención que más de la mitad de las respuestas procedieran de grandes empresas y que cerca del 40 por ciento de ellas fueran de personas en posiciones directivas.

Centrándonos en los resultados de la encuesta, un tercio de los participantes afirmaba pasar gran parte de su día «apagando fuegos». Mi experiencia es que la cifra real es considerablemente mayor, aunque entre los directivos cueste mucho reconocerlo. El otro resultado, bastante sorprendente para mí, es que la efectividad organizacional es considerada el reto más importante para el management, con el 56% del total de los votos. Digo sorprendente porque la efectividad, tanto la personal como la organizativa, es un campo en el que un gran número de empresas españolas está todavía «en pañales». Sobre eso trataba precisamente mi intervención, que duró algo menos de 30′. Si quieres echar un vistazo a la presentación que utilicé, la tienes en SlideShare.

A pesar de que la situación ha cambiado drásticamente en las últimas décadas, muchas empresas siguen pensando dentro del paradigma industrial. En este paradigma, las mejoras de productividad vienen mayoritariamente de la mano de la mejora de procesos, la inversión en tecnología y la adecuación de las estructuras organizativas a las necesidades del momento. Las personas siempre han jugado un papel de «segundonas», en la medida que eran equivalentes a «mano de obra». Esto ya no es así y cada vez lo es menos. Ahora las personas son la clave para que las organizaciones alcancen sus resultados. Peter Drucker, ese gran sabio ignorado del management, lo decía de forma clara y cristalina en su libro «La sociedad post capitalista»:

«La teoría política y social, desde Platón y Aristóteles, se ha centrado en el poder. Pero el principio que informa y organiza la sociedad post-capitalista debe ser la responsabilidad. La sociedad de las organizaciones, la sociedad del conocimiento, exige una organización basada en la responsabilidad. En el trabajo del conocimiento, la organización se compone cada vez más de especialistas. Cada uno de ellos sabe más sobre su especialidad que ninguna otra persona en la organización. En las viejas organizaciones se asumía que el superior sabía lo que hacía su subordinado, porque ese superior había estado haciendo ese mismo trabajo tan solo unos años antes. Las organizaciones del conocimiento tienen que asumir que el superior ignora el trabajo de sus subordinados. Por tanto, la organización del conocimiento exige que todo el mundo asuma la responsabilidad sobre sus resultados. Esto implica que todos y cada uno de los miembros de la organización tienen que pensar sobre su contribución y sus resultados y responsabilizarse de ambos. Esto conlleva que no haya subordinados sino asociados. Se habla mucho de derechos y de empoderamiento. Estos términos expresan el fracaso de las organizaciones basadas en el ordeno y mando. Pero siguen siendo términos de poder y de rango, al igual que otros términos anteriores. En su lugar se debería estar hablando de responsabilidad y de contribución.»

A diferencia de lo que ocurre con el liderazgo tradicional, la efectividad es la competencia que permite a los profesionales del conocimiento asumir la plena responsabilidad sobre su contribución a los resultados de la organización, porque les permite autogestionarse de forma idónea para ello. Por eso, el liderazgo tradicional, en el que se sigue hablando de élites organizativas, es un anacronismo histórico y una torpeza organizativa, en la medida que supone un freno para que las personas puedan expresar la totalidad de su potencial. Una organización competitiva es una organización ágil y adaptable, centrada en las personas y en la que las personas son capaces de dar lo mejor de sí mismas. Porque, como también dijo Drucker, «la inteligencia, la imaginación y el conocimiento son recursos esenciales, pero únicamente la efectividad los convierte en resultados». Por eso, el nuevo liderazgo se llama efectividad.

Chapuza y perfeccionismo frente a eficacia óptima

Efectividad es la combinación idónea de eficiencia y eficacia, lo que Peter Drucker llamó «hacer bien las cosas correctas». La eficiencia tiene que ver con el uso de recursos para la consecución del resultado. La eficacia tiene que ver con la calidad del resultado. En la práctica, la efectividad máxima rara vez está asociada a una eficiencia o a una eficacia máximas. Por el contrario, la efectividad máxima suele ir asociada a una combinación de eficiencia y eficacia óptimas.

En este contexto, la «chapuza» es el resultado de maximizar la eficiencia en detrimento de la eficacia. Por su parte, el perfeccionismo supone maximizar la eficacia en detrimento de la eficiencia. En contraste con lo anterior, la efectividad conlleva optimizar tanto la eficiencia como la eficacia. Lo importante es entender que, cuando hablamos de efectividad, «máximo» y «óptimo» pueden, y suelen, ser distintos.

Muchas organizaciones continúan obsesionadas con maximizar la eficiencia y esto les plantea un serio problema a la hora de mejorar su efectividad. Esta obsesión procede de un pasado en el que la mayor parte del trabajo era manual. En ese contexto, tenía sentido que el foco de las organizaciones estuviera puesto en maximizar la eficiencia, es decir, en maximizar la productividad, bien produciendo más por el mismo coste, bien manteniendo la producción reduciendo los costes.

Pero en el trabajo del conocimiento la situación es muy distinta, hasta el punto de que una menor eficiencia puede incluso traducirse en un aumento de efectividad, al ser compensada por una mayor eficacia. Esto nunca puede suceder en el trabajo manual.

A pesar de que la mayor parte de las organizaciones actuales dejaron de trabajar hace décadas en esquemas de trabajo manual, su mentalidad sigue anclada a este viejo paradigma de la eficiencia máxima. Una consecuencia de lo anterior es que muchas organizaciones siguen operando a la búsqueda de la «eficacia mínima viable», es decir, aplicando la «ley del mínimo esfuerzo».

El paradigma de la «eficacia mínima viable» es un problema para las organizaciones porque antepone la maximización de la eficiencia a todo lo demás, lo que implica, entre otras cosas, abandonar de antemano la búsqueda de la «eficacia óptima», que es la que en realidad les permitiría mejorar su efectividad.

Un ejemplo de las consecuencias derivadas de esta visión estrecha de la realidad son los procesos de toma de decisiones, que suelen dejar mucho que desear. A menudo, la decisión que se toma es la «primera decisión viable», en lugar de continuar el proceso en busca de otras «decisiones viables» que puedan conducir a la «decisión óptima viable».

En muchas organizaciones se entiende – culturalmente hablando – que seguir trabajando en una decisión tiene sentido, únicamente, mientras las alternativas que van surgiendo no son viables, por cualquier motivo: son demasiado caras, llevan demasiado tiempo, conllevan demasiado riesgo, etc. En el momento en que aparece una posible decisión sin un «demasiado» junto a ella, se da por válida. La pregunta que habría que plantearse aquí es ¿cuál es la probabilidad de que la «primera decisión viable» sea siempre la «decisión óptima viable»?

Trabajar en el paradigma de la «eficacia mínima viable» lleva a las organizaciones a vivir asentadas en el reino de la «chapuza», es decir, a buscar por sistema soluciones para «salir del paso», ya que es este planteamiento lo que les permite alcanzar los resultados maximizando la eficiencia. Además de los efectos negativos evidentes en cuanto a calidad del resultado, este planteamiento supone una puñalada mortal a la hora de que las personas de la organización puedan ejercer y acrecentar su maestría, lo que contribuye a explicar por qué el trabajo postureo está cada vez más asentado en estas organizaciones.

Como alternativa a estas malas prácticas, las metodologías de efectividad más innovadoras plantean técnicas específicas para encontrar las «decisiones óptimas viables» y trabajar a partir de ellas. El resultado de aplicar estas técnicas probadas es transformar una reducción insignificante de eficiencia en una ganancia espectacular de eficacia y, por consiguiente, en un incremento sustancial de la efectividad.

En el extremo opuesto a la «chapuza» tenemos el otro gran enemigo de la eficacia: el perfeccionismo. En este caso, en lugar de operar a la búsqueda de la «eficacia mínima viable» se opera a la búsqueda de la «eficacia máxima posible», es decir, de la perfección del resultado. Si la «chapuza» supone el desprecio por la calidad, el perfeccionismo supone el desprecio por los recursos, lo que da lugar al despilfarro de los mismos.

El problema del perfeccionismo es que, una vez superado el punto de «eficacia óptima», se entra en zona de rendimientos decrecientes, es decir, las pérdidas de eficiencia dejan de ser compensadas por las ganancias de eficacia, lo que se traduce en una pérdida de efectividad neta. Además, cuanto más nos alejamos del punto de «eficacia óptima», mayor es la desproporción entre la pérdida de eficiencia y la ganancia de eficacia y, por tanto, mayor es la pérdida de efectividad total.

Pongamos un ejemplo. Imaginemos que para conseguir un resultado de una calidad «C» con una efectividad máxima necesito invertir una cantidad de recursos «R» durante un tiempo «T». Si opero en un paradigma de «eficiencia máxima», seguramente pueda reducir la cantidad de recursos «R» y el tiempo «T» empleado, pero ello irá en detrimento de la calidad del resultado «C», con lo que mi efectividad disminuirá. Cuanto más reduzca la cantidad de recursos «R» y el tiempo «T», más eficiente seré, pero mayor «chapuza» será el resultado, siendo también cada vez menor mi efectividad.

En el otro extremo, si opero en un paradigma de «eficacia máxima», seguramente pueda aumentar la calidad del resultado «C», pero ello irá en detrimento del consumo de recursos «R» y del tiempo empleado «T», con lo que mi efectividad también disminuirá. Cuanto más recursos «R» y tiempo «T» dedique a mejorar la calidad «C», más «perfecto» será el resultado, pero mayor será mi ineficiencia, siendo también cada vez menor mi efectividad.

En resumen, la paradoja a la que nos enfrentamos en el trabajo del conocimiento es que la forma de «maximizar» la efectividad es olvidarnos de «maximizar» la eficiencia y la eficacia. La clave para «maximizar» la efectividad es «optimizar» tanto la eficiencia como la eficacia, teniendo claro que sus valores óptimos van a ser, por lo general, inferiores a sus valores máximos.

Recordando a Drucker, «hacer bien las cosas» es distinto de «hacer las cosas de la forma más eficiente posible» y, del mismo modo, «hacer las cosas correctas» es distinto de «hacer las cosas perfectas». La «chapuza» y el perfeccionismo son – por igual – los dos grandes enemigos de la efectividad, porque la efectividad consiste en hacer las cosas de forma óptima en cuanto a consumo de recursos y calidad obtenida.

Big Data: Su efectividad está en las personas

Últimamente hay mucho «hype» alrededor del «Big data», como si se tratara de algo realmente novedoso. Y lo cierto es que el «Big data» lleva ya bastantes años entre nosotros. Simplemente ha cambiado y ahora es distinto, pero sigue manteniendo su esencia original.

¿Por qué es tan importante el «Big data»? Muy sencillo. En el trabajo del conocimiento, tu efectividad depende en gran medida de la calidad de las decisiones que tomas. Por eso el «análisis y la toma de decisiones» está en la lista de las 10 competencias más críticas para 2020 identificadas por el último foro de Davos. Y la calidad de las decisiones que tomas se ve influida enormemente por la calidad y diversidad de la información que utilizas para tomarlas. Por desgracia, muchas decisiones en las grandes organizaciones se siguen tomando a partir de suposiciones, creencias, egos, luchas de poder internas, experiencias previas, pensamiento de grupo o la simple costumbre, en lugar de hacerlo a través de un proceso riguroso y contrastado.

Leía a Javier Ongay en este post para Sintetia que «en el recorrido de los datos a la sabiduría existen dos peldaños intermedios, que son la información y el conocimiento». Añadía Javier que el «Big data» tiene que ser «Useful data» y que esa utilidad va estrechamente ligada a la identificación de un propósito, es decir, a saber «para qué» quiero, necesito o tengo que usar ese «Big data». Suscribo por completo esa afirmación, que viene a poner de maniefiesto la necesidad imperiosa de abandonar el «hacer por hacer», tan instaurado en las organizaciones (su simplismo lo hace muy cómodo), y sustituirlo por el «hacer con sentido» (exige más trabajo pero genera más valor).

Personalmente, siempre he sido un convencido de la utilidad del «Big data», algo que ha estado muy presente en todas las posiciones que he ocupado en mi actividad profesional, y sigue estándolo a día de hoy.

Por ejemplo, hace más de veinte años, cuando trabajaba como Director de Logística en HP, pedí a mi manager que me autorizara la incorporación de una persona adicional a mi equipo para que desarrollara un área de «inteligencia empresarial» o «business intelligence», que era como se le llamaba entonces en aquel entorno internacional. La respuesta de mi manager fue una pregunta: «¿para qué necesitas a una persona de «inteligencia empresarial» en un departamento de logística?». Esta pregunta me hizo tomar conciencia, por primera vez, de que aquella necesidad, que para mí era evidente además de urgente, podría no serlo para todo el mundo. El caso es que conseguí la aprobación y un año después contábamos con una sencilla, ultra barata y, a la vez, potentísima estructura, que nos permitía conocer y entender mucho mejor nuestro «negocio», solucionar los problemas con rapidez y efectividad y, lo que es mejor, ser proactivos a la hora de detectar y resolver potenciales problemas futuros antes de que se produjeran.

Años después, ya en el sector de la biotecnología, pude comprobar en primera persona hasta qué punto el «Big data» va a formar parte inseparable de nuestro futuro. Cuando lanzamos la división de negocio de NGS (Next Generation Sequencing), uno de mis primeros retos fue liderar un proceso europeo de selección de un perfil nuevo y desconocido hasta el momento: una persona experta en bioinformática, es decir, una persona con un alto nivel de conocimientos de estadística, ciencias de la computación, química y bioquímica. ¿Por qué? Muy sencillo. El equipo que comercializábamos para secuenciación genética, el SOLiD, generaba entre 1,2 y 1,4 billones anglosajones de datos por proceso de secuenciación, el cual venía a durar de una a dos semanas. Esa cantidad ingente de datos, «Big data» puro, requería un tratamiento y análisis adecuado para poder convertirlo en información y luego en conocimiento. El proceso de selección se prolongó casi nueve meses (aún recuerdo el nombre del candidato que seleccionamos, un inglés con formación académica en bioquímica y estadística y con un gran dominio de bases de datos, adquirido de manera autodidacta). Desde entonces, tengo bastante claro que muchas de las profesiones del futuro serán hibridaciones de las actuales.

¿Y qué pasa con Recursos Humanos, un área en la que el potencial del «Big data» es indudable? Pues que tenemos un problema y es que, salvo contadas excepciones, que generalmente se encuentran en los departamentos de compensación y beneficios, un porcentaje importante de profesionales de Recursos Humanos se encuentra próximo al analfabetismo tecnológico en materia de «Big data». Durante años he sufrido numerosas y frustrantes experiencias a la hora de encontrar profesionales de esta función que dominaran Excel a un nivel aceptable (me refiero a saber explotar Excel como base de datos sobre la que hacer «data mining»), lo que nos lleva a plantearnos una vez más qué perfiles necesita esta función para salir de una vez de esa adolescencia eterna en la que lleva sumida desde hace años.

Digo que tenemos un problema porque, cuando no se entiende ni se sabe trabajar con él, el «Big data» se convierte en «Junk data», es decir, en «datos basura». Ves datos, pero realmente no sabes lo que ves. Y para poder entender y aprovechar el potencial del «Big data», un profesional de Recursos Humanos necesita saber lo que ve, algo prácticamente imposible si no se domina Excel, o los conceptos de bases de datos en general, y no se han adquirido unas nociones mínimas de estadística, psicología social y antropología social, por citar unas pocas, a lo que habría que añadir alguna de las competencias recomendadas por Davos, como por ejemplo el pensamiento crítico. Si estos requisitos faltan, los datos solo sirven de adorno.

Un ejemplo. Desde hace años, los departamentos de RRHH manejan volúmenes ingentes de información. ¿Quién la está usando y para qué? He visto entrevistas de salida de varios años olvidadas sin que nadie dedicara un segundo a analizarlas. ¿Para qué se hacen entonces? Con frecuencia he escuchado afirmaciones carentes de fundamento y, lo que es peor, he visto tomar e implementar decisiones a partir de esas afirmaciones carentes de fundamento, simplemente por no ir a los datos y averiguar la verdad.

El hecho es que RRHH no progresa adecuadamente en su nivel de influencia organizativa y una de las razones es que no sabe usar los datos. Y guste o no guste, «sin datos solo eres una opinión más», como solía repetir uno de mis managers.

El «Big data» es fantástico y sus posibilidades son enormes. Sin duda. Pero, para aprovecharlas, hacen falta unos perfiles profesionales con determinadas competencias que a día de hoy distan mucho de ser el estándar. Y hasta que esto no cambie, el «Big data» será simplemente otro «palabro» de moda más, con escaso valor. Porque, en realidad, y como ocurre con otras muchas cosas, el «Big data» por sí mismo sirve para poco. Su efectividad está en las personas.

Logo redca
sigue este blog en feedly
FacileThings

Categorías

Versión móvil

Código QR