De la Dirección por Objetivos a los Resultados por Tendencias

El fracaso de la tradicional Dirección por Objetivos (DPO) en entornos VUCA es un secreto a voces sobre el que ya he escrito aquí, explicando por qué ha dejado de ser útil y ofreciendo también una posible alternativa. En esta ocasión, mi intención es profundizar sobre dicha alternativa, que es la Gestión de Tendencias (GPT), un modelo completamente distinto.

Si el principal problema de la dirección por objetivos es que dirige nuestra atención hacia un futuro hipotético, guiándola hacia la consecución de algo a menudo irreal, inalcanzable o ridículo, la principal ventaja de la gestión de tendencias es que nos centra en el presente, en lo real, en qué se lleva conseguido a día de hoy, gracias a qué y a pesar de qué.

Centrar la atención en hechos reales suele resultar por lo general mucho más efectivo que centrarla en hipótesis y deseos. Es más efectivo porque fijarnos en los resultados reales que han obtenido las personas, dejando al margen lo que nos gustaría o desearíamos o estimábamos que consiguieran, nos permite trabajar en el mundo real, más allá de la teoría.

Los resultados reales ofrecen también otra ventaja, que es la de poder ser analizados. El análisis de los resultados ayuda a entender qué es lo que ha hecho posible alcanzarlos, a pesar de qué obstáculos se han alcanzado o qué podría ayudarnos a mejorarlos. Dicho de otro modo, trabajar con resultados reales posibilita de manera también real tanto el aprendizaje como la innovación, dos de los elementos clave de la productividad del trabajador del conocimiento que citaba Drucker.

Una ventaja adicional de experimentar con realidades tangibles es que nos incita a probar cosas nuevas, conduciéndonos hacia un «círculo virtuoso», en el que, cada vez más, aprendemos de los resultados y ese mismo aprendizaje contribuye, cada vez más, a seguir mejorándolos. Por eso, uno de los grandes cambios de paradigma pendientes en el mundo de la efectividad personal y organizativa es quitar a los objetivos la relevancia injustificada que ahora tienen y devolverles la relevancia que realmente merecen, muy inferior a la que actualmente se les otorga.

Los objetivos son útiles en la medida que se utilizan de forma correcta, es decir, como hipótesis o referencias de carácter orientativo, y se convierten en un problema en la medida que se utilizan mal. Cuando un objetivo deja de ser una herramienta para convertirse en un fin, significa que se está utilizando mal.

Mucho más que los objetivos, lo importante para lograr resultados en los entornos VUCA son las tendencias. Porque, en realidad, la formula para conseguir resultados es muy sencilla: hacer sistemáticamente bien las cosas correctas o, lo que es lo mismo, mantener con firmeza la tendencia correcta. Dejar de prestar una atención inmerecida a los objetivos, y dedicársela en su lugar a las tendencias fruto de nuestras acciones, tiene un impacto directo en la consecución de resultados, porque los resultados de mañana, del mes que viene o del año próximo, serán los que tienen que ser solo en la medida en que hoy estemos haciendo bien lo que tenemos que hacer.

Si, por ejemplo, mi volumen de reclamaciones crece constamente o mi cuota de mercado cada vez es menor, tengo al menos dos opciones. Una, la opción tradicional, es ponerme el objetivo de reducir en X% mi volumen de reclamaciones o de aumentar en Y% mi cuota de mercado y, a partir de ahí, trazar los respectivos «planes de acción», que servirán para frustrarnos o congratularnos, pero difícilmente para mejorar los resultados. Esto se debe a que, en ambos casos, serán objetivos carentes de rigor y, con casi toda seguridad, o inalcanzables o menores de lo que se podría conseguir.

Otra opción, la opción innovadora, es analizar las tendencias actuales y actuar sobre ellas. ¿Cuándo empezó a aumentar mi volumen de reclamaciones o a disminuir mi cuota de mercado? ¿A qué pudo deberse? ¿Qué cambios podría tener sentido probar? A partir de ahí, podré introducir cambios y ver cómo evoluciona la tendencia. Si la tendencia sigue por mal camino, aprenderé y probaré caminos distintos. Si la tendencia empieza a mejorar, aprenderé y seguiré avanzando por los caminos que parecen conducir al resultado.

Cuando el foco deja de estar en los objetivos y pasa a estar en las tendencias, dejamos de preocuparnos por lo que queremos que pase y pasamos a centrarnos en lo que podemos hacer para que las cosas pasen. Lo que ocurre es que es mucho menos fácil, cómodo y rápido trabajar con tendencias que con objetivos. Menos cómodo y además exige mucho más esfuerzo. Porque – seamos sinceros – cambiar una tendencia es un proceso que lleva tiempo y trabajo, además de que puede suponer muchos intentos fallidos. Sin embargo, establecer objetivos se arregla con unas cuantas reuniones en las que básicamente solo hay que hablar.

El camino hacia la mejora de la efectividad personal y organizativa está claro, porque el cortoplacismo y la excelencia rara vez van de la mano. Hay que sustituir la «presión» de los objetivos por el «compromiso» con los resultados y desplazar la atención de nuestros deseos a nuestras acciones. Esto es así porque, en general, los resultados son el fruto de una serie de acciones que se han ido completando en la dirección adecuada. El aprendizaje que se deriva de lo anterior es a la vez sencillo y potente: cuando la tendencia es la que tiene que ser, los resultados suelen ser también los que tienen que ser. Coincidan o no con los objetivos.

#cienciaGTD: Teoría simbólica y trabajo del conocimiento

Cuando alguien te diga, «descuida, yo me acuerdo», desconfía. La ciencia ha demostrado que el cerebro humano es bastante desastroso recordando información de uso cotidiano. Veamos por qué.

El trabajo del conocimiento conlleva, como parte esencial del mismo, diversos tipos de procesamiento humano de la información. Algunos ejemplos de estos tipos de procesamiento serían reunir información, interpretarla, clasificarla, resolver problemas o tomar decisiones. Estos procesos mentales son bien conocidos a día de hoy, ya que llevan siendo estudiados por la ciencia cognitiva desde 1950. Uno de los primeros modelos empleados para explicar estos procesos fue la teoría simbólica.

El conocimiento es una representación interna del entorno exterior. Por su parte, la tarea principal del conocimiento es resolver problemas, es decir, responder a preguntas acerca del entorno y diseñar planes orientados a conseguir resultados en dicho entorno. La forma en que esto ocurre es manipulando los elementos que representan el entorno – los símbolos – según una serie de reglas, las cuales permiten encontrar la combinación que mejor resuelve el problema. A este modelo de funcionamiento de la mente se le llama «paradigma simbólico» y, para este modelo, el razonamiento y la planificación son la esencia del conocimiento.

El paradigma simbólico se implementó en Inteligencia Artificial (IA), con la intención de simular procesos cognitivos humanos en máquinas. Sin embargo, la aplicación de este modelo produjo resultados muy inferiores a los esperados, sobre todo en lo referente a reproducir comportamientos humanos. Este fracaso se debió en gran parte a que, al contrario de la lógica de razonamiento de los programas de IA, las reacciones de las personas suelen estar basadas en la intuición, la cual tiene sus raíces en las experiencias subjetivas asociadas a cada situación.

Gracias a la intuición, las personas son mucho más flexibles a la hora de gestionar circunstancias complejas e imprevistas.

El enfoque simbólico del conocimiento – basado en teorías abstractas de lógica y computación – ha recibido duras críticas durante las últimas dos décadas y a día de hoy ha sido reemplazado por nuevas teorías cognitivas, inspiradas en el funcionamiento holístico de la mente humana, el cual integra los aspectos biológicos, neurológicos, psicológicos y sociales de la mente.

Una de las principales críticas a las teorías simbólicas es que, si se intenta representar con símbolos todos los aspectos relevantes del mundo real, la representación resulta demasiado compleja como para poder ser explorada por un ordenador y, con mayor motivo, por el cerebro humano. De hecho, a día de hoy sabemos que, con mínimas variaciones, el cerebro es incapaz de mantener simultáneamente más de siete elementos en su memoria operativa.

Sin embargo, una descripción suficientemente detallada de cualquier situación del mundo real va a incluir cientos de símbolos – palabras, conceptos y características – combinados de millones de formas distintas, haciendo virtualmente imposible manipularlos todos a fin de explorar sistemáticamente todas sus combinaciones potencialmente relevantes.

En lugar de este trabajo titánico, lo que el cerebro hace en realidad es «apoyarse» en la memoria a largo plazo – la cual es capaz de almacenar millones de hechos – para reconocer rápidamente patrones en la información entrante. En el momento en que alguno de esos patrones es reconocido, funciona como un estímulo que desencadena las respuestas o acciones apropiadas. A diferencia de un programa de ordenador, la estructura de red neuronal del cerebro es muy buena identificando patrones y asociando los patrones identificados con las acciones adecuadas, lo que le «ahorra» tener que analizar millones de combinaciones irrelevantes. Esta estructura de red neuronal también es muy buena almacenando patrones y sus asociaciones en la memoria a largo plazo.

Por el contrario, esta estructura de red neuronal del cerebro es muy mala a la hora de mantener varios patrones activos de forma simultánea y es aún peor si intenta mantenerlos a la vez que razona. Esto es debido a que los patrones de activación neuronal interfieren unos con otros y a que la activación decae rápidamente por efecto de la dispersión y la fatiga neuronal.

Por último, mientras que la memoria a largo plazo es muy efectiva en el reconocimiento de patrones, es bastante mala a la hora de recordarlos, es decir, a la memoria le cuesta «revivir» patrones de memoria sin que se reproduzcan las circunstancias en las que los identificó. Dicho de otro modo, la memoria a largo plazo es buena identificando patrones en el momento que aparecen pero es mala acordándose de ellos más tarde. Un buen ejemplo de esto es cuando te encuentras con alguien que sabes que conoces pero no recuerdas cómo se llama. En este sentido, la memoria humana es mucho menos fiable que la memoria de un ordenador a la hora de recuperar un hecho fuera del contexto en que se produjo dicho hecho.

La conclusión a la que nos llevan estos estudios sobre el conocimiento simbólico es que la mente es enormemente ineficaz como gestor de recordatorios que tengan que ver con los aspectos operativos de nuestra vida. En sucesivos posts iremos descubriendo otros modelos y teorías que irán ofreciendo nuevas alternativas.

#cienciaGTD: Los fundamentos científicos de GTD

Cuando David Allen publicó «Getting Things Done» en 2001, lo hizo a partir de los aprendizajes que había obtenido empíricamente despues de años de experiencia trabajando en la mejora de la productividad personal. Unos años más tarde, en 2008, cuando GTD® era ya una metodología asentada y mundialmente reconocida, dos investigadores europeos, Francis Heylighen y Clément Vidal, publicaron un paper titulado «Getting Things Done: The Science behind Stress-Free Productivity». El objeto de dicho paper era cubrir las lagunas existentes en la literatura científica con relación a la productividad del trabajo del conocimiento y sus principales aportaciones han sido recientemente comentadas por el propio Allen en la edición 2015 de su bestseller.

En próximas entradas, mi intención es compartir aquí las ideas clave contenidas en el paper, ofeciendo también mi propio punto de vista y mi experiencia sobre ellas en los casos en que tenga sentido. Todas estas entradas comenzarán con el hashtag #cienciaGTD que encabeza el título de este post. Te dejo a continuación mi resumen personal de la introducción al paper de Heylighen y Vidal.

La complejidad creciente que caracteriza los entornos VUCA en los que vivimos está dejando obsoletas, a ritmo acelerado, muchas de las teorías y prácticas que, hasta hace relativamente poco tiempo, resultaban ser útiles.

El trabajo del conocimiento del que Drucker habló por primera vez en la segunda mitad del siglo XX se caracteriza, en gran parte, por ser un trabajo profundamente dependiente de la información, un elemento de naturaleza radicalmente distinta a la de las «materias primas» que tradicionalmente han ido asociadas al concepto «trabajo». A pesar de los años transcurridos desde entonces, los avances en el campo del trabajo del conocimiento son todavía escasos y, sobre todo, poco conocidos y aún menos aplicados. Este desconocimiento es especialmente amplio en lo que atañe al procesado de los flujos de información entrante.

Algunos aspectos del procesado humano de la información, como por ejemplo la toma de decisiones, la planificación de proyectos y la resolución de problemas, han sido estudiados en detalle. Sin embargo, las teorías correspondientes formuladas en su día sirven de poco a la hora de abordar el problema del exceso de información, ya que se han desarrollado dando por supuesto que siempre existe un rango finito de posibilidades de entre las cuales se puede elegir la mejor posible. Este supuesto se conoce como «paradigma de la optimización».

Sin embargo, en un entorno en el que aparece nueva información cada minuto, tanto las opciones relevantes como los criterios de decisión están sujetos a constante cambio. Esto hace que las metodologías formales de optimización resulten básicamente inservibles en el día a día del trabajo del conocimiento, ya que la racionalidad está «limitada» por la información con la que se cuenta en cada momento, de tal forma que nunca existe la certeza de contar con «toda» y «la más actualizada» información que sería necesaria para poder elegir de manera óptima según los modelos clásicos.

Consecuencia de lo anterior, la mayoría de las personas sigue, en la práctica, una estrategia de toma de decisiones oportunista, es decir, elige la que parece mejor de entre las opciones existentes en un momento dado pero permanenciendo dispuesta a cambiar si aparece nueva información que haga que la mejor opción pase a ser otra distinta de la inicialmente elegida. El problema es que esta forma de elección produce una enorme falta de enfoque, que a su vez se traduce en que las personas no sepan realmente qué intentar conseguir ni qué hacer, o qué no hacer, para logarlo. Por si fuera poco, el bombardeo permanente con nuevas informaciones hace que los planes, decisiones o datos relevantes previos a la llegada de dichas informaciones sean a menudo olvidados o descartados, dando frecuentemente lugar a un sentimiento de culpa.

Las metodologías surgidas en las últimas dos décadas del siglo XX comparten un error común: intentar solucionar los problemas característicos del trabajo del conocimiento dentro del «paradigma de la optimización», característico del trabajo tradicional. Consecuencia de este enfoque erróneo, proponen la formulación de objetivos y prioridades (criterios de optimización) para posteriormente ordenar las distintas tareas en función de a) cuánto contribuyen a dichos objetivos y prioridades y b) cuánto tiempo, esfuerzo u otros recursos van a requerir. A partir de ahí, la recomendación es enfocarse en las tareas que maximizan la contribución a los objetivos y prioridades definidos a la vez que minimizan el consumo de recursos.

Aunque la estrategia anterior pueda parecer evidente, comete el grave error de ignorar el hecho fundamental de que, en el trabajo del conocimiento, tanto las prioridades como los recursos están sujetos a constante cambio ya que la información, a diferencia de los recursos materiales, no es una cantidad estática sino que puede aparecer (ser descubierta o comunicada) o desaparecer (quedar obsoleta) en cualquier instante.

Paradójicamente, aplicar el «paradigma de la optimización» al trabajo del conocimiento, además de ser inútil para la mejora de la efectividad, da lugar a un grave efecto secundario, que es el de aumentar los niveles de estrés en lugar de reducirlos, debido a que las personas dejan de hacer lo que habían decidido hacer al aparecer nuevas informaciones imprevistas que cambian las prioridades y los recursos, lo que les genera el sentimiento de culpa antes mencionado a la vez que una gran desorientación, por no poder fiarse ni de sus propias decisiones, a pesar de ser decisiones supuestamente «óptimas».

La aparición de GTD supone el primer intento serio de resolver el problema desde un nuevo paradigma. Veremos cómo y por qué en futuros posts.

Logo redca
sigue este blog en feedly

Mi perfil en Twitter

FacileThings

Categorías

Versión móvil

Código QR