sábado, 7 de septiembre de 2024

Evolución en la Gestión de la Seguridad: Del Enfoque en el Error Humano a la Comprensión Sistémica.

El siglo XXI ha transformado radicalmente la gestión de la seguridad en industrias críticas, moviendo el enfoque desde el error humano hacia una perspectiva más amplia que considera los factores sistémicos y organizacionales. Históricamente, la seguridad se centraba en identificar y corregir errores individuales, bajo la suposición de que estos eran la causa principal de los incidentes. Sin embargo, este enfoque resultó ser limitado, ya que no tomaba en cuenta los factores organizacionales subyacentes que facilitaban la ocurrencia de errores.

De la culpa individual al análisis sistémico

Tradicionalmente, los esfuerzos de seguridad se enfocaban en identificar y corregir los errores humanos, considerando que estos estaban en el núcleo de los eventos adversos. Se pensaba que la acción o inacción de una persona específica era la causa directa de un incidente. Este enfoque se basaba en la creencia de que al corregir el comportamiento del individuo, se evitarían futuros incidentes.

Sin embargo, esta perspectiva ha sido ampliamente superada por su simplicidad, ya que no considera los factores sistémicos y organizacionales que pueden contribuir al error. Factores como la cultura organizacional, deficiencias en la comunicación, fallas en la capacitación, distracciones, sesgos o presiones laborales pueden facilitar la ocurrencia de errores humanos. En este sentido, el error humano es más bien un síntoma visible de problemas más profundos y sistémicos, y abordar solo el error individual no resuelve las causas subyacentes que continúan poniendo en riesgo la seguridad operativa.

James Reason, con su teoría del «modelo de queso suizo», destacó cómo estos errores no ocurren en el vacío, sino dentro de un sistema con múltiples capas de defensa que pueden fallar. Esta perspectiva ha sido fundamental para entender que la mayoría de los errores resultan de fallos organizacionales subyacentes.

Por su parte, Sidney Dekker ha promovido la idea de la «just culture» o «cultura justa», que busca equilibrar la responsabilidad individual con la necesidad de comprender y mejorar los sistemas en los que operan las personas. Este enfoque en la gestión de la seguridad crea un ambiente en el que se fomenta la comunicación abierta sobre los errores, sin temor a represalias injustas, mientras se distingue entre errores genuinos y conductas negligentes o intencionales.

En una cultura justa, los errores que ocurren como resultado de decisiones razonables dadas las circunstancias y la información disponible, son tratados como oportunidades para mejorar los sistemas y procesos, en lugar de sancionar a los individuos. Sin embargo, los comportamientos que implican negligencia grave, imprudencia o violaciones deliberadas de las normas se tratan con las consecuencias adecuadas. Este enfoque promueve un entorno en el que los operadores se sienten seguros para reportar errores y problemas, ayudando a las organizaciones a identificar y abordar los factores subyacentes que pueden llevar a incidentes, mejorando así la seguridad y la resiliencia del sistema en su conjunto.

Charles Perrow, sociólogo estadounidense, es conocido por su teoría de los «accidentes normales» (Normal Accidents), la cual argumenta que en sistemas complejos y de alta tecnología, como las plantas nucleares o las industrias aeroespaciales, los accidentes son inevitables debido a la interacción impredecible entre componentes altamente interconectados. Perrow sostiene que estos sistemas están diseñados de tal manera que los errores no son simplemente el resultado de fallas individuales, sino que emergen de la complejidad inherente y la organización del sistema en sí. Su trabajo ha influido en la manera en que las organizaciones piensan sobre la seguridad y la gestión del riesgo, enfatizando la importancia de comprender y gestionar la complejidad sistémica para prevenir accidentes catastróficos.

Normalización del desvío

El concepto de normalización del desvío se refiere a cómo las prácticas irregulares, aunque inicialmente percibidas como excepciones, pueden llegar a ser aceptadas como norma dentro de una organización. Si este fenómeno no se gestiona adecuadamente, puede aumentar significativamente el riesgo de eventos adversos.

Diane Vaughan, en su estudio sobre el desastre del Challenger («The Challenger Launch Decision: Risky Technology, Culture, and Deviance at NASA«), introdujo este concepto, demostrando cómo las organizaciones pueden llegar a aceptar prácticas inseguras como normales. Vaughan mostró que, en el caso del Challenger, la organización gradualmente aceptó niveles de riesgo cada vez mayores en los lanzamientos del transbordador, basándose en éxitos previos y sin reconocer que se estaban desviando de los estándares de seguridad originales. Este deslizamiento gradual en los estándares de seguridad contribuyó directamente a la tragedia.

Gestión del Cambio y Deriva Práctica

La gestión del cambio, tanto en procesos como en tecnología, es vital para mantener la seguridad. Sin embargo, los cambios mal gestionados pueden conducir a la deriva práctica, donde las prácticas operativas se desvían gradualmente de los estándares establecidos, aumentando el riesgo. El análisis de la deriva práctica permite identificar estas desviaciones y corregirlas antes de que se conviertan en problemas críticos.

La diferencia relevante entre las industrias ultra seguras y otras organizaciones es el cuidado con que reaccionan ante las señales más débiles de que se acerca algún tipo de cambio o peligro.

Kurt Lewin, pionero en la psicología social, desarrolló en la década de 1940 un modelo de cambio organizacional de tres etapas: descongelar (unfreezing), cambiar (changing) y recongelar (refreezing). Este modelo sigue siendo una base fundamental en el estudio de la gestión del cambio en organizaciones.

La deriva práctica, concepto desarrollado por Sidney Dekker, describe cómo las prácticas operativas en una organización pueden desviarse gradualmente de los estándares establecidos, lo que aumenta el riesgo de accidentes o errores. Este desvío puede ser lento y difícil de detectar sin una vigilancia continua. A menudo, las concesiones operativas se originan por la presión para cumplir con plazos, la reducción de costos o la percepción de que ciertas normas son innecesarias. Aunque estos cambios se perciben como racionales en su momento, con el tiempo pueden llevar a una desconexión significativa entre las prácticas reales y los estándares de seguridad.

Factores organizacionales subyacentes

Los factores organizacionales, como la cultura de seguridad, la estructura de la organización y las políticas de incentivos, juegan un rol fundamental en la seguridad operativa. Un enfoque centrado en la organización, en lugar de en el individuo, facilita la creación de entornos más seguros y resilientes.

Karl Weick y Kathleen Sutcliffe son dos de los principales investigadores en el estudio de las Organizaciones de Alta Confiabilidad (High Reliability Organizations, HROs). Las HROs son organizaciones que operan en entornos de alto riesgo y, sin embargo, logran mantener una tasa de accidentes extremadamente baja, como es el caso de la aviación comercial, las plantas nucleares y las operaciones militares.

Comprensión, procesamiento y toma de decisiones desde la Neurociencia

La neurociencia ha demostrado que la forma en que los seres humanos comprenden, procesan la información y toman decisiones está influenciada por una combinación compleja de factores cognitivos, emocionales y contextuales. La percepción del riesgo, el estrés, la fatiga y las presiones sociales pueden afectar significativamente el rendimiento y la seguridad en entornos operativos.

Estudios neurocientíficos han revelado que el cerebro humano no siempre opera de manera lógica o racional bajo presión, lo que puede llevar a errores en la toma de decisiones, incluso cuando se siguen procedimientos establecidos. Comprender cómo funciona el cerebro bajo diferentes condiciones permite a las organizaciones diseñar sistemas que apoyen mejor la toma de decisiones humanas, mitigando así los riesgos.

Por ejemplo, investigaciones en neurociencia cognitiva sugieren que la carga cognitiva y el multitasking pueden reducir la capacidad de una persona para procesar información y tomar decisiones acertadas, especialmente en situaciones de alta presión o emergencia. El multitasking parte de la falsa hipótesis que el cerebro divide su atención entre varias actividades, lo que puede llevar a una disminución en la eficiencia y calidad con que se realizan cada una de las tareas. Aunque puede parecer que realizamos varias actividades al mismo tiempo, esto es una falacia. En realidad el cerebro cambia rápidamente su atención de una tarea a otra, aumentando la posibilidad de errores y reduciendo el rendimiento.

La implementación de estrategias para reducir la carga cognitiva, como la simplificación de procedimientos y el diseño de interfaces más intuitivas, puede mejorar significativamente la seguridad y eficiencia operativa.

Toma de decisiones y error Humano

Daniel Kahneman, ganador del Premio Nobel, junto con Amos Tversky, desarrolló la teoría de los sesgos cognitivos y la toma de decisiones bajo incertidumbre. Sus investigaciones muestran cómo las personas a menudo confían en atajos mentales, o heurísticas, que pueden llevar a errores sistemáticos en el juicio. Antonio Damasio, en su teoría del marcador somático, ha demostrado cómo las emociones juegan un papel fundamental en la toma de decisiones, sugiriendo que los procesos emocionales pueden influir tanto en la eficacia como en los errores que cometemos bajo presión.

Plasticidad Neuronal y Gestión del Cambio

La plasticidad neuronal es la capacidad del cerebro para reorganizarse y adaptarse en respuesta a nuevas experiencias, aprendizajes o daños. Este concepto es fundamental en la neurociencia, ya que demuestra que el cerebro es dinámico y capaz de formar nuevas conexiones neuronales a lo largo de la vida.

En el contexto de la gestión del cambio, la plasticidad neuronal es esencial porque subraya cómo los individuos pueden adaptarse a nuevos entornos, tecnologías y procesos. Al aprovechar esta capacidad de adaptación, las organizaciones pueden facilitar la transición durante los cambios, promoviendo un aprendizaje continuo y la adopción de nuevas prácticas, lo cual es especialmente importante para evitar fenómenos como la deriva práctica.

Fomentar un entorno que estimule la plasticidad neuronal a través de la formación continua y la exposición a nuevas ideas puede ayudar a las organizaciones a mantenerse ágiles y resilientes frente a los cambios, asegurando que todos los operadores puedan ajustarse de manera efectiva y segura a las nuevas realidades operativas.

La implementación de métodos probados de análisis de riesgos y gestión del cambio, originalmente desarrollados en la aviación, ha encontrado aplicaciones exitosas en una variedad de industrias. La integración de la neurociencia en estas prácticas proporciona una ventaja adicional al permitir una comprensión más profunda de cómo las personas y los equipos pueden funcionar de manera más efectiva bajo presión. Estas metodologías no solo mejoran la seguridad y eficiencia operativa, sino que también permiten una mejor comprensión de cómo los seres humanos interactúan con sistemas complejos, especialmente en situaciones de alta presión.

La estandarización de procesos y su simplificación permiten no solo mejorar la seguridad, sino también la eficiencia operativa. Estos criterios pueden ser adaptados y aplicados de manera transversal en diferentes industrias, promoviendo una cultura de seguridad proactiva, informada tanto por las ciencias sociales como por la neurociencia.

Epílogo

El desplazamiento del enfoque del error humano hacia una visión más integral que considera los factores organizacionales y sistémicos es esencial para la evolución de la seguridad en cualquier industria.

La evolución de la gestión de la seguridad hacia un enfoque sistémico y organizacional ha representado un avance crucial en la prevención de eventos adversos. Influenciada por teorías como el «modelo de queso suizo» de Reason y la «cultura justa» de Dekker, esta transición ha revelado que los errores individuales son, en gran medida, síntomas de fallos más profundos dentro de las organizaciones. Conceptos como la normalización del desvío, la gestión del cambio y la deriva práctica destacan la necesidad de una vigilancia continua para evitar que las desviaciones de los estándares se institucionalicen.

La «cultura justa» debería tener un paralelo directo con la manera en que la justicia evalúa la responsabilidad individual versus la responsabilidad organizacional. En juicios por accidentes industriales o médicos, es esencial distinguir entre errores humanos inevitables, influenciados por el entorno organizacional, y actos de negligencia que merecen sanción. Este enfoque podría ayudar a establecer un marco legal más equilibrado, donde se consideren tanto los fallos humanos como las deficiencias del sistema que los propiciaron. Un enfoque legal que tenga en cuenta las limitaciones cognitivas y emocionales humanas puede llevar a regulaciones más justas y efectivas, y a un sistema judicial que considere la complejidad del comportamiento humano en su evaluación de la responsabilidad.

La integración de la neurociencia en la gestión de la seguridad ha añadido una dimensión crítica al mejorar la comprensión de cómo los factores cognitivos y emocionales influyen en la toma de decisiones bajo presión. Estos conceptos pueden ser fundamentales en la práctica judicial para evaluar si los errores cometidos por un individuo en un entorno de alta presión deberían ser considerados negligencia penal o si, por el contrario, las limitaciones cognitivas deberían mitigar la responsabilidad. La justicia, al enfrentarse a casos relacionados con incidentes en industrias críticas, cada vez más debería considerar no solo las acciones individuales, sino también el contexto sistémico en el que ocurren estos errores.

Herramientas derivadas de la plasticidad neuronal y las teorías sobre los sesgos cognitivos y la toma de decisiones en situaciones de incertidumbre han sido esenciales para diseñar sistemas que apoyen eficazmente a los individuos en entornos de alto riesgo.

Finalmente, la transferencia de conocimientos y prácticas de industrias ultra seguras, como la aviación, a otros sectores críticos subraya la importancia de un enfoque integral para la mejora continua en seguridad. Este enfoque no solo eleva los estándares, sino que también fomenta una cultura organizacional resiliente y adaptable, clave para enfrentar los desafíos del siglo XXI.

Roberto Julio Gómez
rjg@flap152.com


No hay comentarios:

Publicar un comentario

Espero atento tus comentarios