"Behind Human Error" por David D. Woods
"Behind Human Error: Cognitive Systems, Computers, and Hindsight" de David D. Woods es una obra fundamental en el campo de la seguridad humana y el análisis de accidentes. El libro desafía la noción simplista de que el "error humano" es la causa raíz de los incidentes y argumenta que esta etiqueta esconde una comprensión mucho más profunda y compleja de cómo funcionan y fallan los sistemas.
La Crítica al "Error Humano" como explicación:
Woods comienza desmantelando la visión tradicional del error humano como un fallo individual, una deficiencia personal o un acto aleatorio de un operador en el "extremo afilado" del sistema (la persona que interactúa directamente con la tecnología o el proceso). Argumenta que atribuir la culpa únicamente al individuo es prejudicial e improductivo para la mejora de la seguridad. Esta perspectiva simplista ignora el contexto sistémico más amplio en el que operan las personas.
La Perspectiva de los Sistemas Complejos:
El libro adopta una perspectiva de sistemas complejos, donde los accidentes son vistos como el resultado de interacciones complejas entre múltiples factores, que incluyen:
- Factores organizacionales ("blunt end"): Decisiones de gestión, cultura de seguridad, recursos, comunicación, procedimientos y capacitación.
- Diseño de tecnología e interfaces: La forma en que se diseñan los sistemas y las interfaces hombre-máquina puede facilitar o dificultar los errores.
- Factores cognitivos: Los procesos mentales de los individuos, como la atención, la memoria, la toma de decisiones y la resolución de problemas, que están influenciados por el contexto.
- Condiciones de trabajo: Carga de trabajo, estrés, fatiga, presión de tiempo y entorno físico.
Woods enfatiza que las acciones de los operadores en el "extremo afilado" son a menudo adaptaciones racionales a las condiciones y limitaciones impuestas por el sistema en su conjunto. Lo que retrospectivamente se etiqueta como "error" puede haber parecido una acción lógica y sensata en el momento, dadas las circunstancias y la comprensión del operador.
Conceptos Clave Desarrollados en el Libro:
- Hindsight Bias (Sesgo Retrospectivo): El libro explora cómo, después de un incidente, tendemos a ver los eventos como más predecibles de lo que realmente fueron. Esto lleva a juzgar las acciones de los operadores con el conocimiento del resultado, lo que puede distorsionar nuestra comprensión de sus intenciones y la racionalidad de sus decisiones en el momento.
- Cognitive Systems: Woods analiza cómo las personas funcionan como sistemas cognitivos adaptativos, utilizando su conocimiento, habilidades y estrategias para hacer frente a la complejidad y la incertidumbre. Los errores a menudo surgen de las limitaciones inherentes de la cognición humana y de la interacción con sistemas que no están diseñados para apoyar estas capacidades.
- Clumsy Automation (Automatización Torpe): El libro critica la implementación de la automatización que no tiene en cuenta las necesidades y capacidades de los usuarios humanos, lo que puede llevar a nuevos tipos de errores, como los errores de modo o la pérdida de conciencia situacional.
- Latent Failures (Fallos Latentes): Woods destaca la importancia de identificar y abordar los fallos latentes dentro del sistema (decisiones de diseño, deficiencias organizacionales, etc.) que crean las condiciones para que los errores de los operadores tengan consecuencias negativas. Estos fallos pueden permanecer inactivos durante mucho tiempo antes de combinarse con desencadenantes locales para causar un accidente.
- The "Two Stories" of Accidents: El libro contrasta dos formas de analizar los accidentes. La "primera historia" se centra en identificar el "quién" cometió el error. La "segunda historia" busca comprender el "por qué" las acciones de las personas tuvieron sentido en su contexto y qué factores sistémicos contribuyeron al resultado. Woods aboga por adoptar la "segunda historia" para un aprendizaje y una mejora de la seguridad más efectivos.
Implicaciones para la Seguridad y la Investigación de Accidentes:
"Behind Human Error" tiene profundas implicaciones para la forma en que abordamos la seguridad y la investigación de accidentes:
- Dejar de Culpar: Pasar de una cultura de culpa centrada en el individuo a un enfoque sistémico que busca comprender las contribuciones de todos los niveles del sistema.
- Investigaciones Profundas: Realizar investigaciones que vayan más allá de la identificación del "error humano" para descubrir los fallos latentes y las condiciones sistémicas subyacentes.
- Diseño Centrado en el Humano: Diseñar sistemas y tecnología que tengan en cuenta las capacidades y limitaciones cognitivas de los usuarios, y que apoyen su trabajo de manera efectiva.
- Aprendizaje Organizacional: Utilizar los incidentes y accidentes como oportunidades para aprender sobre las vulnerabilidades del sistema y realizar cambios para mejorar la seguridad de manera proactiva.
En resumen, "Behind Human Error" es un llamado a repensar nuestra comprensión del error humano. Argumenta convincentemente que los errores no son simplemente fallos individuales, sino síntomas de problemas más profundos dentro de sistemas complejos. Al adoptar una perspectiva sistémica y comprender los factores que dan forma al comportamiento humano en el trabajo, podemos movernos hacia estrategias de seguridad más efectivas y resilientes.
Comentarios
Publicar un comentario