Mostrando entradas con la etiqueta seguridad. Mostrar todas las entradas
Mostrando entradas con la etiqueta seguridad. Mostrar todas las entradas

lunes

¿Máxima seguridad o máxima flexibilidad? A vueltas con los procedimientos


Mi amiga Gema Aparicio me recuerda que desde hace unas semanas no escribo mis impresiones sobre lo ocurrido en el accidente de Spanair en Barajas y es que, desgraciadamente, el árbol plantado por los interesados en las consecuencias de esta catástrofe impiden ver el bosque de lo ocurrido. 
De lo que ya es conocido por todos (incluido el procesamiento de los técnicos de mantenimiento de la aeronave) sólo querría insistir en algo que ocurre con frecuencia en el ámbito del alto riesgo: o bien se solicita a los operadores del
 sistema que cumplan a rajatabla un procedimiento (lo que no dejaría de ser una forma de boicot, de huelga de celo) o bien que "apliquen inteligentemente" el procedimiento (lo que significa que hay que "rellenar" implícitos, saber cuándo el procedimiento no es apropiado, cuándo puede resulta incluso improcedente... ). 
Cualquier profesional que conozca estos mundos hiperprocedimentados -en los que se susurra que los procedimientos se deben seguir excepto cuando no se deben seguir- ha debido enfrentarse a los dos extremos de esta lógica infernal: si se quiere ser ultra-seguro hay que ser ultra-rígido o, dicho de otro modo, la flexibilidad que requieren los sistemas de producción para ser razonablemente eficientes no es compatible con la máxima seguridad. No quiero decir con esto que para producir haya que generar inseguridad, digo que la seguridad sin fisuras, al igual que la producción sin fisuras (el famoso "cero defectos") no es eficiente. Perdonen la boutade, pero es como si, ante un paciente que moquea por un resfriado persistente, el médico de cabecera prescribiera la necesidad de un scanner del hígado y se lo realizara en ese mismo momento (ruego a los médicos que lean esto
 que me disculpen, pero imagino que un resfriado no curado puede ser una consecuencia de un sistema inmunológico debilitado que, a su vez podrías deberse a una patología mucho más severa). Los técnicos de mantenimiento de aeronaves operan con estrategias de diagnóstico acordes con el contexto, con el historial de averías, con normas recientes de licenciatarios o fabricantes, en definitiva, buscan una seguridad eficiente que permita volar con seguridad sin que ello suponga que las aeronaves no pueden despegar al mínimo fallo de sus elementos no críticos (porque pueden ser indicadores de fallo de los que sí lo son, lo que puede ser muy fácil de diagnosticar a posteriori).
La actividad humana es un espectáculo de inteligencia práctica, un permanente intento por hacer compatible un objetivo de rentabilidad personal (o empresarial) con el mínimo riesgo. Otra cosa bien distinta es que la gestión imponga criterios de rentabilidad a costa de la seguridad, pero eso es harina de otro costal. Para los que piensen que seguir el procedimiento a pies juntillas garantiza la seguridad,  les recuerdo una de las más conspicuas y a la vez enigmáticas observaciones de la comisión que estudió el accidente de la central nuclear de Three Miles Island: "el próximo accidente será por causa del cumplimiento de los procedimientos"...

Ergonomía, accidentes industriales y la lógica de las causas

Mi colega y amigo Pepe Cañas , director del Grupo de Ergonomía Cognitiva de la Universidad de Granada me ha invitado para que hable a sus estudiantes del papel del ergónomo en el análisis de accidentes industriales severos. Debo decir que intervenir en este tipo de situaciones no es algo placentero; la dinámica judicial y la lógica del culpable se convierte en una locomotora que, paradójicamente, deja pocas posibilidades para la realización de un análisis sosegado de los hechos. Esta dinámica suele conllevar un fuerte posicionamiento de los actores e interlocutores sociales en la empresa.
Sea cual fuere, la primera barrera que es necesario franquear es la de la lógica del culpable: es necesario hacer entender que el primer objetivo es la identificación de las causas y, sobre todo, de la gravedad de las causas. Y esto es necesario recordarlo porque lo que suele movilizar los recursos para analizar un accidente no es tanto la gravedad de las causas como la gravedad de las consecuencias (sobre todo si se ha producido la pérdida de vidas o un grave deterioro de la instalación).


Sólo las industrias o sectores fuertemente regulados (nuclear, aeronaútico) están obligadas a la declaración de eventos no tanto por lo que ha ocurrido sino por lo que podría haber ocurrido y debido a qué (se hablaría aquí de gravedad de las causas y de gravedad de las consecuencias potenciales).Una política basada en el análisis de la gravedad de las causas y de la frecuencia de ocurrencia de las mismas (una causa leve que se repite puede convertirse en una causa grave) lleva al análisis sistemático de los eventos y de los accidentes.
Este
análisis que persigue la dentificación sistemática de desvíos (técnicos, organizativos, humanos) en situaciones potencialmente peligrosas pero que no han desencadenado una catástrofe está plagada de enseñanzas para el desarrollo de barreras defensivas (en procedimientos, dispositivos técnicos, competencias, organización) ante la posibilidad de aparición de la catástrofe. Se trata en este caso de políticas industriales que desarrollan sus políticas de seguridad operativa basándose en el Retorno de Experiencia (REX).
Seguiré hablando de este asunto en nuevos post. Mientras tanto, recomiendo acompañar estas reflexiones con la lectura de El Error Humano de James Reason o Barreras y Prevención de Accidentes de Erik Hollnagel (editaremos ambos libros en Modus Laborandi en otoño de 2008).

Para quien esté interesado en la naturaleza de los desvíos organizativos y su repercusión en la seguridad, nada como leer The Challenger Launch Decision, Risky Technology, Culture and Deviance at NASA, de Diane Vaughan (University of Chicago Press). No conviene asustarse ante sus 600 páginas, vale la pena.

jueves

La próxima catástrofe

El título del ultimísimo libro de Charles Perrow The Next Catastrophe. Reducing Our Vulnerabilities to Natural, Industrial and Terrorist Disasters (Princeton University Prees) no puede ser más atractivo.
Desde su clásico Normal Accidents, Perrow no había vuelto a insistir en su conocida tesis sobre el "precio" de la evolución tecnológica, a saber, la tremenda complejidad asociada a nuestros sistemas de producción de energía -particularmente el nuclear y la petroquímica-, de transporte o de defensa, conlleva la aparición cierta del fallo, del accidente y de la catástrofe.

Los elementos de protección tecnológica u organizativa, la formación y el entrenamiento de los operadores de estos sistemas, no es suficiente porque, paradójicamente, esto añade nuevas formas de complejidad. De este modo, era previsible -y coherente- que la tesis de The New Catastrophe girara en torno a una idea, -influida sin duda alguna por el September 11 y el Hurricane Katrina-: para reducir las causas naturales, organizativas o deliberadas de los desastres se debe reducir la talla, el nivel de concentración y la complejidad de las infraestructuras de energía, de las industrias químicas, etc... La simplicidad aparente de la tesis -que puede compartirse o no- no quita una pizca de interés a la lectura de este libro, sólido y de muy agradable lectura. El que les escribe es más partidario de otra mirada sobre la seguridad de los sistemas, la conocida como seguridad ecológica, de la que hablaré uno de estos días.
Desde el punto de vista de la seguridad operacional, pueden leerse otros argumentos técnicos y científicos distintos a los de Perrow en el libro de Hollnagel, Woods y Leveson Resilience Engineering. Concepts and Precepts (Ashgate).