Mostrando entradas con la etiqueta Catástrofe. Mostrar todas las entradas
Mostrando entradas con la etiqueta Catástrofe. Mostrar todas las entradas

viernes

Whistleblowers: los profetas del fallo y la catástrofe


Después de la muerte del pequeño Rayan se está produciendo un gran debate social y político sobre la seguridad del paciente, los recursos y efectivos humanos de los que disponen los hospitales, las mejoras técnicas y organizativas que se van a emprender para evitar una situación como la que ha provocado este terrible accidente. Siempre que estudio eventos de este tipo, que suelen tener un fuerte impacto mediático (como las catástrofes de los transbordadores espaciales, ciertos accidentes industriales severos o incidentes en el ámbito nuclear) veo aparecer en la escena retrospectiva de los hechos alguien que ya había denunciado la posibilidad de que algo así fuera a producirse. Este tipo de personas (o colectivos) habían identificado de forma precoz la causa potencial de un accidente o de una catástrofe y lo habían denunciado, incluso por escrito. Estas personas o colectivos son conocidos en la cultura sajona como whistleblowers y en la francesa como lanceurs d'alerte (a partir de la afortunada conceptualización realizada por Francis Chateaureynaud).
El papel que cumplen estos profetas del fallo o de la violación de la ley por parte de la organizaciones es tan inestimable que la legislación de los EE.UU. los protege (Whistleblower Protection Act de 2007) y cuentan con una Fundación que promueve y facilita su actividad (el National Whistleblower Center). No olvidemos que casos como el Caso Watergate, provienen de un whistleblower, dado a conocer como "garganta profunda" por los periodistas del New York Times.
Sin embargo, es más frecuente que en la cultura empresarial europea sean considerados como exagerados, cenizos o gafes, lo que no sería muy negativo si no fuera porque en no pocas situaciones se les considera delatores o chivatos y se les hace imposible continuar trabajando en sus empresas o instituciones. No es infrecuente que los whistleblowers se vean confrontados a situaciones personales extremas, que incluyen la cárcel, la exclusión social o el suicidio, lo que ha sido muy bien retratado por el cine (ver un magnífico Jack Lemmon en El sindrome de China, en el papel de whistleblower en una central nuclear).
Pues bien, el "personal de enfermería, auxiliares y enfermeras" del Hospital Gregorio Maráñón ya había denunciado, con fecha de entrada 30/06/08 y número 384, las carencias de efectivos, las deficiencias arquitectónicas, los problemas de formación y cualificación, su preocupación por la calidad asistencial y la seguridad del paciente en el Servicio de Neonatología del Hospital. No puedo evitar dejar constancia de las conclusiones de este informe, dirigido a los responsables del servicio, la gerencia, el comité de empresa:











Fuente: El Mundo, 17/07/09

Huelga decir que un sistema de producción de alto riesgo (que produzca energía, calidad asistencial y salud o transporte), debería ser responsable ante las informaciones, recomendaciones y denuncias emitidas por sus operadores: una escucha activa por parte de los directivos de estas señales de alarma es, con toda seguridad, el factor de prevención y seguridad más efectivo con el que cuentan estos sistemas.

Accidentes, documentación técnica y procedimientos

Son ya innumerables los datos disponibles sobre las posibles causas del accidente del que hablaba en el anterior post y del que incluso han aparecido unas escalofriantes imágenes.


Nuestra experiencia profesional nos ha dado la oportunidad de comprobar las terribles dificultades a las que tiene que hacer frente una comisión técnica de análisis de una catástrofe: el procedimiento judicial, los importantísimos intereses económicos que están en juego -de empresas, aseguradoras-, la avidez mediática, etc... En este contexto es muy difícil establecer un protocolo de análisis como el que presenta Sidney Dekker en The Field Guide to Understanding Human Error, excelente libro que publicará en latemporada 2009-2010 la editorial Modus Laborandi.
Más allá de estas consideraciones, las informaciones comienzan a ser reveladoras. Al parecer -y si ahorramos ciertos acrónimos y tecnicismos a quien lea este comentario-, el sistema de advertencia que indicaría una inadecuada configuración del avión para el despegue no funcionó. Lo que resulta más interesante desde el punto de vista de la ergonomía y de la accidentología no es el hecho de que falle una alarma crítica, sino:
  1. La falta de concordancia entre el estado de accionamiento de estos dispositivos en el cockpit (en este caso Flaps y Slats) y el estado real de los mismos. La falta de concordancia (paneles/pantallas/cockpit - "realidad") en la configuración de elementos críticos del sistema es una de las mayores fuentes de error conocidas: en la industria se sabe mucho sobre indicadores de apertura o cierre de válvulas que pueden no corresponderse con la realidad, particularmente desde Three Miles Island.
  2. La aparente falta de redundancia de un elemento de alarma tan determinante; puede que no sea eficiente duplicar el sistema de advertencia, pero sí las barreras para que un dispositivo inicie su puesta en marcha en una configuración inadecuada si ello puede conllevar consecuencias fatales.
  3. Por último, el sistema documental de chequeo y comprobación del sistema al inicio de la operación crítica de despegue. Resulta llamativo que, sabido este posible fallo del sistema de advertencia, no fuera documentado.
En un mundo hiperprocedimentado y regulado como el del transporte aeronaútico nos resulta sorprendente que -conocida la posibilidad de este fallo por otros accidentes-, sólo se prescribiera una comprobación del sistema de advertencia al inicio de la jornada y no cada vez que se inicia el procedimiento de preparación para el despegue. Un fallo de este nivel de gravedad obliga, necesariamente, a una reflexión en profundidad: los procedimientos en fases críticas de puesta y marcha y parada (o de despegue y aterrizaje) son una de las barreras en profundidad fundamentales y si esta barrera cae, los operadores humanos -pilotos y técnicos de mantenimiento que han puesto toda su confianza en el procedimiento del fabricante y en sus sistemas técnicos de alarma-, por muy cualificados que estén, necesariamente son víctimas del propio sistema de seguridad que supuestamente se diseñó para protegerles y proteger a los pasajeros.
En Ergotec conocemos muy bien la problemática de la preparación, puesta a punto y actualización de la documentación procedimental, tan bien descrita por Jacques Leplat en "Les documents prescripteurs", artículo presentado en la revista electrónica Activités. Desgraciadamente, las catástrofes que tienen una causa raíz en la documentación técnica con cada vez más frecuentes.

lunes

Ergonomía, accidentes industriales y la lógica de las causas

Mi colega y amigo Pepe Cañas , director del Grupo de Ergonomía Cognitiva de la Universidad de Granada me ha invitado para que hable a sus estudiantes del papel del ergónomo en el análisis de accidentes industriales severos. Debo decir que intervenir en este tipo de situaciones no es algo placentero; la dinámica judicial y la lógica del culpable se convierte en una locomotora que, paradójicamente, deja pocas posibilidades para la realización de un análisis sosegado de los hechos. Esta dinámica suele conllevar un fuerte posicionamiento de los actores e interlocutores sociales en la empresa.
Sea cual fuere, la primera barrera que es necesario franquear es la de la lógica del culpable: es necesario hacer entender que el primer objetivo es la identificación de las causas y, sobre todo, de la gravedad de las causas. Y esto es necesario recordarlo porque lo que suele movilizar los recursos para analizar un accidente no es tanto la gravedad de las causas como la gravedad de las consecuencias (sobre todo si se ha producido la pérdida de vidas o un grave deterioro de la instalación).


Sólo las industrias o sectores fuertemente regulados (nuclear, aeronaútico) están obligadas a la declaración de eventos no tanto por lo que ha ocurrido sino por lo que podría haber ocurrido y debido a qué (se hablaría aquí de gravedad de las causas y de gravedad de las consecuencias potenciales).Una política basada en el análisis de la gravedad de las causas y de la frecuencia de ocurrencia de las mismas (una causa leve que se repite puede convertirse en una causa grave) lleva al análisis sistemático de los eventos y de los accidentes.
Este
análisis que persigue la dentificación sistemática de desvíos (técnicos, organizativos, humanos) en situaciones potencialmente peligrosas pero que no han desencadenado una catástrofe está plagada de enseñanzas para el desarrollo de barreras defensivas (en procedimientos, dispositivos técnicos, competencias, organización) ante la posibilidad de aparición de la catástrofe. Se trata en este caso de políticas industriales que desarrollan sus políticas de seguridad operativa basándose en el Retorno de Experiencia (REX).
Seguiré hablando de este asunto en nuevos post. Mientras tanto, recomiendo acompañar estas reflexiones con la lectura de El Error Humano de James Reason o Barreras y Prevención de Accidentes de Erik Hollnagel (editaremos ambos libros en Modus Laborandi en otoño de 2008).

Para quien esté interesado en la naturaleza de los desvíos organizativos y su repercusión en la seguridad, nada como leer The Challenger Launch Decision, Risky Technology, Culture and Deviance at NASA, de Diane Vaughan (University of Chicago Press). No conviene asustarse ante sus 600 páginas, vale la pena.

miércoles

Charles Perrow tenía razón

Hace unos días hablaba de la próxima catástrofe profetizada por Charles Perrow. En mis comentarios indicaba que este profesor de Yale propone que, para reducir el número de catástrofes ligadas a la complejidad de los sistemas de transporte, producción de energia, transformación de materias primas explosivas o simplemente peligrosas, es imprescindible reducir la complejidad de todos estos sistemas. Una de la vías propuestas -lo que parece más bien una medida de puro sentido común- consiste en evitar las concentraciones urbanas en torno a las grandes infraestructuras industriales o de transporte (lo que hubiera evitado, entre otros, el terrible drama de Bophal).

Cuando visité Brasil en 1999, invitado por la Asociación Brasileña de Ergonomía (ABERGO), me sorprendió sobremanera la ubicación del Aeropuerto de Congonhas en Sao Paulo, parecía que íbamos a aterrizar en una avenida de la ciudad.
Pues bien, esta es la noticia que esta mañana nos presenta ElPaís.com : "más de 200 personas han muerto, según fuentes del gobierno de Sao Paulo, al estrellarse un Airbus A320 de la compañía brasileña TAM con 176 personas a bordo cuando tomaba tierra bajo una intensa lluvia en el aeropuerto de Congonhas, en Sao Paulo. El aparato, que había salido de Porto Alegre, se incendió al salirse de la pista y chocar contra un edificio y un puesto de gasolina situados fuera del aeropuerto, en una avenida muy transitada de la ciudad". En las próximas semanas se conocerá mucho más sobre las causas profundas de esta catástrofe; sin embargo, lo que sí será evidente es que el número de víctimas sería menor si la rapacidad urbanizadora de las autoridades hubieran evitado colocar un aeropuerto en medio de una ciudad. Desgracidamente, no será el último de los accidentes con este perfil..

Fuente: ElPaís.com, 19 julio 07

Por último, para quienes deseen continuar con este tipo de reflexiones, recomendamos varias visitas:


O la consulta de ciertos libros fundamentales:


jueves

La próxima catástrofe

El título del ultimísimo libro de Charles Perrow The Next Catastrophe. Reducing Our Vulnerabilities to Natural, Industrial and Terrorist Disasters (Princeton University Prees) no puede ser más atractivo.
Desde su clásico Normal Accidents, Perrow no había vuelto a insistir en su conocida tesis sobre el "precio" de la evolución tecnológica, a saber, la tremenda complejidad asociada a nuestros sistemas de producción de energía -particularmente el nuclear y la petroquímica-, de transporte o de defensa, conlleva la aparición cierta del fallo, del accidente y de la catástrofe.

Los elementos de protección tecnológica u organizativa, la formación y el entrenamiento de los operadores de estos sistemas, no es suficiente porque, paradójicamente, esto añade nuevas formas de complejidad. De este modo, era previsible -y coherente- que la tesis de The New Catastrophe girara en torno a una idea, -influida sin duda alguna por el September 11 y el Hurricane Katrina-: para reducir las causas naturales, organizativas o deliberadas de los desastres se debe reducir la talla, el nivel de concentración y la complejidad de las infraestructuras de energía, de las industrias químicas, etc... La simplicidad aparente de la tesis -que puede compartirse o no- no quita una pizca de interés a la lectura de este libro, sólido y de muy agradable lectura. El que les escribe es más partidario de otra mirada sobre la seguridad de los sistemas, la conocida como seguridad ecológica, de la que hablaré uno de estos días.
Desde el punto de vista de la seguridad operacional, pueden leerse otros argumentos técnicos y científicos distintos a los de Perrow en el libro de Hollnagel, Woods y Leveson Resilience Engineering. Concepts and Precepts (Ashgate).