Mostrando entradas con la etiqueta reason. Mostrar todas las entradas
Mostrando entradas con la etiqueta reason. Mostrar todas las entradas

martes

El papel del ser humano en la seguridad del sistema


Siento no poder escribir tanto como quisiera en La Ergoteca. Ergotec y Modus Laborandi me roban todo el tiempo del que dispongo para realizar actividades tan innovadoras como la concepción, junto con ingenieros y diseñadores, de procedimientos y manuales de operación que hagan más segura y eficiente la actividad en sistemas complejos.
Como bien saben quienes siguen nuestro trabajo, estamos sacando adelante la publicación de las obras más importantes de James Reason. Durante el proceso de edición e impresión del último libro que hemos publicado de este autor, La gestión de los grandes riesgos. Principios humanos y organizativos de la seguridad, tuve la oportunidad escuchar un programa muy interesante en Radio Nacional de España:

Accidentes aéreos: el tributo por la seguridad (Documentos RNE)



Es este programa, que sin duda recomiendo escuchar, se describen algunas de las catástrofes aeronáuticas mas relevantes de las últimas décadas (es especialmente detallada la del Spanair en Barajas) y cómo estas catástrofes han reorientado los criterios en los que se apoya la seguridad del sistema aeronaútico (construcción, operación aeroportuaria, control aéreo, organización de las actividades en la cabina...).

Sin embargo hay una aproximación de fondo a la cuestión que, como especialista en Factor Humano, me ha sorprendido escuchar: según varios de los especialistas consultados en el programa, las catástrofes tendrían su causa más profunda en el elemento menos seguro y fiable del sistema, a saber, el ser humano (en particular, pilotos y controladores). En algún momento se llega a afirmar que el sistema aeronaútico es más seguro porque, "afortunadamente", se está automatizando cada vez más y, por tanto, va desapareciendo la mano humana ("conseguir sacar al ser humano del bucle de control", se dice).
Rechazo con firmeza esta aproximación al problema. Como sabemos en nuestra profesión, el ser humano es un agente de fiabilidad que falla. De este modo, se trata de que el sistema potencie esos elementos creadores de fiabilidad y que facilite al operador la posibilidad de que detecte sus propios errores, los corrija o que, en todo caso, minimice sus consecuencias. La historia de la aviación (también la de los hospitales o la de las industrias de alto riesgo) están llenos de "actos heroícos" protagonizados por operadores que han asumido la seguridad del sistema, de los pasajeros o de los pacientes: me hubiera gustado escuchar cuál es la opinión de los especialistas del programa sobre el papel del comandante Sullenburger cuando "amerizó" en el río Hudson su Airbus 320, salvando con ello a todo el pasaje.


miércoles

Error humano de manual o manual de error humano

De nuevo enfrentados a la realidad de un error con consecuencias fatales, la de la muerte del pequeño Rayan en la Unidad de Neonatología del Hospital Gregorio Marañón de Madrid. Estoy profesionalmente indignado al escuchar las declaraciones de políticos y periodistas que hablan, con absoluta ligereza, de la enfermera que cometió un error "terrorífico", una "imprudencia grave médica" que deberá seguir la causa penal, según el fiscal del Tribunal Superior de Madrid. Si el que lee estas líneas no conoce los hechos, paso a recordar los que han sido transmitidos a la opinión pública: al parecer, el infortunado bebé recibía alimentación enteral por una sonda nasogástrica, pero como es habitual en estas unidades hospitalarias de alto riesgo, también recibía medicación por vía intravenosa. En su primer día en la Unidad de Neonatología, la enfermera (sola, porque sus colegas más experimentadas atendían un caso urgente de parada cardiorespiratoria) introdujo la alimentación por la vía intravenosa, lo que provocó en el bebé una embolia y un fallo multiorgánico con el resultado que todos conocemos. Los médicos hablan de "error de manual"...

No me cansaré de decirlo, ha sido escrito hasta la saciedad por los mejores especialistas, como James Reason: el error es consustancial al ser humano, las organizaciones deben ser capaces de prevenirlo, paliar sus efectos, de ayudar al operador (al médico, a la enfermera, al piloto, al controlador aéreo, al operador de una sala de control) a identificarlo, evaluar la gravedad de sus consecuencias y modificar eventualmente su acción. Los médicos y enfermeras operan un sistema de alto riesgo en el que es necesario velar por la seguridad del paciente, adoptando compromisos cognitivos que, desgraciadamente, llevan inoculado el error. Para evitarlo, existen barreras, bien físicas (no poder físicamente conectar por vía intravenosa lo que debe ir por vía nasogástrica, indicaciones diferenciadas por forma o color de jeringas, envasados y etiquetas) o lógicas (check-list, protocolos, procedimientos de supervisión jerárquica, co-acción entre profesionales, etc..). Si caen estas barreras o no existen, sólo queda la cualificación personal del individuo... en contextos que puede contribuir a la comisión del error (presión temporal, soledad, cansancio, inexperiencia en el puesto de trabajo, etc...).
Al parecer, según informa El País del día de hoy: "La enfermera pudo confundir fácilmente el conducto de administración de la alimentación -una sonda nasogástrica conectada a la nariz del pequeño-, con otra vía de administración -un tubo conectado directamente a la vena-. Ambos cables son idénticos. Además, en este centro, según detalló a este periódico personal del hospital, no existe ninguna diferenciación, ninguna característica especial que distinga un cable del otro. Los dos - en este caso parece que eran dos, pero puede haber bebés que necesiten más de una vía- salen por el mismo agujero de la incubadora. Son del mismo grosor, el mismo color; y las bombas, llaves y jeringas que se utilizan para ambos son las mismas. Al no haber ningún elemento identificador -como también ocurre en otros hospitales- las enfermeras suelen distinguir la vía correcta tirando suavemente del cable o siguiéndolo con la vista". Al parecer, existían planes para introducir barreras técnicas que solventaran esta situación, como señala El Mundo en su edición de hoy:"El centro iba a instalar una bomba inteligente que habría salvado al bebé" (un dispositivo físico de bombeo dotado de una aplicación informática capaz de emitir alarmas acústicas que señalen un posible error en el producto, posología, vía de administración, etc...).
Creo que sobran las palabras: una situación técnica de esta naturaleza es muy frágil y porosa al fallo humano. Dejemos de culpar a las personas, de pensar que un accidente así es debido a la fatalidad y estudiemos las causas sociotécnicas latentes del error, es la mejor vía para reforzar las barreras que protegen al paciente y prevenir con ello situaciones tan dramáticas como la que se vive estos días en el Hospital madrileño.
Desde mi punto de vista, el hecho al que nos enfrentamos es más el fracaso de un sistema sociotécnico de alto riesgo que el error de una enfermera: pienso que comienza a ser necesario en nuestro país que los avances en seguridad de los sistemas industriales del alto riesgo comiencen a entrar en UCIs y quirófanos.