Error al apagar la APU durante el arranque del motor:Lectura del informe ASRS de Japón 201603
En este sitio hemos tratado el tema de la APU en varias ocasiones, por ejemplo: Revisando detalles del fuselaje del A350 Probando el arranque en frío del Boeing 777 Puerta de entrada de aire de la APU del Boeing 787 abierta en vuelo Comparación de puertas de entrada de aire de la APU (APU Air Inlet Door) Secretos de la cabina de un airliner 2.3: Push back y arranque de motores Entre otros. Supongo que soy un poco sensible a este tema.
Hoy, leyendo el Informe de seguridad aérea de Japón ASRS 201603, descubrí un caso en el que se apagó la APU durante el arranque de un motor, así que lo presentaré brevemente.
Tras recibir la autorización para el push back, se comenzó a ejecutar el procedimiento de arranque del motor (ENG START). Cuando se inició el motor número 2 (ENG 2 START), el comandante contactó con tierra y estableció el freno de estacionamiento (Parking Brake). Durante este tiempo, el primer oficial apagó la APU antes de recibir la instrucción de “Normal Start” por parte del comandante.
Tanto el comandante como el primer oficial no se dieron cuenta del estado de la APU y comenzaron el arranque del ENG 1. Debido a que el sangrado de aire de la APU estaba cerrado (APU BLEED OFF), el N2 aumentaba muy lentamente y la EGT subía extremadamente rápido, por lo que se abortó el arranque de inmediato.
Después, volvieron a revisar la lista de verificación (checklist) y contactaron con el personal de tierra y el control de tráfico aéreo, hasta que finalmente descubrieron que la APU estaba apagada. A continuación, reiniciaron la APU y luego arrancaron el motor número 1; después de eso, todo volvió a la normalidad.
Al analizar este error operacional a posteriori, había viento fuerte en ese momento. Durante el push back se utilizó el método “Straight Push Back”. Dado que daban por sentado que había viento de cola (Tail Wind), pensaron que el arranque del motor sería más lento, por lo que tardaron bastante tiempo en darse cuenta de que la APU estaba apagada (APU OFF).
Entonces, ¿por qué cometió el primer oficial el error de apagar la APU? Según el recuerdo, ese día el clima era severo, con mucho viento, y justo durante el push_back ocurrió un cambio de pista. Esta cadena de eventos distrajo la atención del primer oficial; al escuchar la instrucción de “Normal Start” por parte del comandante, cerró la APU por reflejo condicionado…
Además, en esa aerolínea había ocurrido previamente un error de olvidar apagar la APU, por lo que se estableció una norma de anunciar “APU OFF” al apagarla. Sin embargo, en esta situación con múltiples factores, este paso se olvidó.
Este informe ASRS presenta 160 informes de varios errores operativos desde el frente de vuelo de las aerolíneas, que cubren las distintas fases del vuelo. Aunque leerlos puede ser un poco tedioso, son de gran ayuda para comprender las operaciones aéreas reales, por ejemplo, uno se entera de que los pilotos, con toda su preparación, ¡también cometen errores de este nivel tan básico! (Un ejemplo: el avión ya estaba en la pista, el comandante presionó TOGA para el despegue, pero los motores no respondían. Tuvieron que salir de la pista rápidamente, y después de mucho problema descubrieron que no habían activado el modo automático de los motores…). Los humanos no somos máquinas, siempre cometemos varios errores, pero mediante el sistema ASRS, creo que se logra un efecto de comunicación mutua y mejora continua.
La mayoría de las cosas en este mundo tienen vulnerabilidad. Por ejemplo, en las comunicaciones ATC por voz en la industria de la aviación, existen vulnerabilidades como interferencias electrónicas, acentos, velocidad de habla, idiomas, frases ambiguas e instrucciones propensas a malentendidos; Otro ejemplo es mi trabajo, que siempre involucra la seguridad de la información, siempre lidiando con vulnerabilidades, como bugs en el sistema operativo / software del sistema / software de aplicación y vulnerabilidades de seguridad, insuficiencia en la planificación de la capacidad del sistema durante el diseño, análisis insuficiente de las necesidades del usuario, diseño insuficiente del rendimiento de la interfaz entre sistemas, casos de prueba insuficientes, etc. El ser humano puede ser la mayor causa de vulnerabilidad; se cometen errores cuando se está ocupado, nervioso o fatigado, y es incluso más fácil cometer errores cuando todo va bien y no hay presión.
Solo reconociendo que la vulnerabilidad es omnipresente se puede mantener una actitud correcta en el trabajo, no confiarse en la suerte, y avanzar con firmeza paso a paso.
Fin