Carnet d'un Passionné de Simulation de Vol

中文 English 日本語 Français Deutsch Español 한국어 Русский 繁體中文

Erreur de coupure de l'APU lors du démarrage du moteur : Rapport ASRS Japon 201603

Il y a pas mal de sujets sur l’APU sur ce site, par exemple Quelques détails sur le fuselage de l’A350 Démarrage à froid du Boeing 777 Porte d’entrée d’air APU du Boeing 787 ouverte en vol Comparaison des portes d’entrée d’air APU (APU Air Inlet Door) Explorer le cockpit d’un avion de ligne 2.3 Poussage d’un avion de ligne (PUSH BACK) et démarrage des moteurs etc. On est peut-être sensible à ce sujet.

Aujourd’hui, en regardant le rapport ASRS 201603 du système japonais de rapports sur la sécurité aérienne, j’ai découvert un cas où l’APU a été éteint lors du démarrage d’un moteur, je vais vous le présenter brièvement.

Après avoir reçu l’autorisation de poussage, l’équipage a commencé à exécuter la procédure de démarrage moteur (ENG START). Lorsque le moteur n°2 (ENG 2 START) a démarré, le commandant de bord a contacté le sol et a serré le frein de stationnement (Parking Brake). Pendant ce temps, le copilote a éteint l’APU avant de recevoir l’instruction de Normal Start du commandant de bord.

Le commandant de bord et le copilote n’ont pas remarqué l’état de l’APU et ont commencé à démarrer le moteur 1. En raison de l’arrêt de la bleed air APU (APU BLEED OFF), la montée de N2 était très lente, et l’EGT augmentait extrêmement vite, ils ont donc immédiatement interrompu le démarrage.

Par la suite, ils ont de nouveau vérifié la checklist et contacté le personnel au sol ainsi que le contrôle du sol, finalement découvrant que l’APU était éteint. Ensuite, ils ont redémarré l’APU, puis ont démarré le moteur n°1, et tout est rentré dans l’ordre.

L’analyse a posteriori de cette erreur d’opération révèle que le vent était très fort ce jour-là. Lors du poussage, la méthode Straight Push Back a été utilisée. Pensant naturellement qu’il y avait du vent arrière (Tail Wind) et que le démarrage du moteur serait plus lent, il a fallu plus de temps pour remarquer l’état APU OFF.

Alors pourquoi le copilote a-t-il commis cette erreur en éteignant l’APU ? Selon ses souvenirs, les conditions météo étaient mauvaises ce jour-là avec beaucoup de vent, et un changement de piste s’est produit juste pendant le poussage. Cette série d’événements a distrait l’attention du copilote, et après avoir entendu l’instruction Normal Start du commandant de bord, il a éteint l’APU par réflexe.

De plus, cette compagnie aérienne ayant déjà connu des erreurs d’oubli d’extinction de l’APU, il a été stipulé qu’une annonce “APU OFF” devait être faite lors de l’extinction de l’APU. Cependant, dans cette situation complexe, cette étape a été oubliée.

Le rapport ASRS de cette période présente 160 rapports sur diverses erreurs survenant dans les compagnies aériennes, couvrant toutes les phases du vol. Bien que la lecture puisse être un peu fastidieuse, elle est très utile pour comprendre l’exploitation aérienne réelle. On apprend par exemple que des pilotes, pourtant si haut placés, peuvent commettre des erreurs aussi basiques ! (Un exemple : un avion aligné sur la piste, le commandant de bord enfonce le bouton TOGA pour décoller, mais les moteurs ne réagissent pas. Il faut vite sortir de la piste, et après bien des efforts, on réalise que le mode automatique des moteurs n’était pas activé…)

L’humain n’est pas une machine, il commettra toujours diverses erreurs, mais grâce à l’ASRS, je crois qu’il est possible d’atteindre un but d’échange et d’amélioration mutuelle.

La plupart des choses dans ce monde ont une vulnérabilité. Par exemple, les communications ATC vocales dans l’industrie aéronautique, qui contiennent des vulnérabilités telles que les interférences électroniques, les accents, la vitesse d’élocution, la langue, les phrases ambiguës et les instructions susceptibles d’être mal interprétées ; Un autre exemple est la sécurité de l’information dans mon propre travail, où nous sommes toujours aux prises avec des vulnérabilités, telles que les bugs et les failles de sécurité dans les logiciels du système d’exploitation / système / application, une capacité insuffisante du système lors de la conception, une analyse insuffisante des besoins des utilisateurs, une performance insuffisante de la conception des interfaces système, et des cas de test insuffisants, etc.

L’humain peut être la plus grande cause de vulnérabilité, commettant des erreurs quand il est occupé, stressé ou fatigué, et c’est quand tout va bien, sans pression, qu’il est plus facile de faire des erreurs.

Seul en reconnaissant que la vulnérabilité est omniprésente, on peut adopter la bonne attitude au travail, ne pas compter sur la chance, et avancer pas à pas de manière consciencieuse.

Fin