Donnerstag, 14. Dezember 2017

Als das dümmste Crew-Mitglied an Bord kam...

...der Computer.



In der Luftfahrt gab es eine Zeit, in der das ansonsten schon so erfolgreiche Crew-Resource-Management (CRM) nochmal auf eine harte Probe gestellt wurde.

Mit dem ersten voll computerisierten Cockpit im Airbus A320, Ende der 1980er-Jahre, stieg die Zahl der Unfälle durch menschliches Versagen wieder an.
Gleich 1988, bei der Vorführung des völlig neuartigen Jets auf einer Flugschau an der deutsch-französischen Grenze, verwirrten die Computer die Cockpitbesatzung derart, dass sie die Kontrolle über die Maschine verloren. Das Flugzeug rauschte in den Wald und brannte aus, 3 Menschen starben.

Die Probleme und Herausforderungen der Digitalisierung im Cockpit beschreibe ich ausführlich in einem anderen Artikel.

Und es ging so weiter. Fast jedes Jahr Abstürze durch menschliches Versagen in Computer-Cockpits. Betroffen waren fast alle Airlines.

Was lief auf einmal falsch im bisher so erfolgreichen CRM-Prozess?

Ende der 1990er-Jahre ergriff, in enger Zusammenarbeit mit der damals noch existierenden, großen US-Airline Continental, einer der Väter des CRM, der namhafte Psychologe Robert Helmreich die Initiative, um unter anderem diesem Phänomen in Computer-Cockpits auf den Grund zu gehen.

Bisher sammelte man für das Fehlermanagement im CRM hauptsächlich Daten von Zwischen- und Unfällen im damals noch jungen ASRS (Aviation Safety Reporting System), wertete diese präzise aus und entwickelte daraus Empfehlungen und Anweisungen für die Luftfahrt.

Schon immer war die amerikanische Luftfahrtbehörde FAA eng in die CRM-Entwicklung involviert, so auch bei der Gestaltung und Weiterentwicklung des ASRS.
Also war es schon fast selbstverständlich, dass auch jetzt, mit dem neuen Projekt der Wissenschaftler, die FAA von Anfang an mit im Boot saß und dem Projekt offiziellen und finanziellen Schub verlieh.

Es war die Geburtsstunde des LOSA. Die Abkürzung steht für Line Operations Safety Audit und ist ein weiterer Meilenstein in der Luftfahrtsicherheit (Qualität).
Damit entwickelte sich aus dem Fehlermanagement das TEM (Thread an Error Management). DER Verdienst des LOSA.
Man wollte sich in Zukunft nicht nur mit gemeldeten Fehlern aus dem ASRS zufriedengeben, sondern Daten über mögliche Gefahren sammeln, die (noch) zu gar keinem Fehlerreport oder Unfall geführt haben.

Prof. Helmreich und sein Weggefährte Dr. James Klinect gründeten für das LOSA an der Universität Austin (TX) ein eigenes Institut. Es sammelt Daten über einen definierten Zeitraum im ganz normalen Flugbetrieb von Airlinern und wertet diese aus.
Unterstützt werden diese Audits jeweils von ganz oben, der FAA sowie den CEOs der großen Airlines.

Folgende wesentliche Voraussetzungen sind für den Erfolg und die Akzeptanz von LOSA bei den Crews nötig:
  • Nicht das einzelne Crew-Mitglied soll im Handeln beobachtet werden, sondern der Handlungsablauf der gesamten Crew im Rahmen der festgelegten Verfahren.
  • Die Daten werden streng anonym gesammelt und haben keinerlei negative Auswirkungen oder Folgen auf das einzelne Crewmitglied oder die Airline.
  • Speziell ausgebildete, auf die LOSA-Datensammlung trainierte Flugkapitäne nehmen diese Erfassung unkommentiert vom „Jump-Seat“ wahr.
  • Die Erkenntnisse daraus sind öffentlich zugänglich.
  • Das Audit hat einen definierten Zeitraum über maximal einige Wochen.
Betrachtet wurden alle Prozesse im Cockpit, die mit einem Flug in Zusammenhang stehen.

So auch die Kommunikation mit der Flugleitstelle (ATC) und die Interaktion mit den Bordcomputern.

Die Daten werden vor der Auswertung nochmal von Spezialisten der Airline und Hersteller verifiziert. Es sind reine Daten aus Human Factors, keine technischen Daten.

Denn: Human Errors waren zu 80 % die Ursache von Flugzeugkatastrophen.

Die Datenflut aus dem normalen Flugbetrieb und ihre sehr sorgfältige Auswertung brachten dem CRM nochmals sehr wertvolle Ergänzungen und komplett neue Erkenntnisse.

Das betrifft vor allem die Zusammenarbeit von Menschen mit Computern.

Damit wurden unter anderem zwei entscheidende Irrtümer in der Entwicklung von Hard- und Software aufgedeckt und korrigiert.
Beide waren Hauptursachen von Flugzeugkatastrophen mit vielen Toten:
  • Der Mensch muss sich nicht dem Computer anpassen, sondern der Computer dem Menschen.
(Diese Usability-Erkenntnis deckt sich zu 100% mit den Erkenntnissen von Don Norman und Jakob Nielsen, siehe meinen Artikel vom Juli 2017)
  • Der Computer besitzt keine Intelligenz, auch keine künstliche – egal wie hoch er entwickelt ist! Computer sind dumm, so eine deutliche Überschrift im LOSA.
 Computer können weder Absichten erkennen noch die Situationsübersicht haben. 
Computer sind von Sensoren abhängig, die den menschlichen Sinnen nicht mal annähernd das Wasser reichen können.



Das aus dem LOSA entstandene Schema des Thread and Error Managements (TEM) zeigt, wie heute das Sicherheitsmanagement in der Verkehrsluftfahrt funktioniert.
Es hat Mensch und Computer im Cockpit zu einer einzigartig fehlerarmen Zusammenarbeit und Effizienz geführt.

LOSA könnte ein Vorbild für jedes Qualitätsmanagement sein und Unternehmen sowie Kliniken neue Welten eröffnen.

In den USA ist man in Kliniken schon weit fortgeschritten damit. In Europa, und speziell in Deutschland, steckt das Thema noch in den Kinderschuhen.
In Unternehmen ist es, bis auf wenige Ausnahmen, überhaupt noch nicht angekommen.

Das Wissen existiert und ist jedermann öffentlich zugänglich, seit fast 20 Jahren.

Gerade bei den schnell wachsenden Herausforderungen der Digitalisierung kann die Luftfahrt ein exzellentes Vorbild sein.

Denn: setze Sicherheit=Qualität und der Transfer ist fast 1:1 möglich.

Quellen:

Kanki, B. G., Helmreich, R. L., and Anca, J. (2010) Crew Resource Management, Second Edition, Elsevier, Amsterdam.

Keine Kommentare:

Kommentar veröffentlichen