Unser Arztportal
Drucker

Aus der Luftfahrt für die Medizin lernen

Fehlerquelle "Mensch"

(Artikel aus BERLINER ÄRZTE / Nov. 2001) Während die Fehlerforschung in der Medizin noch in den Kinderschuhen steckt, wurde sie in anderen Risiko-Branchen - allen voran der internationalen Luftfahrt - schon weit entwickelt. Zentrale Fragen sind hier: Welche Fehlertypen sind besonders gefährlich? Was begünstigt Fehler? Welche Fehlerkultur wird gebraucht, um Fehlerquoten so niedrig wie möglich zu halten? Fragen, die sich auch die Medizin stellen sollte.

Ist, was im Cockpit gilt, auch auf den OP übertragbar? Sicher nicht zu 100 %. Doch haben Luftfahrt und Medizin einiges gemeinsam; die Teamarbeit mit hohem Spezialisierungsgrad, die hohe psychische und physische Belastung bei häufig schnell wechselnder Arbeitsintensität und die Konfrontation mit zwingenden Entscheidungen. Als konkrete Übertragung sei aus der Medizin nur die Transplantation erwähnt, die von ihrem Schwierigkeitsgrad vielleicht vergleichbar mit einem Instrumentenanflug in der Luftfahrt ist, bei dem ein Durchstartmanöver mit einem Jumbo-Jet in einer Höhe von fünfzehn Metern über dem Boden als Normalverfahren durchgeführt werden muss. Beides sind im Prinzip "alltägliche" Situationen, in denen eine ausgefeilte Technik, deren Kontrolle sowie eine Vielzahl von Personen zusammenspielen. Ein Versagen einzelner Komponenten führt hier zu Situationen, die das Gelingen bzw. den geplanten Vorgang (Operation/Flugmanöver) gefährden können und dadurch fatale Ausgänge nehmen können (Tabelle 1).

Dass Fehler passieren, ist unvermeidlich

Aus der Fehlerforschung in der Luftfahrt - hier speziell Untersuchungen der NASA - weiß man, dass 70 % der Flugunfälle auf menschliches Fehlverhalten zurückzuführen sind. Dass Fehler passieren, ist unvermeidlich. So beträgt zum Beispiel die allgemeine Fehlerrate bei einer banalen Tätigkeit, etwa beim Ablesen von Instrumenten, bereits drei Promille, Komplexer wird die Situation beispielsweise bei miteinander agierenden Personengruppen verschiedener Qualifikation, die entsprechende Geräteüberprüfungen vornehmen sollen. Hier beträgt die Fehlerquote, wenn keine schriftlichen Anweisungen Entsprechendes festlegen, bis zu 10 %. Die allgemeine Fehlerrate bei Aktivitäten mit hohem Stresslevel, wenn gefährliche Ereignisse schnell aufeinander folgen, beträgt sogar bis zu 25 %. Wie schwer es dabei ist, "fehlerfrei" bzw. auf dem viel zitierten 99 % Sicherheitsniveau zu arbeiten, sollen folgende Ausführungen kurz darstellen.

Grundsätzlich gilt: Die Gesamtleistung eines Teams ist gleich dem Produkt aller Einzelleistungen. Dies verdeutlicht Tabelle 2, modifiziert nach Nolan und Park: Wenn 1 einem Niveau von 100 % entspricht, so ist zum Beispiel nach 50 Einzelschritten (oder bei 50 miteinander agierenden Personen) das Gesamtniveau auf 95 % gesunken. Übertragen auf das tägliche Leben bedeutet dies nichts anderes als Folgendes:

  • Je mehr Menschen miteinander, selbst auf höchstem Sicherheitsniveau, agieren, desto wahrscheinlicher wird es, dass ein Fehler geschieht.
  • Je mehr Arbeitsschritte bzw. Verrichtungen (am Patienten) geschehen, desto wahrscheinlicher wird es, dass ein Fehler passiert.

Bedeutung hat diese Tatsache ohne Zweifel nicht nur für die Luftfahrt, sondern auch für die Medizin. Beide Bereiche sind von entsprechenden Teamleistungen abhängig und der Teamfehler kann als Aktion bzw. Unterlassung von notwendigen Tätigkeiten definiert werden, der zu einem Abweichen vom Team- oder Organisationsziel führt.

Das A und O: Eine systematische Datenerfassung

Schon früh wurden in der Luftfahrt systematisch Daten, hauptsächlich verpflichtend, erhoben und ausgewertet. Die amerikanische Luftfahrtbehörde hat seit 1982 systematisch über 46.000 meldepflichtige Incidents (Ereignisse) und Accidents (Unfälle) in einer recherchierbaren Datenbank zusammengetragen und ausgewertet. Diese Ergebnisse nahmen einen direkten Einfluss auf die Sicherheitsanforderungen im Flugverkehr. Für eine Verbesserung von Systemen und Verhaltensweisen ist es entscheidend herauszufinden, womit verhindert werden könnte, dass aus Störungen Unfälle werden. Um hier eine systematische Forschung betreiben zu können, hat man in den USA unter anderem das freiwillige Meldesystem ASRS (Aviation Safety Reporting System) aufgebaut. Diese Datenbank betreibt die NASA im Auftrag der FAA seit 1975; Dort sind seitdem 400.000 so genannte "Incident Reports" freiwillig und anonym eingegangen. Dabei ist den Meldenden garantiert, dass sie eine Immunität bezüglich Sanktionen erhalten, wenn sie binnen 10 Tagen einen Vorfall melden, an dem sie entweder beteiligt waren oder den sie beobachtet haben und der ihrer Meinung nach eine Gefährdung der Flugsicherheit darstellte. Die Ergebnisse der Auswertungen haben direkten Einfluss auf die Identifikation von Gefahren und sicherheitsrelevanten Faktoren im amerikanischen Luftverkehr. Trotz der Tatsache, dass durch die Incident Reports teilweise sanktionswürdige Vorgänge gemeldet wurden, wurde bei allen bisher eingegangen 400.000 Reports die Identität des Meldenden in keinem einzigen Fall weitergegeben.

Eine weitere wichtige Datenquelle zum Fehlerverhalten liefert seit über 15 Jahren das Projekt LOSA (Line Operations Safety Audit). Hier wurden durch Expertenbeobachtung im Cockpit bei über 3.500 Flügen Daten über Gefahrensituationen und Fehler der Besatzungen sowie - was wesentlich wichtiger ist - über die Beherrschung dieser Situationen vertraulich gesammelt. Im Schnitt wurden dabei zwei Gefährdungssituationen sowie zwei Fehler bei jedem dieser Flüge beobachtet. Aufgrund dieser Daten konnten essenzielle Verhaltensmuster zur Beherrschung von Gefährdungssituationen und Fehlern identifiziert und daraus Programme entwickelt werden, die es Crews ermöglichen sollen, mit diesen Situationen (und nicht etwa Einzelfehlern) besser umzugehen.

Checks durch gute Fehlerkultur

Zwei Fehlersysteme werden derzeit in der Forschung unterschieden: das Personen-Modell und das System-Modell. Dabei konzentriert sich das erstere auf den Ansatz, dass Personen aus den verschiedensten Gründen wie Vergesslichkeit, Unwissen oder auch Intention Fehler begehen. Im Zentrum der Aufmerksamkeit steht eine Person oder Gruppe, die dann für den Fehler oder den unerwünschten Ausgang verantwortlich zeichnet. Ein in der Medizin verbreiteter Ansatz.

Das System-Modell, konzentriert sich auf die Bedingungen, unter denen Personen arbeiten und versuchen, systembedingt Sicherheiten oder Verhaltensmuster zu entwickeln, die die agierenden Personen befähigen, auf unerwünschte Ereignisse zu reagieren. Berühmt ist Reasons "Schweizer-Käse-Modell" von "latenten Systemfehlern", in dem er die Löcher in einer Scheibe Schweizer Käse mit latenten, zur Zeit nicht aktiven Systemfehlern vergleicht. Die Scheiben fungieren gleichzeitig als Schutzschild. Erst zu dem Zeitpunkt, an dem die Käsescheiben so hintereinander aufgereiht sind, dass ein Loch in jeder Scheibe die Durchlässigkeit durch den gesamten Stapel ermöglicht, kann das Ereignis (Fehler) stattfinden.

Wie oft ein Fehler vorkommt, sagt noch lange nichts darüber aus, welche Konsequenzen er hat. Unter Umständen kann ein seltener Fehler verheerende Folgen haben und ein häufig auftretender vergleichsweise harmlos sein. So stellte sich in dem schon erwähnten LOSA-Projekt heraus, dass, obwohl das Nichtbefolgen von Prozeduren zwar einen Anteil von 55 % an den Fehlern hatte, sich daraus aber nur 4 % der unerwünschten Flugzeugzustände ergaben. Im Gegensatz dazu, führten die Entscheidungsfehler mit 7 % Anteil immerhin zu 44 % der unerwünschten Konsequenzen und bei den Proficiency-Fehlern (Leistungsstand/Training) drehte sich das Verhältnis fast um: nur 5 % der Fehler lagen in diesem Bereich, führten aber zu 69 % der unerwünschten Konsequenzen. Übrigens zeigte sich, dass Besatzungen, die Prozeduren verletzten, auch 1,4-mal so häufig andere Fehler begingen.

Überschätzen Ärzte ihre Leistungsfähigkeit?

Eine weitere Fehlerursache ist die Selbsteinschätzung in bestimmten Situationen. Sexton befragte dazu über 30.000 Piloten sowie 1.033 Ärzte und Krankenschwestern. Dabei wurden folgende Kernaussagen vorgelegt. Der Aussage: "Unerfahrenere Teammitglieder sollten nicht die Entscheidungen der Erfahreneren (Chefärzte/Flugkapitäne) in Frage stellen", stimmten nur 2 % der Piloten aber 24 % der Chefärzte zu. Die Aussage: "Auch wenn ich übermüdet bin, bin ich in der Lage, in Notfallsituationen effektiv zu handeln", beantworteten nur 26 % der Piloten, aber 70 % der Chefärzte mit "ja". Interessant war auch die Tatsache, dass 30 % der Ärzte und Schwestern auf Intensivstationen verneinten, Fehler zu begehen.

Eine der Konsequenzen aus der Fehlerforschung war in der Luftfahrt die verbindliche weltweite Einführung des Crew Resource Management (CRM), eines Trainingprogramms, das den Cockpitbesatzungen die Limits menschlicher Leistungsstärken - wie Erschöpfung und Stress - sowie die Ursachen für Fehler nahe bringt. Dabei wird als Gegenmaßnahme eine entsprechende Fehlerkultur mit Grundfähigkeiten wie Führung, Beobachtung, Kommunikation und gegenseitiger Überprüfung sowie Entscheidungsfindung und Überprüfung mit Modifikation von geplanten Entscheidungen gelehrt. Die Ergebnisse bestätigen die Effektivität in Bezug auf die Änderung von persönlichen Einstellungen und dadurch verbesserter Sicherheit. Nach Reason sollten deshalb Organisationen mit einem hohen Zuverlässigkeitsdruck für sich vom Systemfehler-Modell ausgehen. Sie müssen damit rechnen, dass ein fehlerfreies Arbeiten nicht durchführbar ist und müssen wissen, dass Menschen nicht unter einem konstanten Stress mit Fehlererwartung arbeiten können. Deshalb sollten sie eine Fehlerkultur schaffen, die nicht darauf abzielt, einzelne Fehler zu verhindern, sondern die systemisch mit Fehlern "umgehen kann".

Nicht "Schuldige" suchen, sondern gemeinsam lernen

Können diese Ergebnisse aus der Luftfahrt ohne weiteres in die Medizin übertragen werden? Obwohl zum Beispiel Operationssäle teilweise komplexere Arbeitsumgebungen darstellen als Cockpits, zeigen Untersuchungen Parallelen bezüglich Kommunikation und suboptimaler Teamleistung. Zwei Drittel der Schwestern und Ärzte in einem Krankenhaus nannten auf die Frage, welche Komponente vordringlich für eine bessere Sicherheit und Effektivität sei, die Verbesserung der Kommunikation. Auch zeigen weitere Untersuchungen, dass Piloten und Ärzte zwischenmenschliche Problemgebiete und Gemeinsamkeiten in der Arbeitskultur teilen.

Im Prinzip kann man den Maßnahmenkatalog zur Fehlerbekämpfung in 5 Unterpunkte aufteilen:

  • Komplexitäten reduzieren
  • den Informationsfluss optimieren
  • Automationsmechanismen wohlüberlegt einführen
  • Grenzen (bei gefährlichen Vorgängen) definieren
  • die durch Veränderung hervorgerufenen unerwünschten Nebeneffekte mildern.

Dabei ist es selbstverständlich, dass der Wille da sein muss, sich diesen Herausforderungen zu stellen und sie umzusetzen. Daneben werden auch Meldesysteme, ähnlich dem ASRS, mit Randbedingungen wie "schnell, vertraulich, einfach und mit darstellbarem Benefit für die Anwender" gefordert. Das Ziel sollte jedoch sein, in einer Organisation ein Gefühl für eine starke Sicherheitskultur zu entwickeln. Reason beschreibt vier wichtige Komponenten einer effektiven Sicherheits-(Fehler-)kultur:

  • ein adäquates Meldesystem
  • angemessene Reaktionen auf die erhaltenen Meldungen
  • Flexibilität
  • und schließlich die Fähigkeit, aus Erfahrung lernen zu können.

Gleiche Empfehlungen finden sich nicht nur im Sechs-Punkte-Programm für das "Australian Council for Safety and Quality in Health Care" (Tabelle 3), das von Helmreich auch in einem Sonderheft des British Medical Journal im Jahr 2000 formuliert worden ist, sondern auch bei Spencer in seiner Forderung nach dem Erkennen und Beherrschen latenter Systemfehler. Ob diese Konzepte auch für Deutschland zutreffen und sich entsprechend umsetzen lassen können, kann man mit Reasons Antwort auf die Frage: "Was ist ein gutes Risikomanagementsystem?" zur Diskussion stellen:

Ein gutes Risikomanagementsystem garantiert die Sicherheit einer Institution. aber Sicherheit heißt nicht Abwesenheit von Fehlern, sondern die Fähigkeit einer Institution mit Risiken und Gefahren umgehen zu können, um so Schäden und Verluste zu verhindern und trotzdem die gesteckten Ziele zu erreichen. Es wäre sinnvoll, die medizinische Fehlerforschung auch in Deutschland zu vertiefen und hieraus ein Curriculum für Mitarbeiter in Gesundheitseinrichtungen zu entwickeln. Noch gibt es so etwas nicht. Eine lohnende Aufgabe für die ärztlichen Körperschaften.


Tabelle 1:
Vermeidbare unerwünschte Ereignisse nach Art des Ereignisses
(Leape, 1994)
  Unerwünschte Ereignisse

Anzahl

Frequenz (%)

Vermeidbare Ereignisse (%)

  Konservative Behandlung

 

 

 

  Im Zusammenhang mit Arzneimitteltherapie
  Im Zusammenhang mit Diagnostik
  Im Zusammenhang mit Therapie
  Prozedurenabhängig
  Systemfehler
  Sturz
  Anderes

19.130
7.987
7.396
6.903
1.362
2.662
6.100

19,4
8,1
7,5
7,0
1,4
2,7
6,2

45,2
98,8
91,3
52,8
85,5
92,2
54,3

  Alle konservativen Behandlungen

51.540

52,3

65,5

  Operative Behandlung      
  Wundinfektionen
  Technische Komplikationen
· Spätkomplikationen
· Nicht-technische Komplikationen
· Später Misserfolg der Intervention

13.411
12.721
10.453
6.903
3.550

13,6
12,9
10,6
7,0
3,6

71,9
86,7
67,2
54,5
94,0

  Alle operativen Behandlungen

47.038

47,7

74,0

  Gesamt

98.578

100

69,6

 

Tabelle 2: 
Fehlerraten für Abfolgen von Einzelereignissen bzw. Zusammenwirken von Einzelpersonen
(modifiziert nach Nolan )

 

Grundfehlerwahrscheinlichkeit des Einzelschrittes

Anzahl der Einzelschritte
(bzw. Teammitglieder)

0.05
(95%)

0.01
(99%)

0.001
(99.9%)

0.0001
(99.99%)

1

0.05

0.01

0.001

0.0001

5

0.33

0.05

0.005

0.0002

25

0.72

0.22

0.02

0.003

50

0.92

0.39

0.05

0.005

100

0.99

0.63

0.1

0.01

 

Tabelle 3: 6-Schritt-Programm zum Aufbau einer Fehler-(Sicherheits-) kultur
(gem. "Australian Council for Safety and Quality in Health Care")

1.

Geschichte

Fakten und Entwicklung der Organisation

2.

Diagnose

Datenerfassung (Probleme, Schwierigkeiten, Fehler und deren Management), Aufbau eines Meldesystems

3.

Aufbau einer Organisationskultur

Klare Vorgaben bezüglich Leistungen und Durchführung, Kommunikative Aspekte, Akzeptanz des Fehler-System- Modells

4.

Training

CRM-Training bezüglich der formalen und persönlichen Interaktionen der Arbeitsstätte

5.

Feedback und Verstärkung

Ermöglicht den "Frontlinern" eine Rückmeldung bezüglich zwischenmenschlichen und technischen Aspekten ihrer Leistungen und belohnt effektive Teamleistung. Dazu sind moderne Assessmentmethoden notwendig

6.

Fortwährendes Training und Assessment von Personal und Organisation

Letztendlich Anwendung von modernen QMA-Methoden (PDCA-Kreis), da einmalige Anstrengungen bezüglich des Aufbaus einer Fehlerkultur zum Scheitern verurteilt sind

Literatur beim Verfasser:

Dr. med. Christian Thomeczek - Arzt und Verkehrsflugzeugführer
Geschäftsführer des Ärztlichen Zentrums für Qualität in der Medizin (ÄZQ)
Wegelystr. 3 / Herbert-Lewin-Platz
10623 Berlin
Tel: 030 4005-2501/-2504 / Fax -2555
E-Mail: Thomeczek@azq.de

Verwandte Dokumente:

  •   Fehlerquelle "Mensch"
    (Artikel aus BERLINER ÄRZTE / Nov. 2001) Während die Fehlerforschung in der Medizin noch in den Kinderschuhen steckt, wurde sie in anderen Risiko-Branchen - allen voran der internationalen Luftfahrt - schon weit entwickelt. Zentrale Fragen sind hier: Welche Fehlertypen sind besonders gefährlich? Was begünstigt Fehler? Welche Fehlerkultur wird gebraucht, um Fehlerquoten so niedrig wie möglich zu halten? Fragen, die sich auch die Medizin stellen sollte.
  •   Fehlerquelle "Mensch"
    (Artikel aus BERLINER ÄRZTE / Nov. 2001) Während die Fehlerforschung in der Medizin noch in den Kinderschuhen steckt, wurde sie in anderen Risiko-Branchen - allen voran der internationalen Luftfahrt - schon weit entwickelt. Zentrale Fragen sind hier: Welche Fehlertypen sind besonders gefährlich? Was begünstigt Fehler? Welche Fehlerkultur wird gebraucht, um Fehlerquoten so niedrig wie möglich zu halten? Fragen, die sich auch die Medizin stellen sollte.
  •   Fehlerquelle "Mensch"
    (Artikel aus BERLINER ÄRZTE / Nov. 2001) Während die Fehlerforschung in der Medizin noch in den Kinderschuhen steckt, wurde sie in anderen Risiko-Branchen - allen voran der internationalen Luftfahrt - schon weit entwickelt. Zentrale Fragen sind hier: Welche Fehlertypen sind besonders gefährlich? Was begünstigt Fehler? Welche Fehlerkultur wird gebraucht, um Fehlerquoten so niedrig wie möglich zu halten? Fragen, die sich auch die Medizin stellen sollte.

RSS Newsfeed abonnieren  |  Was ist ein RSS Newsfeed?

Mitgliederportal

Login

Login für Mitglieder
der Ärztekammer Berlin

Services: Fortbildungs-
punktekonto, Arztausweis, Anerkennung Weiterbildung etc.
Beantragung Fortbildungsveranstaltungen

cme

CME Anerkennung

Anerkennung
ärztlicher Fortbildungsmaßnahmen

Login 
Elektronischer Arztausweis

eArztausweis

Informationen zum elektronischen Arztausweis sowie zur Antragstellung

... finden Sie hier
Interventionsprogramm

Informationen zum Interventionsprogramm für Mitglieder der Ärztekammer Berlin mit problematischen Substanzkonsum ... 

... finden Sie hier
BERLINER ÄRZTE - Mitgliederzeitschrift
Ihre Ansprechpartner
Jobbörse
Ihre Ansprechpartner zu Fragen der Qualitätssicherung...
... finden Sie hier!
Critical Incident Reporting Systeme
PiktogrammgCIRS
Ausführliche Informationen zum Netzwerk CIRS Berlin ...
...finden Sie hier!
Literaturtipp

© 2020 Ärztekammer Berlin

 

Ärztekammer Berlin english_icon
Friedrichstr. 16 | 10969 Berlin
Telefon +49 30 / 40806-0 | Fax +49 30 / 40806-3499 | E-Mail kammer@aekb.de