Skip to main content
Die Intensivmedizin
Info
Publiziert am: 20.12.2022

Risikomanagement und Fehlerkultur

Verfasst von: Jürgen Graf, Adrian Frutiger und Kyra Schneider
Die Intensivstation steht als multidisziplinäres, hochkomplexes und stark technisiertes System im Zentrum der stationären Krankenversorgung. Fehler, Zwischenfälle oder unerwünschte Ereignisse sind v. a. von der Intensität der geleisteten Therapie und Pflege, dem Schweregrad der Erkrankung und der Komplexität der organisatorischen Abläufe abhängig. Somit zählt die Intensivmedizin zu einem der fehleranfälligsten bzw. risikoreichsten Bereiche der stationären Krankenversorgung, und die damit verbundene Morbidität, Letalität und ökonomischen Auswirkungen sind beträchtlich.
Besondere Risiken bestehen bei der Arzneimitteltherapie und der Transition.
Bei fast der Hälfte der Patienten aller einer Studie von Tully es zu mindestens zu einem Medikationsfehler beim Übergang von Intensivstation auf Normalstation. Auch wenn die meisten Fehler die Patienten nicht erreichten, kam es doch bei 0,7 % zu einer dauerhaften Schädigung bzw. Reanimationsbedarf. In 30 % wurde die intensivspezifische Medikation (z. B. Ulcusprophylaxe) weitergeführt. (Tully et al. 2019)

Risikomanagement und Fehlerkultur

Grundüberlegungen, Definitionen, Semantik

Fehler sind in der Medizin häufig, und die damit verbundene Morbidität, Letalität und ökonomischen Auswirkungen sind beträchtlich (Bates et al. 1997; Kohn et al. 1999; Slawomirski et al. 2017). Die Intensivstation steht als multidisziplinäres, hochkomplexes und stark technisiertes System im Zentrum der stationären Krankenversorgung. Die Häufigkeit eines Fehlers, Zwischenfalls oder unerwünschten Ereignisses ist, neben anderen Faktoren, v. a. von der Intensität der geleisteten Therapie und Pflege, dem Schweregrad der Erkrankung der Patienten und der Komplexität der organisatorischen Abläufe abhängig (Weingart et al. 2000; Wilson et al. 1995; Bates et al. 1999; Panagioti et al. 2019).
Somit zählt die Intensivmedizin zu einem der fehleranfälligsten Bereiche der stationären Krankenversorgung.
Viele Erkenntnisse über Fehler in der Medizin wurden deshalb auch im Bereich der Intensivmedizin gewonnen.

Irren ist menschlich: Fehler als untrennbares Element jeglichen menschlichen Tuns

„To err is human“ lautet der Titel des Aufsehen erregenden Berichts, der für den US-Kongress verfasst wurde (Kohn et al. 1999). Hierin wird von geschätzten 44.000–98.000 Todesfällen jährlich infolge vermeidbarer medizinischer und organisatorischer Fehler und Zwischenfälle allein in den USA berichtet. Anlass für die Erstellung des Berichtes war die zunehmende Verunsicherung der Öffentlichkeit über Fehler und unerwünschte Ereignisse im Gesundheitswesen, die regelmäßig zu schweren Patientenfolgen und hohen Kosten führten. Australische Untersuchungen stufen etwa 18.000 Todesfälle und mehr als 50.000 bleibende Behinderungen pro Jahr als fehlerassoziiert und somit letztlich vermeidbar ein (Weingart et al. 2000). Diese Fehler reichen von der unzutreffenden Diagnose über fehlerhafte Untersuchungen bis hin zum falschen Medikament, das dem falschen Patienten zur falschen Zeit verabreicht wird (Weingart et al. 2000). Medizinische Fehler werden auch in aktuelleren Studien als die dritthäufigste Todesursache benannt (Makary und Daniel 2016).

Semantik: „Fehler“ oder „Ereignis“, „Beinaheereignis“

Die Semantik rund um die Beschreibung von Fehlern ist sehr variabel und bisweilen verwirrend. Die Bezeichnung „Fehler“ oder „error“ wird oft verwendet, trägt aber das wertende Element der Schuldhaftigkeit in sich. Auch der Begriff „kritisches Ereignis“ bzw. „critical incident“ wird häufig verwendet. Neutralere Terminologien bevorzugen die Begriffe „unerwünschtes Ereignis“ („adverse event“) und „vermeidbares unerwünschtes Ereignis“ (preventable adverse event). Davon sind im Alltag nur eingeschränkt abgegrenzt „kritische Ereignisse“ („critical incident“), d. h. Ereignisse, die das Risiko für das Eintreten eines schwerwiegenden unerwünschten Ereignisses erhöhen oder tatsächlich in ein schwerwiegendes unerwünschtes Ereignis münden (Schrappe 2018).
Die Formulierung „near miss“ oder „Beinaheereignis“ schließlich bezeichnet ein Ereignis, das hätte Schaden anrichten können, bei dem aber glücklicherweise nichts passiert ist.
Auch das Verständnis, wann es sich in der Medizin um einen Fehler oder Zwischenfall handelt, ist sehr unterschiedlich ausgeprägt:
  • alle Handlungen, in denen eine geplante Abfolge von mentalen oder physischen Aktivitäten das erwünschte Ergebnis verfehlen und diese Verfehlungen nicht einer Zufallseinwirkung zugeschrieben werden können,
  • ein Ereignis, welches, falls es nicht bemerkt und zeitnah korrigiert wird, zu einem unerwünschten Ergebnis führen könnte bzw. geführt hat (Flanagan 1954).
Obwohl diese Definitionen praktisch alle denkbaren Fehler einschließen, sind sie in der (Intensiv-)medizin nicht ganz unproblematisch: Nicht selten werden Patienten mit schwersten Erkrankungen und einer sehr hohen erwarteten Letalität behandelt, wie z. B. Patienten im kardiogenen Schock, septischen Schock oder im Multiorganversagen. Sterben diese Patienten, ist der Tod mitunter die Folge eines unumkehrbaren Krankheitsprozesses und nicht prinzipiell als ein „Fehler“ zu bewerten. Noch deutlicher wird die Problematik am Beispiel der Herz-Kreislauf-Wiederbelebung: Natürlich ist es das Ziel dieser Intervention, das Überleben der Patienten sicherzustellen. Auf der anderen Seite ist den behandelnden Ärzten schon während der Reanimationsmaßnahmen die extrem hohe Letalität der Patienten bewusst. Der Tod reanimierter Patienten ist somit nicht unbedingt Folge eines Fehlers, sondern mitunter ein Teil der Erkrankung.
Daher führt eine so umfassende Definition des Fehlers zwangsläufig zu einer Überschneidung zwischen den unabwendbaren Geschehnissen des Krankheitsverlaufs auf der einen und tatsächlichen unerwünschten oder ungeplanten Ereignissen bzw. Fehlern auf der anderen Seite.
Für die klinische Praxis und v. a. für die Intensivmedizin ist also eine Definition notwendig, die diese besonderen Umstände berücksichtigt (Tab. 1 und 2).
Tab. 1
Definition der verschiedenen Begrifflichkeiten
Begriff/Literatur
Definition
Fehler („error“) (Schrappe 2018)
Nichterreichen eines geplanten Handlungszieles oder Anwendung eines falschen Plans
Fehler („error“) (Leape 1994)
Eine unbeabsichtigte Handlung, entweder durch Unterlassung oder Durchführung, die nicht zum gewünschten Ergebnis führte.
Fehler („error“) (Kohn et al. 1999)
Eine geplante Handlung kann nicht wie beabsichtigt durchgeführt werden (im Sinne eines Durchführungsfehlers), oder zur Zielerreichung wurde ein falscher Plan oder ein falsches Vorgehen verwendet (im Sinne eines Planungsfehlers).
Unerwünschtes Ereignis („adverse event“) (Schrappe 2018)
Ein unbeabsichtigtes negatives Ergebnis, das auf die Behandlung zurückgeht und nicht der bestehenden Erkrankung geschuldet ist.
Vermeidbares unerwünschtes Ereignis – Schaden („preventable adverse event“) (Kohn et al. 1999)
Ein auf einen Fehler zurückgehendes unerwünschtes Ereignis.
Behandlungsfehler („negligent adverse event“) (Kohn et al. 1999)
Behandlungsfehler bilden eine Untergruppe der unerwünschten Ereignisse, die rechtliche Kriterien der Nachlässigkeit erfüllen.
Zwischenfall („critical incident“) (Beckmann et al. 2003)
Ein unbeabsichtigtes Ereignis oder Ergebnis, das die Sicherheit des Patienten gefährdet oder zumindest gefährden konnte. Möglicherweise war es vermeidbar oder unvermeidbar und beinhaltete vielleicht einen Fehler des medizinischen Personals.
Missgeschick, Beinaheereignis („near miss“) (Barach und Small 2000)
Ein Ereignis, das sich zu einem unerwünschten Ereignis oder Schaden hätte entwickeln können und sich von solchen nur durch die ausbleibenden Folgen unterscheidet.
Versehen, Ausrutscher („slip“, „laps“) (Reason 2003)
Fehler bei der Durchführung einer Handlung, die auf bestimmten Fähigkeiten beruht. Der Unterschied zwischen einem „slip“ und einem „laps“ liegt in der Beobachtbarkeit der Handlung: Das Verabreichen der falschen Dosierung einer Arznei ist ein „slip“, wohingegen die fehlende Erinnerung, was die richtige Arznei gewesen wäre, ein „laps“ ist.
Irrtum („mistake“) (Reason 2003)
Aufgrund einer falschen Planung führt eine ansonsten korrekt durchgeführte Handlung nicht zum gewünschten Ergebnis.
Patientensicherheit („patient safety“) (Kohn et al. 1999)
„Freedom from accidental injury“ Freiheit von Verletzungen und Schäden durch Unfälle.
Patientensicherheit („patient safety“) (WHO 2021)
Patient safety is a framework of organized activities that creates cultures, processes, procedures, behaviours, technologies and environments in health care that consistently and sustainably lower risks, reduce the occurrence of avoidable harm, make error less likely and reduce its impact when it does occur.
Tab. 2
Klassifizierung von Fehlern. (Nach Kohn et al. 1999)
Fehlerart
Definition
Diagnostische Fehler
– Fehler oder Verzögerung in der Diagnosestellung
– Fehler bei der Durchführung des geeigneten, indizierten Untersuchungsverfahrens
– Anwendung eines veralteten Untersuchungsverfahrens
– fehlende Konsequenz aus einem Untersuchungs- oder Testergebnis
Behandlungsfehler
– Fehler bei der Durchführung einer Operation, einer Prozedur oder eines Tests
– Fehler bei der Durchführung einer Behandlung
– Fehler bei der Medikamentendosierung oder Medikamentenauswahl
– vermeidbare Verzögerung in der Behandlung oder in der Reaktion auf ein pathologisches Untersuchungsergebnis
– ungeeignete (nicht indizierte) Behandlung, veraltete Therapie
Fehler bei der Prävention
– fehlende oder fehlerhafte vorbeugende Behandlung
– unzureichende Nachbeobachtung einer Behandlung
Sonstige Fehler
– Fehler bei der Kommunikation
– medizintechnischer Fehler
– andere systembedingte Fehler
Auch der Ursprung von Fehlern bietet eine Option zur Klassifikation. Fehler können sowohl in der Planung als auch in der Ausführung- beabsichtigt oder auch beabsichtigt- entstehen (Abb. 1).
Für die Beurteilung des Aufwandes einer Nachbereitung von Fehlern ist die Unterscheidung zwischen sporadischen, zufälligen und systemischen Fehlern hilfreich. Die Prävention von sporadischen und zufälligen Fehlern ist oftmals nur mit außerordentlichem Aufwand, wenn überhaupt möglich.

Klassifizerung von Schadensereignissen, Sicherheitstaxonomie

Im Ereignismonitoring fehlte bisher eine allgemein anerkannte Terminologie, was die Förderung und Akzeptanz solcher Systeme erheblich erschwert hat. Die JCAHO (Joint Commission on Accreditation of Healthcare Organizations) hat eine Taxonomie zur Einteilung, Beschreibung und Sammlung von Ereignissen mit Patientenschäden publiziert (Chang et al. 2005). Sie will damit die Sprachverwirrung in der Diskussion um Patientensicherheit verringern. Das vereinfachte Schema mit 5 Hauptgruppen ist in Tab. 3 dargestellt. Es wird noch in 21 Unterklassen und 200 kodierte Kategorien unterteilt, die den Rahmen dieses Textes sprengen. Zusätzlich erlaubt das System auch freie Erzählung, „free narrative“, um kontextrelevante Informationen zu ermöglichen.
Tab. 3
Die Hauptgruppen zur Klassifizierung von Ereignissen der Joint Commission on Accreditation of Healthcare Organizations (JCAHO)
Ereignis
JCAHO
Auswirkung
„Impact“
Typus
„Type“
Bereich
„Domain“
Ursache
„Cause“
Vermeidung und Entschärfung
„Prevention and mitigation“
Das System soll namentlich mit im Bereich Intensivmedizin etablierten Systemen gut kompatibel sein. Der Bereich Ursachen sei hier noch etwas vertieft (Tab. 4).
Tab. 4
Untereinteilung von Ereignisursachen
Ursachen
System
– Organisation
– Management
– Kultur
– Richtlinien
– Wissenstransfer
– Technik
– Geräte
– Installationen
Faktor Mensch
– Patient
– Personal
– Fachwissen („knowledge-based“)
– Fertigkeiten („skill-based“, „slips“)
– Regelbeachtung („rule-based“, „mistakes“)
Bei der Analyse von Zwischenfällen unterscheiden Fehlertheoretiker zwischen dem sog. „system approach“ (Systemansatz) und dem „person approach“ (Individualansatz). Der „system approach“ bezeichnet eine Verkettung ungünstiger Umstände, die durch das Arbeitsumfeld und die dort herrschenden Organisations- und Prozessstrukturen begünstigt wird. Gleichwohl bildet regelhaft eine auslösende Aktion oder das Unterlassen einer notwendigen Intervention den unmittelbaren Anlass für einen Zwischenfall. Genauere Untersuchungen dieser Zwischenfälle offenbaren jedoch häufig eine Serie von latenten Fehlern, fehlerbegünstigenden Faktoren und aktiven Fehlern von der sonst geübten Praxis, die letztlich in einem Zwischenfall münden (Abb. 2).
Beim „person approach“ wird das Auftreten von Fehlern und Zwischenfällen als Konsequenz individueller und persönlicher Fehlleistungen aufgefasst. Letzteres stellt die dominierende Sicht- und Verfahrensweise im Gesundheitswesen dar (Reason 2000).
Die JCAHO hat als Basis einer internationalen, von der WHO getragenen Standardisierung die Terminologie, Definition und Konzeptionalisierung der vielfältigen Aspekte der Patientensicherheit in Delphi-Runden weiterentwickelt (Sherman et al. 2009; Towards an International Classification for Patient Safety 2009) und schließlich als Schlüsselkonzept mit 48 sicherheitsrelevanten Einzelaspekten beschrieben (Runciman et al. 2009).
Allgemein darf gelten, dass Fehler sowohl Systemkomponenten als auch individuell menschliche Komponenten haben.

Die Intensivstation als hochkomplexes verletzliches System

Obwohl bislang nur wenige strukturierte Untersuchungen zu Fehlern und Zwischenfällen in der Medizin vorliegen, scheinen die Häufigkeit und die Auswirkungen dieser Fehler u. a. von der Komplexität der Versorgung, der Schwere der Erkrankung und dem Spektrum der therapeutischen Interventionen abhängig zu sein (Osmon et al. 2004). Besonders Bereiche mit hoher Arbeitsbelastung, Entscheidungen unter Zeitdruck mit eingeschränkten Informationen, komplexe Erkrankungen mit divergierenden Zielparametern (z. B. Einnahme von Gerinnungshemmern bei Traumapatienten)- wie in der Intensivmedizin üblich – sind somit potenziell anfällig für Fehler. Gerade hier müssen täglich in kurzer Zeit eine Vielzahl von Parametern bewertet und wichtige Entscheidungen für mitunter lebensbedrohlich erkrankte Patienten getroffen werden (Weingart et al. 2000).
Viele dieser Prozesse verlaufen im Arbeitsalltag parallel und werden zudem häufig mehrfach unterbrochen. Diese in der Intensiv- und Notfallmedizin vorherrschenden Rahmenbedingungen bezeichnen Psychologen als ein kognitiv komplexes Umfeld (Walsh und Beatty 2002). Andererseits ist bekannt, dass maximal 4–5 Objekte parallel im Gedächtnis bearbeitet werden können (Alvarez und Cavanagh 2004). Bei zunehmendem Informationsgehalt sinkt zudem die Zahl der Objekte. Die Anzahl medizinischer Geräte und Überwachungssysteme hat im Gegensatz dazu in den letzten 30 Jahren um ein Vielfaches zugenommen (Walsh und Beatty 2002). Konkurrierten am Anfang der 1970er-Jahre beispielsweise in der Anästhesie noch 4 Geräte um die Aufmerksamkeit des Personals, waren es im Jahr 2000 bereits über 20 verschiedene Systeme (Walsh und Beatty 2002).
Ein weiteres relevantes Risiko ergibt sich aus unterschiedlichen Dokumentationssystemen im Rahmen der Digitalisierung, wenn die Schnittstellen zwischen Krankenhausinformationssystem und dem Patientendokumentationssystem der Intensivstation nur eingeschränkte Schnittstellen implementiert sind.

Bedeutung des Fehlermonitorings in der Intensivmedizin

Unternehmen mit hohem Sicherheitsanspruch, wie die Atomkraftwerksbetreiber oder die öffentliche Luftfahrt, arbeiten mit dem Ansatz des „fehlerhaften Systems“. Darin ist der Mensch als eine Fehlerquelle bereits mit einbezogen. Im System enthaltene Kontrollinstanzen überprüfen die menschlichen Aktionen und können so Missgeschicke oder falsche Eingaben melden oder beheben, bevor ein Fehler daraus entsteht. Dazu gehören einerseits technische Überwachungssysteme und andererseits regelmäßige Supervision en durch Kollegen, wie z. B. das 4-Augen-Prinzip. Es wird nicht nach dem Schuldigen gesucht, sondern der Fehlerprozess in seiner Gesamtheit analysiert und das System entsprechend angepasst. Dieser ständige, aktive Veränderungsprozess ist das Kernelement des Sicherheitssystems. Eine langfristige und intelligente Systemoptimierung beseitigt so die latenten Fehler und hilft, die Wiederholung eines Fehlers zu vermeiden (Alvarez und Cavanagh 2004).
Verschiedene Arbeiten zeigen, dass in unseren Intensivstationen täglich zahlreiche gefährliche Ereignisse ablaufen (Valentin et al. 2006). Eine Arbeit, die stellvertretend für viele steht, nennt 1,7 Fehler pro Patient und Tag bzw. 2 ernste Fehler pro Station und Tag (Donchin et al. 1995). Viele dieser Fehler haben menschliche Ursachen und liegen im Bereich von Kommunikation und Timing.
Fehlererfassungssysteme ermöglichen Einblicke in die Störanfälligkeit und Verletzlichkeit der Abläufe einer Intensivstation. Wenn diese Instrumente richtig eingesetzt werden, kann ein strukturiertes Ereignismonitoring ein sehr wirksames Instrument zur Messung und Verbesserung der Prozessqualität der Intensivmedizin darstellen. Es stellt somit das Rückgrat eines Risikomanagementsystems dar und kann helfen, Fehlerquellen zu identifizieren und möglichen Schaden abzuwenden.

Sicherheitskultur: mit Fehlern leben, aus Fehlern lernen

In jedem Qualitätssystem stellen Handlungsanweisungen für den Umgang mit unerwünschten Ereignissen, d. h. Fehlern und Zwischenfällen, Schlüsselelemente des Qualitätsmanagements dar. Andere Hochsicherheitsbereiche – die eine geringere als die zufällig auftretende Fehlerrate aufweisen, wie z. B. Atomkraftwerke und die kommerzielle Luftfahrt – sind in ständiger Bereitschaft, Fehler und unerwünschte Ereignisse zu erkennen und frühzeitig Gegenmaßnahmen einzuleiten (Reason 2000).
Medizinisches Fachpersonal ist hingegen nur unzureichend für die Möglichkeit und Häufigkeit von Fehlern in ihrem eigenen Handeln sensibilisiert. Nach den Ergebnissen einer in amerikanischen Universitätskliniken durchgeführten Befragung verneinten 30 % der im intensivmedizinischen Bereich beschäftigten Pflegekräfte und Ärzte das Auftreten von Fehlern im Rahmen ihrer Tätigkeiten. Zusätzlich beklagte die Krankenhausverwaltung einen völlig unzureichenden Umgang mit aufgetretenen Fehlern und Zwischenfällen in ihren Einrichtungen (Sexton et al. 2000).

Traditioneller Umgang mit Fehlern

Den Umgang mit Fehlern haben wohl die meisten von uns exemplarisch in der Schule gelernt. Fehler im Diktat oder Aufsatz wurden mit Rotstift markiert und führten zu Sanktionen, genannt „Verbesserungen“, mit dem Ziel, Fehler zu vermeiden. Unsere Motivation war aber nicht das Verbessern des Systems, sondern das Vermeiden von Sanktionen. Dass Fehler ein völlig normales Nebenprodukt menschlichen Handelns sind, lehrte man uns nicht.
Über Fehler zu reden, insbesondere wenn es sich um die eigenen handelt, ist alles andere als selbstverständlich. Es ist bekannt, dass im Krankenhaus über Schadensereignisse nicht gern berichtet wird. Vincent et al. (1999) identifizierten die Sorge v. a. der jüngeren Kollegen, unfair bezichtigt zu werden, als eine wesentliche Ursache, Fehler nicht offen anzusprechen. Man sorgt sich um allfällige Haftpflichtansprüche oder Disziplinarmaßnahmen, erwartet von seinen Kollegen nicht genug Unterstützung und möchte solche Fälle auch nicht vor größeren Gremien besprechen.
Unsere Erfahrung eines traditionell bestrafenden Umgangs mit Fehlern stellt sicherlich ein wesentliches Hindernis bei der Einführung eines erfolgreichen Risikomanagementsystems dar.

Fehlerkultur, „No-blame-Kultur“

Entscheidender Ansatz einer Fehlerkultur ist, dass man aufhört, immer nach Schuldigen zu suchen. Auch wenn die Beteiligten nicht direkt beschuldigt werden, hat sich der Blick nicht auf sie, sondern auf das Problem zu richten. Unter dem momentanen Eindruck eines Ereignisses heißt aber die Frage noch allzu oft: „Wer war das?“ Richtigerweise müssten die Fragen lauten: „Was hat dazu geführt, dass dieses Ereignis eintreten konnte? Welche Sicherungssysteme haben versagt (falls vorhanden)? Wer kann etwas zur Lösung dieses Problems bzw. zur Verhinderung zukünftiger Ereignisse beitragen?“ Es hat aber überhaupt keinen Zweck, in einem Betrieb eine Ereignisüberwachung aufzubauen, wenn nicht parallel dazu die entsprechende teambasierte Kritikkultur entwickelt wird.
Ein Auftreten von Fehlern wird noch vielfach als menschliches Versagen und damit als Schwäche menschlicher Leistung angesehen. Dieses bis heute in der Medizin geltende Gedankenmodell wird von Reason als „Heile-Welt Hypothese“ bezeichnet (Reason 2003). Diese Hypothese besagt, dass nur schlechten Menschen Fehler passieren und es nur wenige schlechte Charaktere in der Masse der Menschheit gibt. Diese schlechten Menschen sind Fehlerverursacher und tragen die alleinige Schuld. Durch öffentliche Bloßstellung und Sanktionen können sie zum richtigen Verhalten erzogen werden. Jede Wiederholung des Fehlers wird dem schlechten Charakter des Verursachers zugeschrieben.
Hiervon grenzt Sidney Dekker in seiner Diskussion um „Just Culture“ die Systemverantwortung ab (Dekker und Leveson 2015).

Täter oder Opfer?

Fehler haben in der Regel komplexe Ursachen. Fast immer sind sie multifaktoriell und können nicht einem alleinigen Auslöser zugeordnet werden. Namentlich, wenn Systemfehler im Spiel sind, werden die Mitarbeiter, in deren Gegenwart das Ereignis stattfindet, ebenso zu Opfern. Entscheidend ist die Umsetzung dieser Erkenntnis in den täglichen kollegialen Umgang. An Zwischenfällen beteiligte Kollegen benötigen Hilfe, keine Bestrafung. Die Systemfehler sind der (tückische) Teil des Eisbergs unter Wasser.
Reason erklärt das Zustandekommen eines Fehlers mit verschiedenen gelochten Schichten, die sich gegeneinander verschieben (Abb. 3). Die verschiedenen Schichten bezeichnen Faktoren der Fehlerentstehung, namentlich System und Mensch. Im Hintergrund wartet die Gefahr auf eine Gelegenheit („window of opportunity“), ein Ereignis auszulösen.

Kommunikationskultur/Kritikkultur

Kritik abgeben und annehmen, positive wie auch negative, will gelernt sein. Im Medizinstudium wird Kritikkultur kaum gelehrt. Der Umgang mit Fehlern und das Lernen daraus muss in einem Betrieb bewusst vorgelebt und gepflegt werden. Entscheidend ist das Vorbild der Chefs bzw. der leitenden Ärzte, die täglich zeigen müssen, dass gerade sie mit ihren eigenen Fehlern offen und lernend umzugehen verstehen. Sie haben ihren Mitarbeitern zu vermitteln, dass Fehler nicht lediglich seltene und bedauerliche Ausrutscher sind, sondern dass sie häufig und integraler Teil jedes Systems sind, in dem Menschen zusammenarbeiten.
Crew Ressource Managements Trainings werden auch in Krankenhäusern erfolgreich durchgeführt. (Mickan und Rodger 2005). Eine größere Offenheit in der Kommunikation führte zu einer um 6,48 % reduzierten Mortalität in 137 englischen Krankenhäusern (Toffolutti und Stuckler 2019).
Die Einsicht eines Fehlers bzw. Zwischenfalls innerhalb der Verantwortungsträger ist oftmals begrenzt, und besonders Mediziner neigen zur Überschätzung ihrer persönlichen Leistungsfähigkeit: 47–70 % der befragten Ärzte gaben z. B. an, dass ihre Leistung nicht durch Müdigkeit beeinträchtigt werde. Über 60 % der Befragten verneinten Einflüsse privater Probleme bei ihrer Arbeit (Sexton et al. 2000). Auch die Einführung sinnvoller, weithin akzeptierter und von der WHO empfohlener Kontrollmechanismen wie die Surgical Safety Checklist führen nicht aus sich heraus zu einer Veränderung der Sicherheitskultur (Haugen et al. 2013), wenngleich durch gezielte Interventionen Verbesserungen sowohl der Kultur als auch der Patientensicherheit erreicht werden können (Vigorito et al. 2011).

Fehlermonitoring: verschiedene Ansätze

Ein großer Irrtum wäre es, sich beim Fehlermonitoring lediglich auf die Art der Datensammlung zu konzentrieren. Ein erfolgreiches Fehlermanagementprogramm steht auf 4 Säulen:
  • Psychologische Sicherheit->Sicherheitskultur im Sinne einer offenen Fehlerkultur (Edmondson 2019),
  • Sammeln von berichteten Ereignissen,
  • Analyse und ggf. Entwicklung von Präventivmaßnahmen,
  • Umsetzen des Gelernten in Führungsmaßnahmen.

Fehlermonitoring: „Top down versus Bottom up“

Ereignismonitoring kann nie erfolgreich von oben organisiert und durchgesetzt werden. Die uns vorgesetzten Behörden sollen zwar durchaus das Vermeiden von Fehlern und das Steigern der Patientensicherheit zu einem strategischen Betriebsziel erklären. Sie können diesen Willen zudem mit organisatorischen Erleichterungen und durch Zuteilung betrieblicher Mittel unterstützen. Methodisch ausgebildete Qualitäts- bzw. Risikomanager können mit Know how beitragen. Die Verbesserung der Strukturen kann an Führungsebenen delegiert werden, die Einführung der Prozesse, d. h. der eigentliche Aufbau des Systems muss aber von der Betriebsbasis ausgehen, gestaltet und getragen werden.

Wie eine Ereignissammlung aufzubauen ist

In Deutschland sind seit 2014 Fehlermeldesysteme mit der Möglichkeit einer anonymen Meldung gemäß Qualitätsmanagement-Richtlinie verpflichtend. Unter dem erneuten Vorbehalt, dass ein Meldewesen nicht schon per se ein Fehlermanagementsystem ist, hat man beim systematischen Sammeln von gemeldeten Ereignissen gewisse Regeln zu beachten. Dabei spielt es überhaupt keine Rolle, ob mit Papier und Bleistift dokumentiert wird, oder ob man sich eine elektronische Datensammlung anlegt. Die meisten Autoren bezeichnen relativ übereinstimmend die folgenden Elemente einer Ereignissammlung als wesentlich.
Freiwilligkeit
Mitarbeiter können nicht zum Melden von kritischen Ereignissen gezwungen werden. Sie sollen dies freiwillig tun. Mit Weiterbildungen und Rückmeldungen zu aus den Meldungen generierten präventiven Maßnahmen sollen sie zum Melden ermuntert werden. Technische und psychologische Hürden müssen tief gehalten werden. Die freiwillige Meldung muss leicht, ohne großen Aufwand erfolgen können.
Anonymität der Aufzeichnung
Die Registrierung der gesammelten Ereignisse muss anonym sein, das bedeutet, dass die Ereignisse ohne Nennung von Namen von Geschädigten, aber insbesondere von Beteiligten aufgezeichnet werden. Die Ereignisdokumentation ist so zu gestalten, dass von vorneherein irrelevant ist, „wer es war“. Da keine Schuldigen gesucht werden, müssen auch keine Namen aufgezeichnet werden. Ob auch das Meldewesen anonym laufen soll, ist eine Frage, die im Folgenden noch diskutiert wird.
Freies Erzählen des Ereignisses
Wenn Betroffene ein kritisches Ereignis frei berichten können, erfährt man die Abläufe hautnah aus erster Hand, ohne dass der Bericht bereits in das Schema eines Fragebogens gezwängt wäre. Erfassungsformulare sollten deshalb unbedingt Raum für freie Texteingabe enthalten. Besonders die australisch/neuseeländischen Autoren unterstreichen den Wert des freien Erzählens („free narrative“) im Ereignismonitoring [http://www.apsf.net.au]. Nicht zu unterschätzen ist auch der kathartische Effekt, wenn Betroffene sich ein kritisches Ereignis ‚von der Seele‘ reden können.
Systematik einbauen
Eine gewisse minimale Einteilung nach Art des Ereignisses, Ereignisort, involvierten Bereichen, entstandenem Schaden und festgestellten oder vermuteten Ursachen ist zweckmäßig, um Auswertungen zu ermöglichen. Wichtig ist, dass die Systematik die Erfassung multipler Ursachen möglich macht. Der typischerweise multifaktoriellen Ursache eines kritischen Ereignisses muss Rechnung getragen werden.
Beinaheereignisse sammeln
Der Wert von Beinaheereignissen – solchen, bei denen zum Glück nichts passiert ist – kann nicht überbetont werden. Leider sind viele Ereignissammlungen nur auf das Erfassen von Fehlern mit Patientenschaden ausgelegt. Das Ereignis, bei dem „zum Glück nichts passiert ist“, wird fälschlich als banal und nicht beachtenswert betrachtet. Genau das Gegenteil ist aber der Fall: Risikomanagement beruht gerade darauf, Konstellationen zu identifizieren, bei denen zwar bisher nichts geschehen ist, die aber ein Schadenspotenzial enthalten. Es sind Verbesserungen möglich, ohne dass zuerst etwas passieren musste.
„Near miss-Ereignisse“ bieten noch einen zusätzlichen Vorteil: Wir können aus ihnen lernen, welche Sicherheitsfaktoren dann doch den Fehler vermieden haben, welche Dämme nicht gebrochen, welche Zäune nicht niedergerissen, welche Warnsignale eben doch noch beachtet wurden.
Neben dem Eliminieren von Schwächen im System lassen sich auch dessen Stärken identifizieren und proaktiv fördern.
Neben dem Eliminieren von Schwächen im System lassen sich auch dessen Stärken identifizieren und proaktiv fördern. Hollnagel hat mit dem SAFETY II Ansatz einen wichtigen Impuls zum Lernen aus dem erfolgreichen Handeln entwickelt (Hollnagel et al. 2015).
Interpretation des Ereignisses durch die Beteiligten
Unsere Mitarbeiter verfügen über ein riesiges kollektives Wissen zu Abläufen, Fehlerquellen und Risiken. Sie drängen uns aber diese Kenntnisse nicht auf. Wenn wir freilich fähig sind zuzuhören, lernen wir Vieles und oft Unerwartetes über unseren Betrieb. Befragt man Personal über eine eben aufgetauchte Fehlerquelle an einem Gerät, wird man häufig hören, dies „sei bekannt“ oder „mir auch schon passiert“. Der Chef darf sich dann fragen, wieso es ihm bisher nicht gelang, dieses Problemwissen zu realisieren; vermutlich, weil er nicht zugehört hat.
Nie von „Schuldigen“ reden
Ereignismeldesysteme dürfen nicht strafend sein. Sie dürfen nicht mit dem Finger auf Beteiligte zeigen und sollen nicht Sanktionen androhen. Uns allen klingt noch in den Ohren: „Wer das war, meldet sich nachher bei mir im Büro“. Niemand wird über ein Schadensereignis berichten, wenn er riskiert, an den Pranger gestellt zu werden. Die Schulung hat zu vermitteln, dass die an einem Ereignis Beteiligten eher Opfer als Täter sind.
Transparenz
Die Datensammlung, wie auch immer sie organisiert ist, muss für die Teammitglieder einsehbar und kontrollierbar sein. Der Mitarbeiter hat das Recht, zu sehen, in welcher Weise das von ihm mitgeteilte Ereignis in der Dokumentation abgelegt wurde. Er soll überdies nicht nur seine Meldungen, sondern sämtliche Meldungen des Betriebs einsehen dürfen. Transparenz ist eine besonders Vertrauen schaffende Maßnahme. Jeder Mitarbeiter soll schließlich aus der Gesamtheit der Ereignisse lernen können.
Qualitätskreis schließen
Der sog. Qualitätszirkel beschreibt den Grundvorgang jeder Qualitätssicherung (Abb. 4). Leider bestehen viele Ereigniserfassungssysteme nur aus dem Sammeln von Daten, ohne dass die erhobenen Befunde entsprechend analysiert und in Maßnahmen umgewandelt werden. Datensammlungen sind nutzlos, wenn nicht aus ihnen gelernt und das Gelernte in Führungsmaßnahmen umgesetzt wird. Die Mitarbeiter werden sehr rasch mit dem Melden von Ereignissen aufhören, wenn sie keine verbessernden Maßnahmen feststellen und keine strukturierte Rückmeldung („feedback“) erfolgt.
Regelung der Datenhoheit
Daten über Versäumnisse, Missgeschicke und Fehler sind innerhalb des Betriebs in der oben beschriebenen Offenheit und Unvoreingenommenheit zu benutzen, bedürfen aber gegenüber Außenstehenden der Vertraulichkeit. Es muss deshalb schon vor Beginn einer Datensammlung klar sein, wem diese Daten gehören und wie es vermieden wird, dass Krankenhausverwaltung oder staatliche Behörden Zugang zu den Daten erhalten. Dies trifft v. a. auf Gesundheitsbehörden zu, aber auch Strafverfolgungsbehörden könnten versucht sein, Daten zu erhalten. Wenn Daten in ein bereichsübergreifendes nationales oder internationales Netzwerk (CIRS) eingespeist werden sollen, müssen die vernetzten Betriebe den gegenseitigen Umgang mit den vertraulichen Daten vertraglich klar regeln.
Besonders bei Gesundheitsbehörden ist der politische Druck groß, mit derartigen Statistiken zu punkten. Von denselben Stellen kommt regelmäßig die leidige Forderung nach „benchmarking“; dies in der irrigen Meinung, Vergleiche (vielleicht gar öffentliche Vergleiche) zwischen verschiedenen Fehlerstatistiken seien ein geeignetes Instrument der Qualitätssicherung. Allen Beteiligten muss jedoch klar sein, dass die reine Anzahl der Meldungen nicht relevant ist, solange es regelmäßige Meldungen gibt. Die Qualität der Meldungen und die daraus abgeleiteten Maßnahmen sind weniger einfach zu erfassen.
Kritikkultur dauernd entwickeln und fördern
Eine Ereignisdatei perpetuiert sich nicht von selbst. Der dahinterstehende Gedanke eines offenen Umgangs mit Fehlern muss immer wieder vermittelt und geschult werden. Jedes neu eingeführte Ereignismonitoring führt zunächst zu einer großen Meldehäufigkeit. Meist werden die Meldungen bald zum dünnen Rinnsal und fließen erst wieder reichlicher, wenn die Leitung dauernd auf den Wert des Systems hinweist. Auch dann wird die Meldefreude sich in Wellen bewegen. Die Häufigkeit der Meldungen hat übrigens nicht mit der Häufigkeit der Ereignisse selbst zu tun.
Abb. 5a, b zeigt das Beispiel eines Erfassungsbogens für Ereignisse.

Weshalb sollen Beinaheereignisse („Near Miss“) erfasst werden?

Übereinstimmend wird der große Wert der Erfassung von Beinaheereignissen betont.
Vor allem in Hochsicherheitsbereichen, die sich keinen Fehler leisten können, zählen Near-miss-Ereignisse zu den wichtigsten Informationsquellen bei der Identifikation von Systemschwächen.
Near-miss-Ereignisse sind für das Risikomanagement und für die Qualitätsverbesserung von herausragender Bedeutung:
  • Beim Beinaheereignis liegt das Interesse automatisch beim Vorgang, nicht bei den Folgen.
  • Beinaheereignisse sind emotional nicht so befrachtet und lassen sich unverkrampft analysieren.
  • Beinaheereignisse zeigen uns jene Sicherheitselemente, die dafür sorgten, dass dann doch nichts passiert ist.
  • Beinaheereignisse machen den direkten Weg zur Prävention frei – ohne Schadensbehebung.
Es wird deshalb empfohlen, beim Aufbau eines Ereigniserfassungssystems primär schon Near-miss-Fälle zu sammeln. Im Allgemeinen gilt: Je geringer der Schaden eines Vorfalls, desto einfacher sein Nutzen in einem Risikomanagementsystem. Schadensfälle sollten jedoch unbedingt ebenfalls für das organisatorische Lernen genutzt werden. Hierfür bedarf es jedoch den Auftrag und die Unterstützung der Leitung sowie die Methodenkompetenz von Risikomanagern.
Interessanterweise wird der Wert von Beinaheereignissen im medizinischen Bereich nicht uneingeschränkt positiv bewertet: Gerade die JCAHO beschränkt sich in ihrer wegweisenden Taxonomie auf Ereignisse mit Patientenschaden und schließt „any near miss“ aus Ereignissammlungen aus (Chang et al. 2005).

Wie sollen die Ergebnisse kommuniziert werden?

Innerhalb des Betriebs sollen die Datensammlungen transparent und jedermann zugänglich sein. Empfohlen werden aber zudem regelmäßige Sitzungen, bei denen die gesammelten Ereignisse gesichtet und zusammengestellt werden. Ereignismonitoring kann Teil einer umfassenden regelmäßigen Qualitätsbesprechung des Betriebs, aber auch eine selbstständige Aktivität sein.
Morbiditäts- und Mortalitätskonferenzen sind ein etabliertes Instrument zur systematischen Besprechung von Komplikations- und Todesfällen. Leitfäden zur Umsetzung wurden sowohl von der Bundesärztekammer (2016) als auch der Stiftung Patientensicherheit Schweiz (2019) veröffentlicht.
Wie häufig oder wie selten solche Veranstaltungen stattfinden, ist dem Stil der Abteilung zu überlassen. Wichtig ist, dass sie zuverlässig und regelmäßig durchgeführt werden und nachhaltig bleiben. Einfache Bulletins fassen dabei die wesentlichen Beobachtungen und Verbesserungen der Berichtsperiode zusammen. Die Mitarbeiter interessieren sich v. a. dafür, welche Meldungen zu Veränderungen und Maßnahmen geführt haben.
Wichtig ist auch, die Auswertungen an die richtigen Adressaten zu verteilen. Wenn, was sehr häufig ist, ein bereichsübergreifendes Ereignis dokumentiert wird, müssen auch die Nachbarbetriebe mit diesem Wissen bedient werden. Darüber hinaus muss die Stationsleitung sicherstellen, dass die Informationen nicht nur abgegeben wurden, sondern auch angekommen sind und betrieblich umgesetzt werden. Wenn aber der Kreis sich nicht schließt, wenn damit nicht aktives Risikomanagement betrieben wird, ist Ereignismonitoring nutzlos, und das Desinteresse der Mitarbeiter wird die logische Folge sein.

Eingabe anonym oder offen?

Wenn oben ausgeführt wurde, dass die gesammelten Ereignisse anonym, ohne die Namen der Beteiligten, dokumentiert werden sollen, ist damit noch nichts über die Art des Meldevorgangs gesagt. Auch Letzterer kann anonym oder offen sein. Anonyme Meldesysteme sind beispielsweise aus der Fliegerei bekannt, aber auch in vernetzten Ereignissammlungssystemen der Medizin (z. B. Critical Incident Reporting System; CIRS; http://www.anaesthesie.ch/cirs/) oder PaSOS (Patienten-Sicherheits-Optimierungssystem, http://www.pasos-ains.de/) erfolgen die Meldungen anonym, z. B. durch Briefkästen im Stationsbereich oder durch Web-basierte, Passwort-geschützte Eingabesysteme.
Gerade für Einrichtungen ohne eine entsprechende Betriebskultur, d. h. Intensivstationen, die neu ein Ereignismonitoring einführen wollen, ist die Anonymität zunächst von besonderer Bedeutung. Sind aber Fehlerkultur und Meldesystem in einer Abteilung bereits entwickelt, verblasst das Thema Anonymität rasch. Mit gutem Grund: In einem positiven lernfähigen System müssen keine Sanktionen befürchtet werden, wenn unerwünschte Ereignisse kommuniziert werden. Eine Studie über die Meldepraxis in einer Intensivstation ergab, dass nur 6,5 % der Ereignismeldungen anonym eintrafen (Osmon et al. 2004). Anonyme Meldesysteme haben zudem den Nachteil, dass sie für Denunziationen und persönliche Abrechnungen missbraucht werden können.

Andere Erfassungstechniken: „Medical Chart Review“

Nun ist die Ereignissammlung mit spontanen Meldesystemen durchaus nicht die einzige etablierte Erfassungsmethode. Im Gegenteil, gerade die ersten bahnbrechenden Berichte über Fehler im Krankenhaus wurden mit der Technik des „medical chart review“ erarbeitet. Aus der retrospektiven Durchsicht tausender Krankenakten ergaben sich Hinweise über Häufigkeit, Art der Fehler und Ursachenmuster (Leape et al. 1991). Im Vordergrund standen bei diesen Untersuchungen Medikationsfehler. Diese Art der Fehler (falsches Medikament, falsche Dosis, falsche Applikation, falscher Zeitpunkt etc.) tauchen in allen Studien als die häufigsten unerwünschten Ereignisse auf. Zum einen, weil Medikamente häufig verabreicht werden und die Bereitstellung von Medikamenten viele fehleranfällige Schritte umfasst (Anordnung, Bereitstellung, Kontrolle, Verabreichung), und zum anderen, weil Fehler dieser Art in den Krankenakten wohl leichter zu erfassen sind als andere Fehler. Prozessfehler sind hingegen im Rahmen einer retrospektiven Durchsicht einer Krankenakte schwer zu identifizieren.
In einem prospektiven Vergleich zwischen den Erfassungstechniken der freiwilligen Ereignismeldung und des „medical chart review“ auf Intensivstationen wurden mit dem freiwilligen Meldesystem mehr und wesentlichere Ereignisse erfasst als beim Durchsuchen der Krankenakte. Die freiwillig gemeldeten Ereignisse enthielten zudem mehr Informationen über die Umstände und Ursachen und boten somit mehr Ansatzmöglichkeiten zur künftigen Prävention (Beckmann et al. 2003).

Netzwerke: CIRS, APSF (Australien, Neuseeland)

Vielerorts werden landesweite oder gar internationale Netzwerke zum Ereignismonitoring empfohlen. Deren Ausgestaltung ist frei wählbar, wobei zunehmend Internet-basierte Systeme zur Datenerfassung genutzt werden. In der Schweiz haben Basler Anästhesisten vor vielen Jahren schon ein sog. CIRS („critical incident reporting system“) eingerichtet (http://www.anaesthesie.ch/cirs/). Der Benutzer kann anonym Ereignisse in strukturierter Form melden und hat auch Zugang zu den gesammelten Ereignisberichten. Ein Vorteil gerade für den Fachbereich Anästhesie liegt darin, dass auch eher seltene Ereignisse einer breiteren Gruppe zur Kenntnis gebracht werden und beispielsweise durch die Fachgesellschaften in Form von Empfehlungen und Standards bekannt gegeben werden können. Nachteile eines CIRS sind die unkontrollierte Eingabe und die Entkopplung vom lokalen Risikomanagement der meldenden Einrichtung.
Mit einem zentralen CIRS allein ist die Verbesserung lokaler Prozesse, und damit letztlich die Prävention gleicher oder ähnlicher Ereignisse, nicht möglich. Auch das Fehlen kontextrelevanter Informationen und der Verzicht auf „near miss“ schränken den praktischen Nutzen solche Systeme für die Verbesserung der eigenen Einheit erheblich ein.
Ein vorbildliches Netzwerk wird in Australien und Neuseeland betrieben, die Australian Patient Safety Foundation (APSF [http://www.apsf.net.au]). Teil des Angebots ist das „advanced incident management system“ (AIMS), das die langjährigen, dortigen Erfahrungen demjenigen zugänglich macht, der ein Ereignismonitoring aufbauen will. In Deutschland wird die Teilnahme an einem übergeordneten CIRS-System finanziell unterstützt. Die Bundesärztekammer, die Deutsche Krankenhausgesellschaft e. V. und der Deutsche Pflegerat e. V. sind z. B. Träger des KH-CIRS-Netz 2.0 Deutschland (https://www.kh-cirs.de). Diese bieten sich über übergeordnete Themen an.

Risikomanagement und Fehlerkultur in anderen Bereichen

Beispiel Luftfahrt

Der am häufigsten im Zusammenhang mit Sicherheit genannte nicht medizinische Bereich ist die zivile Luftfahrt. Im Gegensatz zur Medizin werden dort seit Jahrzehnten größte Anstrengungen für die Flugsicherheit unternommen. Viele Konzepte wie die kontinuierliche Suche nach Schwachstellen, das anonyme „incident reporting“ und die Bedeutung des gut kommunizierenden Teams („crew resource management“) wurden in der Luftfahrt entwickelt. Dort hat sich über Jahre auch eine sehr solide Sicherheitskultur etabliert, die sich in einer kritischen Selbsteinschätzung und in einem hoch entwickelten Sicherheitsbewusstsein der Mitarbeiter widerspiegelt (Sexton et al. 2000).
In einem provokanten Editorial gibt Berwick, basierend auf den realen Zahlen eines New Yorker Krankenhauses (Leape et al. 1991), die entsprechende Cockpitdurchsage eines Flugkapitäns an seine Passagiere wieder (Berwick und Leape 1999):
Ladies and gentlemen, welcome aboard flight number 743, this is your captain speaking. You have a 97 % chance of reaching your destination without being significantly injured. Our chances of making a serious error during the flight is only 6,7 %.
Und es folgt die rhetorische Frage:
Would you fly this airline again?
Unter 30.195 nach Zufall ausgesuchten Krankengeschichten fanden die Autoren 1133 Patienten (3,7 %), welche aufgrund der Behandlung schwere Schädigungen erlitten hatten. In 58 % dieser Fälle wurden Behandlungsfehler festgestellt, die Hälfte davon war auf Nachlässigkeit zurückzuführen. Eine wesentliche Rolle spielten Medikationsfehler (Leape et al. 1991).
Natürlich haben Vergleiche zwischen Luftfahrt und Akutmedizin gewisse Grenzen. So sind beispielsweise die kritischen Prozesse eines Fluges recht stereotyp, und im Cockpit gilt bei jeglicher Tätigkeit das 4-Augen-Prinzip, während beim Umgang mit Schwerkranken eine größere Variabilität besteht und nur selten die Gelegenheit für redundantes Vorgehen gegeben ist. Dies entbindet uns aber keineswegs, die hervorragenden Entwicklungen in der Flugsicherheit für unser Fachgebiet weiterzuentwickeln und die daraus gewonnenen Erkenntnisse entsprechend anzuwenden. In diesem Sinne haben Eisen und Savel (2009) die operationellen Abläufe einer spektakulären (und erfolgreichen) Notwasserung eines Flugzeugs vom Typ Airbus auf dem Hudson-River in New York zum Anlass genommen, Vorgehensweise und Kommunikation einer kardiopulmonalen Reanimation auf einer Intensivstation der Arbeit im Cockpit während eines Notfalls gegenüberzustellen. Augenfällig ist die klare Übernahme des Führungsauftrags mit entsprechender Rollenverteilung, die verbindliche und redundante Kommunikation sowie die Akzeptanz des Feedbacks.

„Risk Assessment“, Risikomanagement

Klinisches Risikomanagement stellt eine Methode dar, kontinuierlich und in systematischer Form Fehler oder Risiken zu erkennen, zu analysieren, zu verhindern oder ihre Folgen zu begrenzen und die ergriffenen Maßnahmen hinsichtlich ihrer Wirksamkeit zu bewerten.
Kennzahlen wie z. B. die Wiederaufnahmerate oder die Re-Intubation können als Frühindikatoren auf Risiken hinweisen.
Für Risikoanalysen sind die Beinaheereignisse und jene mit geringem Schaden von besonderer Bedeutung. Es geht schließlich darum, Risiken zu eliminieren und Fehler mit Schaden zu vermeiden. Allgemein lässt sich sagen: Je geringer die Folgen des Ereignisses, desto geeigneter ist es für das Risikomanagement. Je schwerer die Folgen hingegen, desto weniger brauchbar ist ein Ereignis, weil die Notwendigkeit der Schadensbehebung den Präventionsgedanken in den Hintergrund rückt und Emotionen eine größere Rolle einnehmen.

Analysen: Fehlermonitoring zum Aufdecken von Ursachen und Angehen von Verbesserungen nutzen

Konsequentes Ereignismonitoring erlaubt einer Intensivstation, aus Fehlern und v. a. aus den Beinaheereignissen kontinuierlich zu lernen und die eigenen Schwächen, aber auch Stärken zu erkennen. Werden die Daten systematisch ausgewertet, erlaubt die Analyse von Ursachen und Verbesserungsmöglichkeiten die Weiterentwicklung der eigenen Prozesse. Dieser Möglichkeit kommt eine viel größere Bedeutung zu als der Zusammenstellung der Schäden an sich. Ereignismonitoring unterscheidet z. B. zwischen individuellen, menschlichen Fehlleistungen und Systemfehlern, wobei wir meist mit fehlerhaften Prozessen konfrontiert sind. Um diese zu verbessern, müssen Prozessanalysen durchgeführt werden. Dafür bieten sich 2 Methoden an:
  • Process control charts: Bei dieser Technik werden quantifizierbare Prozesse konsekutiv dargestellt (z. B. „door-to-balloon time“ bei der perkutanen Koronarintervention) und mit einem angestrebten Soll-Wert verglichen. Die Kurve zeigt, ob die Leistung im Durchschnitt erreicht wird und inwieweit die Leistung streut. Auch ob eine Leistung sich nach und nach verändert, lässt sich ablesen. Der Leiter der Station kann dann gezielte Verbesserungen anstreben.
  • Prozessanalyse mit Cause- effect- Diagramm („fishbone diagram“): Hier werden unerwünschte Wirkung und erkannte Ursachen in Form von Fischgräten dargestellt, wobei das unerwünschte Problem als Kopf und die verschiedenen Ursachen als Gräten dargestellt werden. Die Hauptursachen (Hauptgräten) sind meist: Material, Menschen, Regeln, Technologie. „Nebengräten“ helfen, die Analyse zu verfeinern. Diese Technik macht rasch sichtbar, wo die verschiedenen Ursachen des fehlerhaften Prozesses zu suchen sind.
Sind die Ursachen eines fehlerhaften Ereignisses identifiziert, müssen gezielte Führungsmaßnahmen zur Prävention erneuter Ereignisse eingeleitet werden. Dabei unterscheiden sich die Maßnahmen für menschliche Fehler und für Systemfehler.
Abhängig von der Fehlerart sind die Maßnahmen abzuleiten. Trainings und Schulung sind bei regel- und wissensbasierten Fehlern anzuwenden. Absichtlichen Regelverstößen muss jedoch mit entsprechenden Maßnahmen der Führung und ggf. auch Sanktionen begegnet werden. Aufmerksamkeitsbedingte Fehler benötigen andere Maßnahmen, z. B. durch veränderte Abläufe oder ein 4-Augen-Prinzip.
Systemfehler können entweder recht leicht zu lösen oder aber sehr tückisch sein. Ist das Problem an der Oberfläche lokalisiert und betrifft es Prozesse, so lassen sich rasch Gegenmaßnahmen ergreifen. So kann beispielsweise eine fehlerhafte Serie von Infusionssystemen augenblicklich aus dem Verkehr genommen werden. Andere, tiefer im System verankerte Fehler, die die Strukturen der Einrichtung betreffen, sind mitunter nur sehr schwierig zu lösen. So stellen beispielsweise ungenügende Stellenpläne oder veraltete Betriebsstrukturen durchaus Sicherheitsrisiken dar, können aber aufgrund fehlender Mittelzuweisung nicht einfach verändert werden.
Deshalb ist Flexibilität eine der Grundvoraussetzungen (und größten Herausforderungen) für ein erfolgreiches Riskomanagementsystem: Es muss ebenso für rasche Reaktion einsatzbereit sein (sofortige Elimination fehlerhafter Infusionssysteme) wie auch für langfristige Umgestaltungen (z. B. wenn ein unzureichender Stellenschlüssel kontinuierlich die Patientensicherheit gefährdet).

Auswirkung und Nutzen von Ereignismonitoring

Prävention

Die idealen kritischen Ereignisse sind jene, die sich gar nicht ereignen. Wird Ereignismonitoring in Führungsmaßnahmen umgesetzt, verringert es die Schäden kritischer Ereignisse oder vermeidet diese ganz. Der wirkliche Nutzen des Risikomanagements lässt sich deshalb kaum quantifizieren. Nur bei sehr genauer Datensammlung kann die Zu- oder Abnahme bestimmter Ereignisse gemessen werden. In einer multizentrischen Untersuchung zu Fehlern im Zusammenhang mit Medikamenten traten auf Intensivstationen mit etabliertem Ereignismonitoring signifikant weniger Medikationsfehler auf (Valentin et al. 2009). Die Datensammlungen stellen allerdings nie die Gesamtheit der Ereignisse dar, sondern nur die Spitze des Eisbergs.

Fehler und Kosten, Aufwand des Fehlermonitorings und Nutzen

Oft scheut sich ein Stationsleiter, ein Ereignismonitoring einzuführen, weil ihn der Aufwand abschreckt und die Ressourcen zu fehlen scheinen. Qualitätssicherung wird generell als Luxus angesehen, den man sich ohne die nötigen Mittel nicht leisten kann.
Die umgekehrte Optik ist richtig: Es ist ein sträflicher Luxus, sich nicht mit Patientensicherheit zu befassen. Der Aufwand, Schadensereignisse zu vermeiden, ist um Vieles geringer als derjenige, der nötig ist, um schwere Schäden zu beheben. Korrekturkosten, materiell und emotional, sind immer viel höher als Kosten für die Vorbeugung.

Fehlerbewirtschaftung als integraler Bestandteil der Betriebs- und Führungskultur

Fehlermonitoring, Prozessanalysen und Risikomanagement sind Kernaufgaben des Leiters einer Intensivstation. Viel zu oft lassen wir uns blenden von immer neueren und spannenderen Therapieformen. Wir vergessen dabei, dass wir im Krankenhaus viel mehr Leben retten und Schäden verhindern könnten, wenn wir schon nur die richtigen Dinge zur richtigen Zeit auch richtig tun würden. Bei fehlerloser Anwendung aller gesicherten Methoden von Diagnose, Therapie und Prävention könnten unsere Kliniken einen Qualitätssprung nach vorn machen, der die Suche nach immer neuen Therapien geradezu nebensächlich erscheinen lassen würde.

Schwerste Ereignisse, Rechtswelt

Grenzen des Ereignismonitorings bei schwersten Ereignissen

Gerade die schwersten Ereignisse (schwerer Schaden oder Tod eines Patienten) benötigen aus der Sicht des Qualitäts- bzw. Risikomanagements eine Unterstützung – in Bezug auf die Analyse, die Kommunikation mit Patienten und Angehörigen und last, but not least für die betroffenen Mitarbeitenden, die im Sinne eines Second Victim ebenfalls betroffen sind. Die Agency for Healthcare Research and Quality hat hierfür ein strukturiertes Programm – Communication and Optimal Resolution (CANDOR 2018) entwickelt.
Schwerste Ereignisse sind aber in anderer Weise für die Qualitätssicherung nutzbar. Sie können im betreffenden Betrieb den nötigen Druck erzeugen, sich mit explizitem Fehler- und Risikomanagement zu befassen. Mitarbeiter sind nach solchen Situationen jeweils offen dafür, dass „jetzt etwas geschehen muss“, und dass „es so nicht weitergehen kann“. Häufig wird dann ein allseits belastendes Ereignis zum Ausgangspunkt eines formalen Ereignismonitorings. Hier braucht es eine Priorisierung und eine Beachtung der Schnittstellen in Bezug auf den Informationsfluss und bestehenden Abstimmungsbedarf. Die Intensivmedizin als Schnittstellenfach muss hier in die Abstimmung mit den Kliniken und darf nicht als solitäre Insel im System dargestellt werden.

Verschiedenartige Behandlung von Fehlern in der Rechtswelt und in der Qualitätswelt

Die Rechtswelt ist jenes Fach, das sich seit Menschengedenken mit schweren Schäden befasst hat. Ziel war immer im weiteren Sinn, die Gemeinschaft vor Schäden an Leib und Leben zu schützen und dafür untersuchend und nötigenfalls strafend einzugreifen (Tab. 5).
Tab. 5
Fehler in der Rechtswelt und im Qualitätsmanagement
Rechtswelt
Qualitätsmanagement
Frage nach Schaden
Frage nach Ursachen
Ereignis ohne Schaden interessiert rechtlich nicht
Beinaheereignis („near miss“) interessiert sehr
Suche nach Schuldigen
Kein Interesse an Schuldigen
Verfügen von Sanktionen, Strafen
Suche nach Lösungen, nicht punitives System
Entschädigung der Opfer
Alle gelten als Opfer
Je schwerer der Schaden, desto wichtiger
Je schwerer der Schaden, desto hinderlicher

Vorgehen bei schweren Schäden (schwere Körperverletzung oder Tod)

Wie oben erwähnt, entziehen sich die schwersten Formen unerwünschter Ereignisse der Qualitätssicherung im engeren Sinn. Je schwerer ein Schaden ist, desto größer ist das Interesse der Öffentlichkeit, und zwar in zweifacher Hinsicht: Die Rechtspflege kennt Meldepflichten bei Verdacht auf Offizialdelikte, und die Informationsgesellschaft erwartet, dass schwere Ereignisse kommuniziert werden. Die beiden Anliegen können in Konflikt stehen („keine Auskunft bei laufendem Verfahren“ wird durch die Medien als Geheimnistuerei kommentiert).
Vorgesetzte, in deren Bereich ein Schwerstereignis passiert, haben deshalb mit den Rechtsorganen und mit den Medien richtig umzugehen. Dies kann nicht improvisiert werden, sondern muss vorbereitet sein. Wichtig ist, das Ereignis nicht in einer defensiven, vertuschenden Art zu behandeln, sondern sich sofort als engagierter, offener und an der Sicherheit der Patienten interessierter Betrieb darzustellen. Es ist nicht schwer, aufzuzeigen, dass im Krankenhaus Menschen arbeiten, die den anvertrauten Kranken helfen und nicht schaden wollen.
Dazu gehören folgende Punkte:
1.
Schweres Ereignis überhaupt erkennen:
  • Viele schwere Ereignisse sind sofort als solche erkennbar.
  • Aber es gibt auch Ereignisse, die nicht offensichtlich sind.
  • Immer bereit sein, an einen Zwischenfall zu denken.
  • Die unerwartete Wende eines Falls muss Verdacht wecken.
  • Normalverlauf gut kennen.
  • Ereignis durch andere Mitarbeiter bestätigen lassen.
 
2.
Krisenteam ad hoc formieren:
  • Alle unmittelbar Beteiligten gehören zum Krisenteam.
  • Leitung durch den momentan Ranghöchsten.
  • Der Ad-hoc-Teamleiter teilt dies den anderen klar mit („Ich leite diese Krisensituation“).
  • Der Teamleiter hat volle Kompetenzen quer durch alle betrieblich-territorialen Grenzen.
  • Er hat zunächst das Informationsmonopol und bindet unmittelbar die Krankenhausleitung, das Risikomanagement und die Öffentlichkeitsarbeit ein.
 
3.
„Safety first“, Folgeereignisse vermeiden:
  • Sorge tragen, dass Patienten und Mitarbeitende sicher sind.
  • Sicherheit des Personals gewährleisten.
  • Hilfe holen.
  • Geschädigte lückenlos begleiten.
  • Schadensquellen erkennen und eliminieren (Medikamente, Nahrungsmittel, Stromquelle etc.).
  • Weitere Opfer verhindern.
 
4.
Ereignisort sichern, Sachverhalte sicherstellen:
  • Außer Personen, die in Sicherheit gebracht werden, und Schadensquellen, die zu entfernen sind, muss alles unverändert belassen werden.
  • Nicht beginnen, „das Durcheinander aufzuräumen“.
  • Asservieren und Markieren von Infusionen, Spritzen, Körperflüssigkeiten etc.
  • Keine Versuche unternehmen, das Ereignis zu kaschieren.
  • Unverzüglich professionelle Untersucher einschalten (Rechtsmediziner, Untersuchungsbehörden), vollständig kooperieren.
  • Alle Beteiligten möglichst rasch und allein ihre eigenen Beobachtungen und deren zeitlichen Ablauf niederschreiben lassen.
  • Betroffene Räume für weitere Verwendung sperren.
 
5.
Kommunizieren, dokumentieren:
  • Den Patienten (falls er lebt und bei Bewusstsein ist) gründlich und wahrheitsgemäß darüber informieren, dass er Opfer eines Ereignisses wurde (Teamleiter).
  • Angehörige klar und umfänglich über das Ereignis informieren (Teamleiter und möglichst alle Beteiligten), Zeugen am Gespräch teilnehmen lassen.
  • Gespräche müssen formellen Charakter haben.
  • Offen erklären, dass Fehler passiert sind.
  • Zusichern, dass das Ereignis gründlich untersucht wird.
  • Keine Selbstbezichtigungen oder Schuldzuweisungen an andere.
  • Gespräche und gesamtes Krisenmanagement protokollieren.
  • Unverzüglich Klinikleitung informieren.
  • Klarlegen, wer für die weitere Kommunikation zuständig ist.
  • Vorbereitetes Kommunikationskonzept umsetzen.
  • Schriftliche Mitteilung bereithalten, wenn Medien involviert werden.
  • Weitere Gesprächstermine mit Patienten bzw. Familie festlegen.
  • Unbürokratische Hilfe anbieten, psychologische Hilfe anbieten.
  • Immer für Angehörige verfügbar sein.
  • Beteiligte äußern sich nur noch auf Anfrage.
 
6.
Debriefing, Unterstützung der nicht Geschädigten:
  • Alle beteiligten Mitarbeiter werden psychisch leiden und meist Schuldgefühle empfinden.
  • Aussprachen unter den Beteiligten genügen oft (Kollegenhilfe, „Peer Support“).
  • Einige Mitarbeiter werden professionelles Debriefing brauchen.
  • Schwelle tief halten, wenn Hilfe beansprucht werden soll.
  • Liste von Spezialisten führen, die das Debriefing posttraumatischer Stressstörungen beherrschen.
  • Den beteiligten Mitarbeitern Rechtshilfe zusichern.
 
7.
Künftige Ereignisse ausschließen:
  • Versuchen, aus dem Ereignis später zu lernen.
  • Mit Unterstützung des Risikomanagements eine Fallanalyse z. B. anhand der Methodik des London-Protokolls (Taylor-Adams und Vincent 2007) durchführen.
  • Nach versteckten Systemursachen („root causes“) suchen.
  • Nicht voreilig Abläufe und Verfahren ändern, da dies als Eingeständnis von Schuld missverstanden werden kann.
  • Den Kreis des Qualitätszirkels schließen: Ereignis für Verbesserungen nutzen.
  • Schafft das Ereignis eine Gelegenheit, im betroffenen Betriebsbereich eine Qualitätssicherung aufzubauen?
 
8.
Zurück zur Normalität, Spätkontrollen:
  • Ereignis durch Bericht an die vorgesetzte Klinikbehörde formal abschließen.
  • Den Bericht mit den Beteiligten besprechen.
  • Beginn des erneuten Normalbetriebs explizit bekannt machen.
  • Allfällige neue Richtlinien und Weisungen publik machen.
  • Weiter Kontakt zum Patienten und dessen Familie aufrechterhalten, Abschlussgespräch anbieten.
  • Fachliche Entwicklungen im betreffenden Gebiet aufmerksam verfolgen.
  • Erfahrungen und Gelerntes für andere verfügbar machen („lessons learned“).
 

Fazit

Erfolgreiches Risikomanagement und eine positive Sicherheitskultur führen zu einer gelebten Fehlerkultur. Die geschilderten Konzepte sind hochwirksam, wenn Patientenleben geschützt oder Patientenschäden verhindert werden sollen. Tatsächlich könnten in der klinischen Medizin viel mehr Leben gerettet werden, wenn schon nur die gut belegten Regeln sicher angewendet würden (Singer und Glynne 2005).
Literatur
Alvarez GA, Cavanagh P (2004) The capacity of visual short-term memory is set by visual information load and by number of objects. Psychol Sci 15:106–111CrossRef
Barach P, Small SD (2000) Reporting and preventing medical mishaps: lessons from non-medical near miss reporting systems. BMJ 320:759–763CrossRef
Bates DW, Spell N, Cullen DJ, Burdick E, Laird N, Petersen LA et al (1997) The costs of adverse drug events in hospitalized patients. Adverse Drug Events Prevention Study Group. JAMA 277(4):307–311CrossRef
Bates DW, Miller EB, Cullen DJ, Burdick L, Williams L, Laird N (1999) Patient risk factors for adverse drug events in hospitalized patients. ADE Prevention Study Group. Arch Intern Med 159(BerE):2553–2560CrossRef
Beckmann U, Bohringer C, Carless R, Gillies DM, Runciman WB, Wu AW et al (2003) Quality improvement in intensive care – evaluation of two methods: „facilitated“ incident monitoring and retrospective medical chart review. Crit Care Med 31:1006–1011CrossRef
Berwick DM, Leape LL (1999) Reducing errors in medicine. Qual Health Care 8(3):145–146CrossRef
Chang A, Schyve PM, Croteau RJ, O’Leary DS, Loeb JM (2005) The JCAHO patient safety event taxonomy: a standardized terminology and classification schema for near misses and adverse events. Int J Qual Health Care 17:95–105
Communication and Optimal Resolution (CANDOR) (2018) Content last reviewed April 2018. Agency for Healthcare Research and Quality, Rockville
Dekker SWA, Leveson NG (2015) The systems approach to medicine: controversy and misconceptions. BMJ Qual Saf 24:7–9CrossRef
Donchin Y, Gopher D, Olin M, Badihi Y, Biesky M, Sprung CL et al (1995) A look into the nature and causes of human errors in the intensive care unit. Crit Care Med 23(2):294–300CrossRef
Edmondson AC (2019) The fearless organization: creating psychological safety in the workplace for learning, innovation, and growth. Wiley Hoboken
Eisen LA, Savel RH (2009) What went right: lessons for the intensivist from the crew of US Airways Flight 1549. Chest 136(3):910–917CrossRef
Flanagan JC (1954) The critical incident technique. Psychol Bull 51:327–359CrossRef
Haugen AS, Søfteland E, Eide GE, Sevdalis N, Vincent CA, Nortvedt MW, Harthug S (2013) Impact of the World Health Organization’s Surgical Safety Checklist on safety culture in the operating theatre: a controlled intervention study. Br J Anaesth 110(5):807–815. (Epub 12 Feb 2013)CrossRef
Hollnagel E, Wears RL, Braithwaite J (2015) From safety-I to safety-II: a white paper. The Resilient Health Care Net: Published simultaneously by the University of Southern Denmark, University of Florida, USA, and Macquarie University, Australia
Kohn LT, Corrigan JM, Donaldson MS (1999) To err is human: building a safer health system. National Academy Press, Washington, DC
Leape LL (1994) Error in medicine. JAMA 272(23):1851–1857CrossRef
Leape LL, Brennan TA, Laird N, Lawthers AG, Localio AR, Barnes BA et al (1991) The nature of adverse events in hospitalized patients. Results of the Harvard Medical Practice Study II. N Engl J Med 324(6):377–384CrossRef
Makary MA, Daniel M (2016) Medical error – the third leading cause of death in the US. BMJ 353:i2139CrossRef
Mickan SM, Rodger SA (2005) Effective health care teams: a model of six characteristics developed from shared perceptions. J Interprof Care 19(4):358–370
Osmon S, Harris CB, Dunagan C, Prentice D, Fraser VJ, Kollef MH (2004) Reporting of medical errors: an intensive care unit experience. Crit Care Med 32(3):727–732CrossRef
Panagioti M et al (2019) Prevalence, severity, and nature of preventable patient harm across medical care settings: systematic review and meta-analysis. MJ 366:l4185
Reason J (2000) Human error: models and management. BMJ 320:768–770CrossRef
Reason J (2003) Human error. Cambridge University Press, Cambridge
Runciman W, Hibbert P, Thomson R, van der Schaaf T, Sherman H, Lewalle P (2009) Towards an international classification for patient safety: key concepts and preferred terms. Int J Qual Health Care 21(1):18–26CrossRef
Schrappe M, APS-Weißbuch Patientensicherheit (2018) MVW Medizinisch Wissenschaftliche Verlagsgesellschaft, mbH & Co. KG Berlin. ISBN 978-3-95466-410-8
Sexton JB, Thomas EJ, Helmreich RL (2000) Error, stress and teamwork in medicine and aviation: cross-sectional surveys. BMJ 320:745–749CrossRef
Sherman H, Castro G, Fletcher M, Hatlie M, Hibbert P, Jakob R, Koss R, Lewalle P, Loeb J, Pernenger T, Runciman W, Thomson R, van der Schaaf T, Virtanen M (2009) Towards an international classification for patient safety: a conceptual framework. Int J Qual Health Care 21(1):2–8CrossRef
Singer M, Glynne P (2005) Treating critical illness: the importance of first doing no harm. PLoS Med 2(6):e167. (Epub 2005 Jun 28)CrossRef
Slawomirski L, Auraaen A, Klazinga N (2017) The economics of patient safety: strengthening a value-based approach to reducing patient harm at national level. OECD Health working papers no 96. OECD Publishing, Paris
St. Pierre M, Hofinger G (2020) Human Factors und Patientensicherheit in der Akutmedizin, 4. Aufl. Springer, Heidelberg
Taylor-Adams S, Vincent C (2007) Systemanalyse klinischer Zwischenfälle. Stiftung für Patientensicherheit, Zürich
Toffolutti V, Stuckler D (2019) A culture of openness is associated with lower mortality rates among 137 English National Health Service Acute Trusts. Health Aff (Millwood) 38(5):844–850. https://​doi.​org/​10.​1377/​hlthaff.​2018.​05303. PMID: 31059370CrossRef
Tully AP, Hammond DA, Li C, Jarrell AS, Kruer RM (2019) Evaluation of medication errors at the transition of care from an ICU to non-ICU location. Crit Care Med 47(4):543–549. https://​doi.​org/​10.​1097/​CCM.​0000000000003633​. PMID: 30855330CrossRef
Valentin A, Capuzzo M, Guidet B, Moreno RP, Dolanski L, Bauer P et al (2006) Patient safety in intensive care: results from the multinational Sentinel Events Evaluation study. Intensive Care Med 32:1592–1598CrossRef
Valentin A, Capuzzo M, Guidet B, Moreno R, Metnitz B, Bauer P et al (2009) Errors in administration of parenteral drugs in intensive care units: multinational prospective study. Br Med J 338:b814CrossRef
Vigorito MC, McNicoll L, Adams L, Sexton B (2011) Improving safety culture results in Rhode Island ICUs: lessons learned from the development of action-oriented plans. Jt Comm J Qual Patient Saf 37(11):509–514
Vincent C, Stanhope N, Crowley-Murphy M (1999) Reasons for not reporting adverse incidents. J Eval Clin Pract 5:13–21CrossRef
Walsh T, Beatty PCW (2002) Human factors error and patient monitoring. Physiol Meas 23:R111–R132CrossRef
Weingart SN, Wilson RM, Gibberd RW, Harrison B (2000) Epidemiology of medical error. BMJ 320(7237):774–777CrossRef
WHO (2021) Global patient safety action plan 2021–2030
Wilson RM, Runciman WB, Gibberd RW, Harrison BT, Newby L, Hamilton JD (1995) The quality in Australian Health Care Study. Med J Aust V3(9):458–471CrossRef