medianet ÖAZ Philips QUALITAS ÖKZ MedAustron

Datum: Freitag, 20. Juli 2018

Artikel: Schaffler Verlag, Qualitas: 01/18/ Manfred Zottel, MSc.

Bildinhalt: Symbolbild

Bildrechte: CGM / Walter Zifferer

Dieser Artikel wurde 137 mal gelesen.

Der Safety-II-Ansatz:
Patientensicherheit neu gedacht

In der Theorie gibt es keinen Unterschied zwischen Theorie und Praxis – in der Praxis hingegen gibt es einen großen Unterschied.1

Zunächst die gute Nachricht: Patientensicherheit ist im österreichischen Gesundheitswesen kein Orchideenthema mehr. Keine ernstzunehmende Organisation kann und will es sich mehr leisten, sich nicht mit der Sicherheit von Patientinnen und Patienten bzw. Bewohnerinnen und Bewohnern auseinanderzusetzen. Die Österreichische Plattform Patientensicherheit feiert dieses Jahr ihr 10-jähriges Bestandsjubiläum. Die Mehrheit der Gesundheitseinrichtungen hat eine oder mehrere Personen mit Aufgaben wie Risikomanagement oder Patientensicherheit beauftragt und mit – wenn auch teilweise mitleiderregenden – Zeitressourcen versehen. Ein „Team Time Out“ vor Eingriffen ist zumeist eine Selbstverständlichkeit. Patientensicherheit als relevante Managementaufgabe ist in der Organisationswirklichkeit angekommen.

Die weniger gute Nachricht: Spricht man mit diesen Beauftragten, so sind in steigendem Ausmaß Gefühle von Unzufriedenheit bis hin zur Ratlosigkeit spürbar: Sind wir nach 10 Jahren Risikomanagement wirklich sicherer?

Der Aufbau eines Risikomanagement-Systems ist eine mühsame und (zeit)ressourcenverschlingende Herausforderung. Sollten Sie es wirklich geschafft haben, alle relevanten Prozesse zu beschreiben, alle Risiken zu identifizieren und einer angemessenen Analyse zu unterziehen, alle sinnvollen risikominimierenden Maßnahmen abzuleiten, diese umzusetzen und zu evaluieren – dann haben Sie wahrlich Großartiges geleistet! Sie haben aber vermutlich bemerkt, dass sich diese Art der Analyse in manchen Bereichen gut einsetzen lässt, anderen jedoch nicht wirklich gerecht wird.

Herausforderung Komplexität

In jeder Organisation gibt es Bereiche mit höherer und mit weniger hoher Komplexität. In einem Krankenhaus sind hier typische Beispiele das Labor (relativ wenig komplex) und die Notaufnahme (relativ hoch komplex). Komplex bedeutet in diesem Zusammenhang, dass die Abläufe im Labor klar und im Wesentlichen vorhersehbar sind, in der Notaufnahme hingegen wissen Sie nicht, was auf Sie zukommen wird.

Das gängige Vorgehen bei Analysen – sowohl bei Risiken als auch bei tatsächlichen Zwischenfällen – orientiert sich seit Jahren im Wesentlichen an zwei Konzepten: an der Fehler-Möglichkeits- und Einfluss-Analyse (FMEA) und an der Root Cause Analysis (RCA). Die FMEA kommt vor allem bei der Risikoanalyse zum Einsatz. Ein Ablauf oder Prozess wird in seine Einzelschritte „zerlegt“, danach werden die relevanten schädlichen Einflüsse (Risiken) auf jeden Einzelschritt identifiziert und analysiert. Auf die Ursachen dieser Risiken kommt man mithilfe der RCA. Hier wird jeweils mehrmals nach dem „Warum“ dieser Risiken und Ursachen gefragt. Man hantelt sich sozusagen an den Wurzeln der Risiken entlang – solange, bis man auf die wirklich relevanten, tiefliegenden Ursachen stößt. Diesen begegnet man dann mit wirksamen „risikominimierenden“ Maßnahmen. Die Analyse von Zwischenfällen läuft ähnlich ab, nur wird hier kein Prozess dargestellt, sondern ein tatsächlich so geschehener Ablauf. Im Anschluss wird die Fehlerkette identifiziert und „Perle für Perle“ mithilfe der RCA analysiert. Idealerweise stehen am Ende einer solchen Analyse Maßnahmen fest, von denen man sich verspricht, dass der betreffende Zwischenfall so nicht mehr passieren kann – auch jemand anderem nicht, auch bei keinem anderen Patienten.

In der Praxis zeigt sich, dass diese Methoden bei Risikoanalysen in Bereichen mit relativ (!) niedriger Komplexität sehr gut anwendbar sind. In hochkomplexen Bereichen stößt man rasch an Grenzen. Oder, um bei den Beispielen zu bleiben: Den Tagesablauf in einem Labor kann man gut als Prozess darstellen und die wesentlichen Risiken identifizieren. Aber fragen Sie einmal die Mitarbeiterinnen und Mitarbeiter einer Notaufnahme, was bei der Versorgung ihrer Patienten alles schief gehen kann. Das wird eine wirklich sehr lange Liste von Risiken, welche auch noch in Kombinationen auftreten können. Das ist schon mathematisch nicht mehr seriös darstellbar.

Bei der Analyse von (tatsächlich passierten) Zwischenfällen zeigt sich, dass diese fast immer aus hochkomplexen Zusammenhängen resultieren. Hier stellt sich bei einem Vorgehen nach der RCA die Frage: Wann ist man an einem sinnvollen Ende der Wurzel (root cause) angelangt? Welche Umfeldbedingungen waren relevant, welche nicht? Wo zieht man die Grenzen der Analyse?

Nun hat Erik Hollnagel2 zwei Begriffe eingeführt, welche diese Problematik nicht nur nachvollziehbar darstellen, sondern auch eine Reihe von Lösungsansätzen beinhalten: Safety-I und Safety-II. Er geht davon aus, dass der bisher verwendete kausalanalytische Zugang zu Risiken, Zwischenfällen und unerwünschten Ereignissen – er bezeichnet ihn als Safety-I – der klinischen Wirklichkeit alleine nicht gerecht wird. Komplexe Abläufe lassen sich nicht so einfach in ihre „Einzelteile“ zerlegen, und unerwünschte Ereignisse resultieren nicht ausschließlich aus Fehlern. Es braucht eine zusätzliche Betrachtungsweise, um die Komplexität der täglichen Arbeit in Gesundheitseinrichtungen zu erfassen: Safety-II.

„Work as imagined“ vs. „work as done“

Die in Prozessbeschreibungen dargelegten Abläufe stellen demnach Idealbedingungen dar: Die einzelnen Arbeitsschritte und die Aufgaben der am Prozess Beteiligten sind detailliert dargelegt. Mögliche Varianten im Ablauf werden antizipiert und in Form von Entscheidungsfeldern dargestellt. Abweichungen vom vorgesehenen Ablauf werden in erster Linie durch Fehler oder Verstöße verursacht. Hollnagel nennt diesen Zugang „Safety-I“. Solche idealen Abläufe werden als „work as imagined“ bezeichnet – man könnte das mit „Wünsch-Dir-Was-Abläufe“ übersetzen, aber nennen wir sie „SOLL-Abläufe“.

Da jedoch permanent kleine Abweichungen und Störungen auftreten (Patienten z.B. verhalten sich selten so, wie wir es in unseren Vorgaben gerne hätten), finden SOLL-Abläufe in der Wirklichkeit praktisch niemals statt.

Safety

Wir sind gezwungen, laufend der Situation angemessen korrigierend einzuwirken, damit es zu keinen gröberen Problemen kommt. Keine Prozessbeschreibung kann diese permanenten Abweichungen (bzw. diese Komplexität) antizipieren und berücksichtigen. „Dienst nach Vorschrift“ wäre eine Katastrophe. Diese tatsächlichen Abläufe, mit ihren Abweichungen und Korrekturen, werden als „work as done“ bezeichnet – oder „IST-Abläufe“. Überwiegend führen unsere Korrekturen hier zu erwünschten, manchmal sogar zu idealen Ergebnissen.

Aus Safety-II-Sicht führen diese Korrekturen aber manchmal – glücklicherweise sehr selten – auch zu unerwünschten, nicht akzeptablen Ergebnissen. Somit haben sowohl erwünschte als auch unerwünschte Ergebnisse die gleiche Ursache: Adaptionen und Korrekturen im Prozess. Das Problem dabei: Ohne Adaptionen und Korrekturen sind die IST-Abläufe nicht durchführbar. Die in Safety-I übliche Bewertung „richtiges Handeln“ vs. „falsches Handeln“ bringt keinen Erkenntnisgewinn, da es absolut kontraproduktiv wäre, diese Adaptionen zu unterbinden. Der Fokus von Safety-II-Analysen liegt daher auf der Frage: Wenn es doch in den allermeisten Fällen gut ausgeht, warum funktioniert es denn normalerweise?

Was bedeutet das für die Praxis?

Wenn Sie – nach Zwischenfällen oder bei CIRS-Analysen – Mitarbeiter vor Ort fragen, warum es denn in den meisten Fällen gut geht und nichts passiert, erhalten Sie meist als Antwort: Weil wir viel abfangen. Dieses „Abfangen“ bezeichnet Hollnagel als Resilienz: „Resilienz ist ein Ausdruck dafür, wie Menschen – allein oder gemeinsam – mit [...] Situationen zurechtkommen, indem sie ihre Leistung an die Bedingungen anpassen. Die Leistung einer Organisation ist resilient, wenn sie unter erwarteten und unerwarteten Bedingungen gleichermaßen aufrechterhalten werden kann.“

Die erwarteten Bedingungen lassen sich im Safety-I-Ansatz abbilden, bewerten und bearbeiten. Um das Unerwartete sicher zu managen, braucht es ein paar neue Ansätze. Einige Vorschläge dazu:

Die beiden beschriebenen Interpretationen von Sicherheit stellen kein „Entweder-Oder“ dar, sondern ergänzen einander in sinnvoller Weise. Wenden Sie die passende Methode in der jeweiligen Situation an. Ob bei Risiken oder Fehlern: Je „einfacher“ die Situation ist, desto besser sind kausalanalytische Fragen nach den Ursachen geeignet. Je komplexer die Situation, desto eher sollten Sie sich folgende Fragen stellen:

  • Wie fällt rechtzeitig auf, wenn etwas schief gegangen ist (bevor es zum Schaden wird)? 
  • Wie stelle ich die Ressourcen sicher, damit unerwartete Abweichungen bemerkt und ausgeglichen werden können?

Halten Sie sich bei der Analyse von CIRS-Meldungen nicht damit auf, diese Ereignisse nach Eintrittswahrscheinlichkeit und Schadensausmaß einzuschätzen und daraus irgendwelche Schlüsse zu ziehen. Sie produzieren nur Milchmädchenrechnungen. Nutzen Sie besser die Chance zur Verbesserung, die Ihnen diese Meldung bietet. Bedenken Sie, dass bei einer (echten) CIRS-Meldung kein Schaden entstanden ist. Sinnvolle Fragen sind:

  • Normalerweise geht alles gut. Was war diesmal anders? 
  • Jemandem ist diese Abweichung rechtzeitig aufgefallen und Schaden konnte verhindert werden. Was können wir tun, damit das immer so ist?

Verschwenden Sie bei komplexen Situationen nicht allzu viel Zeit mit der Suche nach den Ursachen. Versuchen Sie stattdessen die Zusammenhänge soweit zu verstehen, dass Sie Sicherheitsziele ableiten können. Diese Sicherheitsziele sollten sich in erster Linie auf die Erhöhung der Entdeckbarkeit von Abweichungen bzw. der Fähigkeit zur Resilienz beziehen – und müssen mit den vermeintlichen Ursachen kaum etwas zu tun haben.

Der Safety-II-Ansatz ist geeignet systematisch die Lücken zu schließen, welche die bisher gebräuchlichen kausalanalytischen Methoden im Patientensicherheits-System aufwiesen. Er verspricht eine Ableitung von sinnvollen und wirksamen Interventionen mit einem vertretbaren Ressourcenaufwand. Ein möglicher Nachteil: Er lässt sich nicht annähernd so gut quantifizieren und in Diagrammen, Risk-Maps und Bewertungstabellen darstellen wie der Safety-I-Ansatz.

Das Top-Management liebt solche Diagramme – wir werden sie wohl noch überzeugen müssen. 

Safety

Literatur und Anmerkungen:

1Autor unklar: Jan L. A. van de Snepscheut, Yogi Berra, Alvin E. Roth, Chuck Reid, William T. Harbaugh, Manfred Eigen und/oder Karl Marx.
2Hollnagel, E. (2014). Safety-I and Safety-II: The Past and Future of Safety Management. Farnham, UK: Verlag Ashgate.
3 Vgl: Hollnagel, E., Wears, R. L., Braithwaite, J. (2015). From Safety-I to Safety-II: A White Paper. The Resilient Health Care Net: Published simultaneously by the University of Southern Denmark, University of Florida, USA, and Macquarie University, Australia. S. 22. 
4Hollnagel, E. (2018), Safety-II in Practice: Developing the Resilience Potentials. Abingdon, UK: Verlag Routledge. S. 14. Eigene Übersetzung. 


Bildinhalt: QUALITAS
  Ausgabe: 01/2018
Bildrechte: Schaffler Verlag