Die Psychologie der Zahlen: Warum Daten im Krankenhaus zu wenig Wirkung entfalten
Beitrag von Lasse Wißmann – Leiter des Analyseteams (08.04.2026)
Viele Krankenhäuser investieren erheblich in Analysen. Gut besetzte Controllingabteilungen erstellen und pflegen automatisierte Dashboards, umfangreiche Kennzahlensysteme, externe Benchmarks, Ergebnis- und Deckungsbeitragsrechnungen. Die Zahlen sind verfügbar – oft sogar gut aufbereitet. Und trotzdem treffen viele Häuser Entscheidungen, die ihre eigenen Zahlen ignorieren.
Das ist keine Datenfrage, sondern ein menschliches Problem. Und es wird in der internen Steuerung von Krankenhäusern systematisch unterschätzt, weil es unbequemer ist, über Entscheidungspsychologie zu sprechen als über Datenqualität oder fehlende IT-Infrastruktur.
Ich bin Psychologe, zertifizierter Change Manager und ich arbeite täglich mit Zahlen. Diese Kombination klingt erstmal ungewöhnlich, ist aber genau das, was den Blick schärft für eine Wahrheit, die zu viele Verantwortliche nicht erkennen (wollen): Die beste Analyse nützt nichts, wenn sie nicht richtig vermittelt wird. Und das ist häufiger der Fall als wir zugeben.
Confirmation Bias: Führungskräfte lesen Daten wie Horoskope
Wer glaubt, dass ein gut aufbereiteter Bericht für sich selbst spricht, hat noch nie in einem Strategiemeeting gesessen, in dem ein Chefarzt erklärt, warum die rückläufigen Fallzahlen seiner Abteilung eigentlich ein Zeichen für gestiegene Behandlungsqualität sind: Die Daten messen einfach das falsche, ganz sicher.
Der Confirmation Bias – die Neigung, Informationen so zu interpretieren, dass sie die eigenen Überzeugungen bestätigen – ist keine Schwäche von Einzelpersonen. Er ist ein Grundmerkmal menschlicher Kognition, erstmals beschrieben von Peter Wason in den 1960er Jahren und seitdem in Hunderten von Studien repliziert. Nickerson (1998) nennt ihn schlicht: „allgegenwärtig".
Für das Krankenhaus bedeutet er, dass auch EntscheiderInnen Daten nicht neutral lesen. Die Geschäftsführung, die seit Jahren auf eine bestimmte Fachabteilung setzt, sieht in denselben Zahlen andere Muster als jemand ohne diese Vorgeschichte. Das ärztliche Direktorium, das eine Strukturentscheidung vor zwei Jahren mitgetragen hat, wird Daten, die diese Entscheidung in Frage stellen, anders gewichten als Daten, die sie bestätigen. Das ist keine Böswilligkeit. Das ist schlicht menschlich.
Der unbequeme Schluss daraus: Mehr Daten lösen das Problem nicht, sie können es sogar verstärken. Wer glaubt, Widerstand gegen Analyseergebnisse lasse sich durch noch detailliertere Auswertungen, noch mehr Zahlen und noch schickere Dashboards überwinden, kämpft mit dem falschen Werkzeug.
Status-quo-Bias: „Das haben wir immer so gemacht" schlägt jeden Report
Hier wird es noch unbequemer. Selbst wenn interne EntscheiderInnen die Daten richtig lesen und die Konsequenz vielleicht sogar verstehen, handeln sie oft trotzdem nicht.
Samuelson und Zeckhauser zeigten 1988 als erste systematisch, dass Menschen in Entscheidungssituationen unverhältnismäßig oft beim Status quo verbleiben, auch wenn Alternativen nachweislich besser wären. Kahneman, Knetsch und Thaler (1991) liefern die psychologische Erklärung: Verluste fühlen sich etwa doppelt so schwer an wie äquivalente Gewinne. Eine Reorganisation, ein Strategiewechsel, der Abbau einer Abteilung, jede Abweichung vom Ist-Zustand fühl sich (für viele Menschen) nach Verlust an. Die Zahlen mögen eine eigene Sprache sprechen, aber das Bauchgefühl gewinnt.
Im Krankenhaus ist dieser Effekt strukturell verstärkt. Kliniken sind Institutionen mit jahrzehntelanger Geschichte, starken ärztlichen Identitäten und gewachsenen Machtstrukturen, häufig tief verwurzelt in ihrer Region. Führungskräfte verdanken ihre Position oft ihrer Fachexpertise, nicht ihrer Bereitschaft, auf Basis von Daten unbequeme Entscheidungen zu treffen. Der Satz „Das haben wir immer so gemacht" ist in diesem Kontext kein Argument, sondern ein Schutzschild.
Und dieser Schild schützt gegen jede Excel-Tabelle. Solange interne Steuerungssysteme nicht auch die psychologischen Widerstände adressieren, die mit Veränderung verbunden sind, bleibt das Controlling-Dashboard ein gut gepflegtes Dokument ohne Konsequenz.
Fehlende psychologische Sicherheit: Wenn interne Zahlen Angst machen statt Orientierung zu geben
Das dritte und vielleicht folgenreichste Muster ist struktureller Natur: In (zu) vielen Krankenhäusern werden Kennzahlen primär als Kontrollinstrument eingesetzt. Als Mittel, um Verantwortliche zu benennen, Schuld zuzuweisen und Rechtfertigungen einzufordern.
Amy Edmondson von der Harvard Business School hat gezeigt, was dann passiert: Teams schalten in den Verteidigungsmodus. Ihr Ausgangspunkt war passenderweise die Forschung zu medizinischen Fehlern in Krankenhäusern. Klares Ergebnis: Die besseren Teams meldeten mehr Fehler. Nicht weil sie mehr machten, sondern weil sie sich sicher genug fühlten, offen damit umzugehen.
Die Implikationen für die interne Datennutzung sind direkt und weitreichend. Wenn monatliche Kennzahlenmeetings primär als Tribunal wahrgenommen werden, dann werden schlechte Zahlen nicht gemeldet, erklärt oder analysiert – sie werden wegerklärt. Die Energie fließt nicht in Problemlösung, sondern in Selbstschutz.
Das Ergebnis ist ein systematisch verzerrtes Bild der eigenen Realität. Nicht weil die Daten falsch sind. Sondern weil das Klima, in dem sie besprochen werden, keine ehrliche Auseinandersetzung zulässt.
Was Krankenhäuser konkret ändern können
Diese drei Mechanismen sind universell menschlich – sie zeigen sich in Unternehmen, Behörden und Wissenschaft gleichermaßen. Der erste Schritt ist schlicht, sie anzuerkennen. Wer glaubt, im eigenen Haus seien Entscheidungen rein datengetrieben, unterschätzt, wie sehr kognitive Verzerrungen und kulturelle Muster selbst die rationalste Führungsrunde prägen. Hier sind drei Ansätze, die in der Praxis wirken:
Gegenszenarien institutionalisieren.
Jede interne Analyse sollte nicht nur die naheliegende Interpretation liefern, sondern explizit auch die unbequeme Alternative. Was würde passieren, wenn die Daten eine andere Geschichte erzählen würden? Diese Frage systematisch zu stellen, schützt vor Confirmation Bias – nicht nur beim Einzelnen, sondern im Team.
Daten von Schuld entkoppeln.
Kennzahlen sollten intern als Frühwarnsystem genutzt werden, nicht als Anklageschrift. Das klingt banal, erfordert aber eine bewusste Gestaltung der Meeting-Kultur, der Sprache und der Konsequenzen, die auf schlechte Zahlen folgen – oder eben nicht folgen.
Entscheidungen sichtbar machen.
Einer der wirksamsten Hebel gegen den Status-quo-Bias ist die explizite Dokumentation: Welche Entscheidung wird heute getroffen – und welche wird bewusst nicht getroffen? Wer Nicht-Entscheidungen sichtbar macht, macht auch ihre Kosten sichtbar.
Der eigentliche Engpass ist nicht die Datenlage
Die meisten Krankenhäuser in Deutschland haben heute mehr Daten zur Verfügung als je zuvor. IT-Strukturen werden leistungsstärker, Datenbanken valider, Analysetools schneller, Mitarbeitende im Controlling sind hervorragend ausgebildet. Das Problem ist also nicht der Mangel an relevanten, validen Zahlen. Das Problem ist, dass interne Steuerungssysteme zu stark auf die technische Seite von Analysen ausgerichtet sind und die menschliche Seite weitgehend ignorieren.
Solange das so bleibt, werden Krankenhäuser weiter in Analysen investieren, deren Ergebnisse im nächsten Strategiemeeting versanden. Wer bessere Entscheidungen will, braucht nicht mehr Daten, sondern ein besseres Verständnis dafür, wer diese Daten liest. Die nächste Controlling-Investition gehört nicht in ein neues Tool. Sie gehört in die Frage, warum das alte niemanden interessiert.
…………………………………………………………………………
Quellen
Wason, P. C. (1960). On the failure to eliminate hypotheses in a conceptual task. Quarterly Journal of Experimental Psychology, 12(3), 129–140.
Nickerson, R. S. (1998). Confirmation bias: A ubiquitous phenomenon in many guises. Review of General Psychology, 2(2), 175–220.
Samuelson, W., & Zeckhauser, R. J. (1988). Status quo bias in decision making. Journal of Risk and Uncertainty, 1, 7–59.
Kahneman, D., Knetsch, J. L., & Thaler, R. H. (1991). Anomalies: The Endowment Effect, Loss Aversion, and Status Quo Bias. Journal of Economic Perspectives, 5(1), 193–206.
Edmondson, A. C. (1999). Psychological Safety and Learning Behavior in Work Teams. Administrative Science Quarterly, 44(2), 350–383.