Menschen gestehen sich nicht gerne ein, wenn sie falsch lagen. Das ist ein Problem. Denn so nehmen sie sich die Chance zum Lernen. Von Jürgen Kaube
Die Briten werden sich für den Verbleib in der Europäischen Union entscheiden. Niemals wird so jemand wie Donald Trump amerikanischer Präsident werden können. Nach vier Jahren seiner Präsidentschaft wird er viele seiner Anhänger verloren haben. All das sind Aussagen, die vom historischen Verlauf widerlegt worden sind. Noch eine Weile, nachdem das Gegenteil der Vorhersagen eingetreten ist, werden die Köpfe geschüttelt. Wie konnte es nur so kommen?
Den umgekehrten Effekt beobachten Psychologen seit knapp fünfzig Jahren. Baruch Fischhoff und Ruth Beyth, damals an der Hebrew University in Jerusalem, hatten 1974 ihre Studenten unter anderem gebeten, den Ausgang der Gespräche einzuschätzen, die der amerikanische Präsident Richard Nixon damals in China und Moskau zu führen vorhatte. Für wie wahrscheinlich hielten sie verschiedene Ergebnisse dieser Verhandlungen? Es ging um Ergebnisse wie “Die Vereinigten Staaten werden in China eine diplomatische Vertretung eröffnen”, “Die Vereinigten Staaten und die UdSSR werden ein gemeinsames Raumfahrtprogramm beschließen” oder “Präsident Nixon wird Mao treffen”.
Zwischen zwei und 24 Wochen nach dem Ereignis sollten sich die Studenten an ihre Einschätzungen erinnern. Wenn sie das nicht mehr genau konnten, sollten sie sich zurückversetzen und noch einmal entscheiden. Das Ergebnis war, dass etwa zwei Drittel der Befragten sich nicht mehr richtig erinnerten. 75 Prozent davon hatten dem Eintreten der Ereignisse, die tatsächlich eintraten, nachträglich eine höhere Wahrscheinlichkeit zugewiesen als zuvor. Kurz gesagt: Das Eintreten eines Ereignisses erhöht durchschnittlich seine rekonstruierte Wahrscheinlichkeit und verringert seinen Überraschungswert. Wir neigen dazu, es haben kommen zu sehen. Wir glätten die Geschichte. Das Ereignis selbst ist dann, im Vokabular der Entscheidungspsychologen, ein “Anker”, um zu beurteilen, wie wahrscheinlich wir es fanden, bevor es eintrat. Wenn etwas geschehen ist, finden wir es schwerer, uns vorzustellen, wie wir jemals darauf kamen, es werde nicht geschehen.
Seit diesem ersten Experiment ist die Rückblicks-Verzerrung (“hindsight bias”) vielfach nachgewiesen worden. Schon 2012 wurden mehr als achthundert Studien gezählt, in den unterschiedlichsten sozialen Zusammenhängen. Wenn das Paar sich getrennt hat, kommt bei den Beobachtern der Eindruck auf, man habe es schon von Anfang an “irgendwie” gewusst, sie passten nicht zueinander. Aber natürlich auch umgekehrt: Die Skeptiker – “sie passen gar nicht zueinander” – behaupten bei dauerhaftem Zusammensein: Na klar, Gegensätze ziehen sich an.
Von der Liebe zur Wirtschaft: Wenn eine Investition, etwa an Finanzmärkten, sich als erfolgreich erwiesen hat, blenden die Investoren aus, wie unsicher ihre Entscheidungen vor dem Ereignis waren. Oder in der Medizin, aus deren Bereich Baruch Fischhoff zu seinen Studien angestoßen wurde: Ein Radiologe findet an der Lungenaufnahme eines Patienten nichts Auffälliges. Der Patient stirbt an einer Lungenkrankheit. Ein zweiter Radiologe, der für die Familie des Verstorbenen in einem Verfahren gutachtet, findet in derselben Fotografie deutliche Anhaltspunkte für ein Krankheitsbild. Aber betrachtet er sie neutral, oder geht der Eindruck des tatsächlichen Todes in den Befund ein, man habe etwas sehen können oder sogar müssen? In 90 Prozent der Fälle von Lungenkrebs und siebzig Prozent der Fälle von Brustkrebs werden, so haben Experten festgestellt, auf Bildern, die vorher harmlos schienen, nachträglich Anzeichen für das gefunden, was gekommen war. “Alles ist klar, solange wir das Ergebnis kennen”, hat der Soziologe Duncan Watts das genannt.
Auch innerhalb von Organisationen kann das zu falschen Entscheidungen führen, wenn beispielsweise Irrtümer so behandelt werden, als hätten sie die Vorgesetzten vermieden. Das mag, wie eine Forschergruppe um Dorothea Kübler vor Jahren gezeigt hat, zu einer zu geringen Bereitschaft führen, Entscheidungen zu delegieren. Wenn Chefs den Ausgang einer Entscheidung zugrunde legen, ohne die Ungewissheit zu berücksichtigen, die bestand, als die Entscheidung getroffen wurde, tendieren sie zu Selbstgerechtigkeit.
Weshalb ist das so? Die Erklärung, “falsche” vergangene Urteile seien unnütz geworden, weswegen sie sinnvollerweise über Bord geworfen würden, erschöpft den Irrtum nicht. Denn selbstverständlich wäre es unter Gesichtspunkten des Lernens besser, sich Irrtümer nicht nur einzugestehen, sondern auch nach ihren Gründen zu fragen, anstatt so zu tun, als habe es sie gar nicht gegeben. Man kann die Vergangenheit nicht mehr ändern, aber das bedeute nicht, ihre Analyse sei unfruchtbar. Wir wollen zwar in Übereinstimmung mit der Wirklichkeit leben. Doch zu dieser Wirklichkeit gehören auch die Fehler, die wir in ihr gemacht haben. Ihrer Analyse steht die Rückblicks-Verzerrung im Weg.
Überraschungen – der Brexit, Trumps erste Wahl, seine Mobilisierungsfähigkeit in der zweiten Wahl, der Sturm auf das Kapitol – sind der Stoff der Geschichte. Hinterher haben es viele vorher gewusst. Doch es ist ein Fehler, die Überraschungen durch glättende Konstruktionen des Typs “Wir haben das geahnt” der Untersuchung zu entziehen. Aus dem Rückblicksfehler folgt zu viel Selbstvertrauen, die Schlusskraft der eigenen Überzeugungen und Denkweisen wird überschätzt. Was uns zum falschen Schluss geführt hat, etwas sei unwahrscheinlich, wird durch die nachträgliche Behauptung, wir hätten das Ereignis doch für wahrscheinlich gehalten, gegen Kritik immunisiert. Wir stellen unsere Einschätzungen besser dar, als sie tatsächlich waren, und entziehen sie so der Überprüfung.
Natürlich gibt es gute Gründe, sich nach dem Eintritt eines Ereignisses mehr um die Vorgeschichte dieses Eintritts als um seine Unwahrscheinlichkeit zu kümmern. Man arbeitet ja mit dem bestimmten Ereignis weiter, nicht mit dem Ausbleiben anderer. Gerade bei drastischen, folgenschweren oder unerwarteten Vorkommnissen sammelt der Rückblick gern detektivisch alle Spuren von Kausalität und landet dann bei Schlüssen wie: Man hätte es sehen können. Die Antwort, zufälligerweise habe Trump über Clinton oder Biden über Trump gewonnen, zählt beim Erzählen von Geschichten darüber, wie es dazu kam, nur wenig.
Baruch Fischhoff, Ruth Beyth: “I Knew it Would Happen”. Remembered Probabilities of Once-Future Things”, Organizational Behavior and Human Performance 13 (1975); Neal J. Roese, Kathleen De Vos: “Hindsight Bias”, Perspectives on Psychological Science 7 (2012); David Danz, Dorothea Kübler u.a.: “On the failure of hindsight-biased principals to delegate optimally”, Management Science 61 (2015).