Wie wir falsch denken

Eduard Kaeser's picture

Wie wir falsch denken

Von Eduard Kaeser, 18.07.2017

En Marche für die Wissenschaft!

Nun geht man also für die Wissenschaft auf die Strasse: gegen Klimawandel-Abstreiter, Evolutionsleugner, Impfgegner, Gentech-Kritiker und überhaupt gegen das ganze antiaufklärerische Gesocks, das sich mit Ideen aus der Rumpelkammer dem wissenschaftlichen Fortschritt entgegenstemmt. Ein Knirps hält auf einer Demonstration das Plakat „Science is Fun“ hoch. Rührend ist er, und Recht hat er, der Kleine, und man will hoffen, dass seine Generation den gegenwärtigen Backlash überwunden haben wird. Nun ist zwar für die Wissenschaft Marschieren gut gemeint, aber die Initiative marschiert am Kernproblem vorbei, das lautet: Haben wir eigentlich das Zeug zum wissenschaftlichen Denken?

Haken kausalen Denkens

Wir sind kausale Denker. Wir geben uns nicht zufrieden mit einer Welt, in der ein verdammtes Ding nach dem andern geschieht, wir fragen sehr schnell nach den Ursachen des Geschehens. Wir erzählen uns Geschichten, suchen nach Zusammenhängen, mutmassen über Gründe, wir basteln uns ein Gedankengerüst – oft ein ziemlich windschiefes –, in dem wir diese Gründe verorten und Schlüsse daraus ziehen können. Oft die falschen.

Kausales Denken hat viele Haken. Einer liegt in der Orientierung an vertrauten Modellen, die aber, auf unvertraute Gebiete übertragen, in die Irre führen. Betrachten wir das Beispiel einer energiespendenden Pille. Konsumenten, so hat eine Studie gezeigt, neigen zur Ansicht, dass ihre Wirkung umso eher nachlässt, je intensiver man arbeitet. Die Analogie zu einem physikalischen Vorgang ist unschwer zu erkennen. Je mehr Energie ich von einer Batterie beziehe, desto schneller ist die Batterie leer. Die Wirkungsdauer eines Mittels steht aber in keinem nachweislichen Zusammenhang mit der ausgeführten Arbeit. Dieses falsche Kausalmodell kann übrigens den Konsumenten unter Umständen dazu verführen, mehr Pharmaka einzunehmen, als ihm zuträglich ist. Immer zuträglich ist das Modell allerdings der Pharmaindustrie.

Dubiose Analogien

Aber nicht nur Laien, sondern auch Fachleute bleiben an überzogenen Analogien hängen. Zu einiger Notorietät brachte es der Fall des britischen Chirurgen Sir Arbuthnot Lane zu Beginn des 20. Jahrhunderts. Er war von der fixen Idee eines Zusammenhangs von Selbstvergiftung und Krankheit beherrscht. Dabei inspirierte ihn die Toilette zu einer fragwürdigen Analogie. So wie eine gute WC-Spülung die Verstopfung verhindert, so würde auch eine speditive „Dickdarmspülung“ den Abfall schnell entsorgen und den Körper vor Vergiftung schützen. Lane glaubte, im Kolon einen besonders träge arbeitenden Abschnitt entdeckt zu haben. Deshalb empfahl er dessen operative Entfernung – eine in Fachkreisen als völlig ineffektiv taxierte Massnahme. Die Psychiaterin Ann Dally bezeichnet sie als „Phantasie-Chirurgie“. Bernard Shaw karikierte sie in seiner Komödie „Arzt am Scheideweg“. Sir Arbuthnot operierte nichtdestoweniger eine Hundertschaft von unglückseligen Patienten.

Die Trägheit des Vertrauten

Analogien solcher Art sind Legion. In ihnen spielt ein psychologischer Faktor eine wichtige Rolle: Kausaldenken wirkt tendenziell zementierend. Haben wir erst einmal ein Zufallsmuster als ein kausales gedeutet (oder missdeutet), so der Psychologe Thomas Gilovich, „wird es (...) ohne weiteres in das schon vorhandene Weltbild der Person integriert“. Daraus resultiert ein Trägheitsprinzip des Vertrauten. Wir neigen dazu, neue Information im Licht vertrauter Kausalmodelle zu evaluieren. Das hat durchaus plausible Gründe: Solche Kausalmodelle erlauben uns, schnell und wirkungsvoll auf unsere Umwelt zu reagieren, zum Beispiel auf Gefahren. Das gebrannte Kind meidet bekanntlich das Feuer.

Das kann freilich zu falschem Alarm führen. Wir kennen Radioaktivität als Ursache von fatalen Schäden im unserem Organismus. Radioaktivität wird auch in der Technologie der Lebensmittelbestrahlung verwendet. Sie ist seit 50 Jahren gründlich erforscht. Man setzt Lebensmittel Röntgen-, Elektronen- oder Gammastrahlung aus, um Krankheitserreger abzutöten und so unter anderem die Haltbarkeit zu erhöhen. Die Lebensmittel selbst werden dadurch nicht radioaktiv. Trotzdem äussern viele Befragte Bedenken, dass die Strahlung im Lebensmittel „stecken bleibe“ und es kontaminiere. Hier hüllt ein vertrautes Kausalmodell einen logisch falschen Schluss in psychologische Plausibilität. Die Bedenken verschwinden übrigens, wenn man die Lebensmittelbestrahlung „kalte Pasteurisierung“ nennt.

Das Defizitmodell des Wissens

Der Biochemiker Walter Bodmer leitete 1985 ein Team von Forschern, das die Aufgabe hatte, die antiwissenschaftliche Stimmung zu analysieren, die sich bereits vor dreissig Jahren manifestierte. Die Analyse ist als Bodmer Report der Royal Society bekannt geworden und stellte sozusagen die Initialzündung dessen dar, was man heute „Public Understanding of Science“ nennt. Ein Schluss aus der Studie war intuitiv einleuchtend: Antiwissenschaftliche Haltung lässt sich auf Wissensdefizit zurückführen. Gemäss diesem Defizitmodell wäre also die optimale Lösung mehr Wissen.

Mittlerweile gibt es zahlreiche Studien, die dem Modell widersprechen. Die Wissensbestände wachsen zwar stetig. Wir finden auch, wenn wir nur wollen, besseren Zugang zu ihnen. Wir können uns über die rezenten Debatten in der Quantentheorie oder über die neuesten Entwicklungen in der Nanotechnologie informieren; aber wir müssen diese Informationen in unser vertrautes Weltbild einbauen. Und dieser Einbau schafft grosse Probleme, weil das Neue oft nicht verträglich ist mit dem Vertrauten. Wir denken dann lieber falsch in einem ausbalancierten vertrauten Weltbild, als dass wir richtig denken und unser Weltbild in Schieflage bringen. Die Psychologen sprechen vom „Rückschlageffekt“ („backfire effect“): Eine verwurzelte Überzeugung wird von widersprechenden Fakten umso mehr bestärkt.

Weltanschauung steht über Wissen

So fand zum Beispiel der Psychologe Dan Kahan von der Yale Law School in seinen inzwischen vielzitierten Befragungen von 1500 Amerikanern heraus, dass die Haltung zum Klimawandel sehr viel mehr vom weltanschaulich-politischen Hintergrund der Befragten abhing als von deren Wissensstand. Die Probanden Kahans lagen auf einem Spektrum von rechtskonservativ bis linksliberal. Je höher der wissenschaftliche Bildungsstand, desto weniger spielte das Wissen eine Rolle, und desto stärker trat der weltanschaulich-politische Stand der Befragten in den Vordergrund. Konservative, die sich im Übrigen durch den besten Kenntnisstand der Fakten auszeichneten, schätzten das Risiko des Klimawandels als eher klein ein. Womöglich, weil sie gebildet und clever genug waren, abzuschätzen, wo die Wissenschafter falsch liegen könnten.

Die Eichung des Wissensstandes

Wir wissen vieles, wir wissen immer mehr; aber wir wissen viel zu wenig darüber, was und wie wir nicht wissen, wie wir falsch denken. Nicht das Wissensdefizit ist also das Problem, sondern unser Umgang mit dem Nichtwissen. Wir denken zwar in Kausalmodellen, aber wir haben in der Regel schlechte Kenntnis von den Grenzen dieser Modelle. Das zahlt sich besonders bei ökonomischen Modellen verhängnisvoll aus, wie die rezente Geschichte zeigt – etwa in der Theorie, dass alle Länder vom globalen Handel profitieren. Der Harvard-Ökonom Dani Rodrik warnte schon vor zwanzig Jahren vor den Folgen enthemmter Globalisierung. Der Grossteil der Ökonomen nahm ihn nicht ernst. Paul Krugman machte Rodrik privatim darauf aufmerksam, dass seine Theorie „Munition für die Barbaren“ sei.

Wir sind inkompetent in der realistischen Erfassung unserer Erklärungskompetenzen. Wir schätzen fehlerhaftes Denken falsch ein. Die Psychologen David Dunning und Justin Kruger haben dieses Phänomen einlässlich erforscht, und es ist nunmehr unter dem Namen „Dunning-Kruger-Effekt“ in Fachkreisen bekannt. Was Dunning und Kruger irritierte, war der Umstand, dass viele Leute von ihrer Ignoranz nicht irritiert sind – im Gegenteil: sie richten sich darin quasi häuslich ein mit einer aufgepumpten, fallweise auch lachhaften Selbstgewissheit. Das Problem, so Dunning, liegt in der Eichung des eigenen Wissensstandes: es entsteht, wenn man als einzigen Massstab zur Einschätzung seines Wissens das eigene Wissen anlegt.

Eine Wissenschaft des Unwissens: Agnotologie

Seit Daniel Kahnemans und Amos Tverskys Pionierarbeiten studieren Sozialpsychologen, Kognitionsforscher und Historiker Formen der Ignoranz. Es gibt sogar einen überdachenden Terminus dafür: Agnotologie. Wir finden Formen des Nichtwissens nicht nur in den Tücken unserer Kausalmodelle, sondern auch in der soziokulturellen Vorgeprägtheit unserer Ideen, im „Groupthink“, in unserer Wert- und Glaubenshaltung, in unserer Emotionalität: zu grossen Teilen eine Terra incognita. Womöglich könnte uns Aufklärung über unsere Unwissenheit nicht nur für eigene Schwachstellen sensibilisieren, sondern auch für die falschen Töne von antiwissenschaftlichen Wind- und Scharfmachern, welche die Unwissenheit mit professionellem Zynismus auszuschlachten verstehen. Vielleicht lässt sich dadurch auch verhindern, dass der Graben zwischen „elitärer“ Wissenschaft und „ignorantem“ Volksverstand weiter aufgerissen wird. Wiegen wir uns nur nicht in naiver Zuversicht. Noch gibt es die Dummheit: Ignoranz, die sich selber beglückwünscht. Und sie erstarkt.

Kommentare

Die Redaktion von Journal21 behält sich vor, Kommentare gekürzt oder nicht zu publizieren. Dies gilt vor allem für unsachliche und themenfremde Beiträge sowie für Kommentare, die ehrverletzend oder rassistisch sind oder anderweitig geltendes Recht verletzen. Über Entscheide der Redaktion führen wir keine Korrespondenz.

Der Klimawandel ist dafür ein typisches Beispiel – mit allfällig tragischen Konsequenzen. Ebenso gilt das für die Politik. Das Undenkbare in Betracht ziehen, nicht nur nach dem eigenen oder vorgegebenen Schema, ganz frei und unvoreingenommen. In diesem Sinne sollte auch der sog. Terror überprüft werden – der grösste Terroranschlag, nämlich 9/11 wurde ja nie unabhängig untersucht. Gerade hier spielt das undenkbare Denken eine Schlüsselrolle. Die Kausalität zum heutigen Krieg im Nahen Osten, zum Chaos in der Flüchtlingskrise, in der Personenüberwachung, sogar bezüglich Meinungsterror ist unübersehbar. Könnte es nicht sein, dass 9/11 inszeniert wurde, um genau das zu erreichen? Diese Frage lassen oft gute Freunde von mir nicht zu – sie sind nicht einmal in der Lage, die Hypothese des „Undenkbaren“ zu akzeptieren. In diesem Sinne sind die Überlegungen von Eduard Kaeser hoch einzuschätzen.

Dem kann ich nur beipflichten. Ich bin kürzlich auf einen Begriff gestossen, der das mit einem Wort ganz gut beschreibt: Bequemlichkeitsverblödung!
Das eigene betonierte Bild bewahrt vor mühsamem Nachfragen, Hinterfragen, Abwägen und dem Aufwand, eigenes Denken wieder mal von Überholtem zu befreien. Da sich z.T. auch die Wissenschaft scheut oder weigert, Neues ohne Scheuklappen zu sehen, kann man sich bequem anlehnen. Gefragt wäre immer wieder, das Undenkbare zu denken.
Xaver Schmidlin

SRF Archiv

Newsletter kostenlos abonnieren