Der Standort bestimmt den Standpunkt
Es gibt eine Erfahrung, die jeder politisch interessierte Mensch in diesem Land teilen dürfte: Wenn sich das Gegenüber weigert, Fakten zur Kenntnis zu nehmen, weil diese nicht in sein Narrativ passen.
Für dieses Phänomen gibt es viele Begriffe. Motivated Reasoning zum Beispiel bezeichnet die Wechselwirkung zwischen Motivation und Erkenntnis. Wenn wir uns ein gewisses Ergebnis wünschen oder von etwas überzeugt sind, dann werden wir alles, was wir erleben, entsprechend einordnen. Ein anderer Name dafür ist der „Bestätigungsfehler“ oder Confirmation Bias, aber auf gut Deutsch: Wir glauben, was wir wollen.
In wissenschaftlichen Fragen mag es einfach wirken, die Wirklichkeit zu beweisen. Dabei hilft uns die wissenschaftliche Methode, die z.B. besagt, dass eine anerkannte Theorie auch wiederhol- und entkräftbar sein muss. Aber in der Politik gibt es immerhin oft auch weltanschauliche Fragen, in denen es keine „objektive“ Antwort gibt.
Was stimmt also? Haben wir einfach recht, oder machen wir die Welt, wie sie uns gefällt?
Eine Reihe von Studien bestätigt Motivated Reasoning
In eine ähnliche Richtung geht ein neues Pre-Print – also eine Forschungsarbeit, die noch in der wissenschaftlichen Community geprüft wird. Darin bestätigt ein Team der Ludwig-Maximilians-Universität in München, was sich viele denken: Menschen vertrauen Wissenschaftler:innen vor allem dann, wenn sie glauben, dass diese die „richtige“ Weltanschauung vertreten.
In fünf Studien, die in den USA und Deutschland durchgeführt wurden, finden sie Belege für diese These. Wenn das Forschungsinstitut z.B. als liberal oder konservativ beschrieben wird, vertrauen Angehörige der jeweils anderen Ideologie den Wissenschaftler:innen, die an diesem Institut arbeiten, weniger. Und davon ist nicht nur das das „moralische“ Vertrauen betroffen: Wer der politischen Ausrichtung der Forschung widerspricht, glaubt im Durchschnitt auch weniger an die fachliche Richtigkeit ihrer Erkenntnisse.
Dieser Zusammenhang ist wenig überraschend. Er zeigt sich nicht nur während der Corona-Pandemie, in dem der Mund-Nasen-Schutz zeitweise als Symbol für eine politische Meinung galt, als auch nach wie vor im Diskurs rund um die Klimakrise. Wer Fakten glauben will, glaubt sie in der Regel auch – wer dafür zugeben müsste, dass eine andere politische Einstellung in diesem Fall recht hat, eher weniger.
Welcher Disziplin man vertraut, ist ideologisch
Sogar das Fach, in dem Forschung betrieben wird, wirkt sich auf das Vertrauen der Studienteilnehmer:innen aus. Sie schätzten die meisten Forschungsdisziplinen als tendenziell liberal bis gemäßigt mittig ein – aber kein einziger Bereich war klar konservativ konnotiert. Das erklärt, warum sich ein konservatives Weltbild in der Statistik negativ auf das Vertrauen in die Wissenschaft niederschlägt: Sie fühlten sich seltener so, als würde „die Wissenschaft“ ihr Weltbild vertreten.
Dieser Zusammenhang zeigt sich sogar im Social-Media-Verhalten, denn Konservative folgen demnach z.B. mehr Personen aus den Wirtschaftswissenschaften als aus der Soziologie. Das kann sich teils durch persönliches Interesse erklären, aber zum Teil auch dadurch, dass Soziologie tendenziell „linker“ konnotiert ist als die Ökonomie – ein Zusammenhang, der sich auch außerhalb des Social-Media-Settings in den Studien bestätigen lässt. Der Zusammenhang zwischen Follow-Verhalten auf Twitter und Ideologie wurde in den USA mit über 3 Millionen Usern untersucht.
Menschen sind nicht immer rational
Das erwähnte Pre-Print ist übrigens bei weitem nicht das erste, das sich mit diesem Zusammenhang beschäftigt, sondern nur der neueste in einer Reihe von Belegen. Die ersten Experimente, mit denen der Confirmation Bias das erste Mal untersucht wurde, gehen auf die 1960er Jahre zurück: Der Psychologe Peter Wason zeigte in einer Reihe von Versuchen, dass Menschen dazu tendieren, ihre eigenen Ansichten zu bestätigen und eben nicht kritisch zu hinterfragen.
Der Bestseller Thinking, Fast and Slow. (dt: „Schnelles Denken, langsames Denken“) des Psychologen Daniel Kahneman gibt einen Überblick über eine Reihe von Experimenten, die belegen, dass Menschen nicht immer rational mit Informationen umgehen. Kognitive Verzerrungen – Vereinfachungen, aber auch andere Wege, schnell zu einer Bewertung zu kommen – legen nahe, dass wir alle eine Reihe von Denkfehlern begehen, ohne es zu merken. Ein kurioses Beispiel: Wenn Richter:innen vor ihren Urteilen würfeln, beeinflusst die Höhe des Wurfs auch die Höhe der Strafe, die sie aussprechen.
Schlechte Vorzeichen für evidenzbasierte Politik
Vertrauen in die Forschung ist eine Grundvoraussetzung dafür, die größten politischen Probleme unserer Zeit zu lösen. Klimaschutz wäre ohne die Warnungen, Berechnungen und Empfehlungen der wissenschaftlichen Community undenkbar – es wäre also wichtig, dass möglichst viele Menschen offen für ihre Erkenntnisse wären, um ihre Lösungsansätze zu verstehen. Denn in einer Demokratie hat die Wissenschaft für sich keinen nennenswerten Einfluss: Es braucht den Umweg über die Wähler:innen, die entsprechende Maßnahmen einmahnen. Wo sich niemand für Wissenschaft interessiert, wird das auch nicht passieren.
Das Pre-Print zeigt, dass wir uns im politischen Diskurs stark daran orientieren, welche Stereotype es über gewisse Wissenschaftler:innen und ihre Bereiche gibt. Die gute Nachricht ist, dass das nicht so sein muss: Durch das Internet ist es leichter denn je, Informationen aus allen Richtungen des politischen Spektrums zu finden und mit anderen Quellen zu vergleichen. Trotzdem ist klar: Der Standort bestimmt den Standpunkt. Eine große Startschwierigkeit für evidenzbasierte Politik.