"A journalist who is also a bad programmer, stylized in the style of Gary Larson"

Wie unser Geist die Wirklichkeit verzerrt – der Zettelkasten des postrationalen Journalisten

Etwas, das m.E. in den Diskussionen um Netzfakes, Stimmungsmache, Hasskommentare, Trolle, Bots… zu kurz kommt: der Blick darauf, wie anfällig wir sind für psychologische und soziologische Manipulationen.

Das treibt mich seit einiger Zeit um; hier als Hirndump mein Zettelkasten: Einige der Verzerrungen, die unser informationsverarbeitender Apparat produziert – die von Propagandisten ausgenutzt werden und die wir auch deshalb kennen und berücksichtigen sollten.

Die Wissenschaft hinter den Stichworten ist das, was wir Feld-, Wald- und Wiesen-Journalisten dafür halten. Sollte also jemand, der Expertenwissen mitbringt, eine Einschränkung oder Ergänzung haben, würde ich mich sehr darüber freuen.

Zuletzt aktualisiert: April 2023

Lesetipps:

  • Carol Tavris, Eliot Aronson, Mistakes were made (but not by me). [Wikipedia] Die beiden Sozialpsychologen schreiben extrem unterhaltsam über unsere Neigung, an einmal getroffenen Entscheidungen und Einschätzungen festzuhalten – egal, was die Fakten sagen. Und überraschende Befunde zum Beispiel zur Frage: Selbstbeherrschung – oder besser mal alles rauslassen? →Kognitive Dissonanz
  • Daniel Kahneman,Schnelles Denken, langsames Denken.[Verlagsseite]. Das Lebenswerk eines der Mitbegründer der Rationalitätsforschung – beschreibt Effekte wie →Ankern, →Kohärenzheuristik und →Sichtbarkeitsheuristik und ordnet sie in sein Modell der zwei Systeme (das assoziativ-automatische und das bewusst-rationale) ein. Sehr lesenswert.
  • Christopher Chabris, Daniel Simons, The Invisible Gorilla. [Verlagsseite] Von Experiment mit dem Schauspieler, der unbemerkt im Gorillakostüm durch ein Basketballspiel spaziert, haben Sie vielleicht gehört – das Grundthema dieses Buchs ist, wie leicht wir uns täuschen, und wie wenig wir es wahrhaben wollen. Unterhaltsam, leicht geschrieben, fundiert.
  • Gerd Gigerenzer, Bauchentscheidungen: Die Intelligenz des Unbewussten und die Macht der Intuition [Verlagsseite]. Die ideale Ergänzung zu Kahneman: Nachdem „Schnelles Denken…“ uns eine Heidenangst vor den Täuschungen des Systems 1 eingejagt hat, lehrt Gigerenzer uns die „Heuristiken“, die mentalen Abkürzungen, schätzen: Heuristiken produzieren nicht nur schnellere Entscheidungen als bewusstes Abwägen, sondern häufig auch bessere!
  • Ralf Heimann, Kleine Wissenschaft des Fehlers [PDF] Ein E-Book, dass der preisgekrönte Journalist für das BILDBlog verfasst hat, und das die Auswirkungen kognitiver Verzerrungen im Journalismus nachzeichnet. Pflichtlektüre für alle, die sich selbst auf die Schliche kommen wollen.
  • Elisabeth Wehling, Politisches Framing. Wie eine Nation sich ihr Denken einredet – und daraus Politik macht[Verlagsseite]. Weniger ein Wissenschaftsbuch als eine (tendenziell linksliberale) Streitschrift, trotzdem lesens- und bedenkenswert. Wer sich das Buch sparen will, schaue sich wenigstens Wehlings Vortrag auf der re:publica17 an: [Youtube-Video]
  • Wer Spaß an so was hat, sollte sich außerdem Bücher und Artikel von Dan Ariely anschauen – er forscht rund um kognitive Verzerrungen der Rationalität, aus der Perspektive eines Volkswirts, kann die Einsichten sehr unterhaltsam auf den Punkt bringen und hat mit „Arming the donkeys“ auch einen sehr guten Wissenschafts- und Rationalitäts-Podcast gemacht.
  • Auch sehr lesenswert (und nachttischtauglich): Die FAZ-Kolumnen von Rolf Dobelli, gesammelt in den Bestsellern Die Kunst des klaren Denkens und Die Kunst des klugen Handelns. [Autorenseite]
  • Das Poster zum Ausdrucken: 20 kognitive Verzerrungen, zusammengestellt vom [Business Insider].
  • Netzpropaganda zum Durchspielen: [„GetBadNews“] und [Fake it to make it – build your own fake news empire]. Beides sehr lehrreich und sehr lustig.

Stichworte:

  • Aggression: Sorgt für Aktivierung des Stress-Systems (Stichwort: „Four F“) und fährt die Reflexion zugunsten schneller, fokussierter Reaktionen herunter – wir schießen aus der Hüfte. Und der →Troll hat sein Ziel erreicht.
  • Ankern: Eine Form des →Framings. Eine einmal gehörte Information (z.B. eine Zahl) beeinflusst unsere Entscheidungsfindung in der Folge, auch wenn sie mit der Entscheidung möglicherweise gar nichts zu tun hat. Mehr dazu bei Kahneman.
  • Autoritäre Persönlichkeit: ein psychologisches Profil, das Menschen für autoritäre Führer und Strukturen empfänglich macht – und das sich interessanterweise durch Fragen nach der Haltung zur Kindererziehung gut messen lässt („Soll ein Kind eher unabhängig sein oder Respekt vor Älteren haben?“) Bei Menschen, die nicht autoritär strukturiert sind, lässt sich Autoritarismus durch ein Gefühl der Bedrohung aktivieren: →Polarisierung und Alarmismus nutzen den Despoten. [Guter Hintergrundartikel von vox.com im Lichte des US-Wahlkampfs]
  • Bandwagon-Effekt, Mehrheitseffekt: Die Neigung, sich der Mehrheitsmeinung anzuschließen. [Lexikonartikel]→Gruppengröße, →Mehrheitsillusion
  • Bumerang-Effekt: Die Beobachtung, dass Menschen, die z.B. an eine Verschwörungstheorie glauben, durch entgegenstehende Informationen in ihrem Glauben sogar bestärkt werden – wäre nicht etwas dran, würden sich „die“ ja nicht so feindlich gegen sie verhalten. Neuere Forschung sagt allerdings: der „backfire effect“ wurde womöglich überschätzt. [Die Diskussion dargestellt bei The Cut], Hostile-Media-Effekt
  • Desinformatzija, PsyOps: die psychologische Kriegsführung des kalten Krieges für den Infokrieg im Netz recycelt – nach Meinung professioneller Richtigsteller zum Teil von denselben staatlichen Akteuren (z.B. russische): „Dismiss, distort, distract, dismay“ – auch bei Facebook und Twitter. [Analyse: Institute for European Studies]. Lesenswerte [NYT-Reportage über die Petersburger „Trollfabrik“]
  • Dunning-Kruger-Effekt:  Anderer Name für den →Overconfidence Bias (oder auf gut deutsch: für systematische Selbstüberschätzung). Dunning und Kruger sind zwei US-Psychologen, die 1999 mit einem raffinierten Experiment belegten, dass Menschen, die etwas am wenigsten konnten, zugleich tendenziell die mit dem höchsten Vertrauen in die eigenen Fähigkeiten und das eigene Wissen waren.
  • Echokammern: z.B. Facebook-Gruppen, in denen sich Anhänger einer bestimmten Meinung/Sichtweise gegenseitig bestärken und mit Informationen versorgen. Sorgen auch für überproportionale Verbreitung der entsprechenden Nachrichten. [Bachelorarbeit dazu]
  • Faktencheck, professioneller: Ist das ein Fake? Kann ich der Quelle trauen? Bei der Beantwortung dieser Frage sind Profis effizienter – also schneller – und besser als normale Nutzer, weil sie sofort mit anderen Quellen quervergleichen, anstatt – wie die Laien – innerhalb der Quelle nach Beweisen für faules Spiel zu suchen (und damit der →Kohärenzheuristik zum Opfer fallen). Fazit einer [Studie von Stanford-Historikern]
  • Framing: Das (bewusste) Setzen eines Kontexts, in dem Informationen aufgenommen werden – das Wort „Diesel“ wird völlig unterschiedlich aufgenommen, je nachdem, ob wir dazu „Skandal“ sagen, „Fahrverbote und Autofahrer“ oder „Wirtschaftsstandort“. Propagiert wird der Begriff von der Sprach- und Kognitionsforscherin Elisabeth Wehling.
  • Glaubwürdigkeit: Messen Netznutzer eher daran, wie weit sie demjenigen trauen, der die Information geteilt hat, als der Quelle der Information. [Artikel über die Erkenntnisse des American Press Institute mit Link zur Originalstudie].
  • Gruppengröße: Auch wenn der Anteil von Spinnern an der Facebook-Bevölkerung klein ist – durch ihre intensive Vernetzung kommen ganz erkleckliche Gruppengrößen zusammen. →Mehrheitsillusion
  • Hostile-Media-Effekt: Je umstrittener ein Thema, desto schlechter die Chancen von Medien, als unparteiisch wahrgenommen zu werden. [Das Journalismus-Labor Nieman Lab zum Umgang mit dem Hostile-Media-Effekt]
  • Kognitive Dissonanz: Die Anstrengung, die uns Informationen abfordern, die unsere Einstellungen und Werturteile nicht bestätigen. Das Gehirn vermeidet sie gern. →Selektive Wahrnehmung
  • Kohärenzheuristik: Unser Gehirn verwechselt Stimmigkeit mit Glaubwürdigkeit: Je in sich stimmiger eine Information bzw. ein Narrativ ist, desto glaubwürdiger. Erklärt vielleicht die Anziehungskraft in sich geschlossener Verschwörungstheorien, die so viel stimmiger sind als die komplizierte Realität. Mehr dazu bei Kahneman.
  • Mere-Exposure-Effekt: Wenn wir mit einer Information/Sichtweise bereits konfrontiert waren, sehen wir sie positiver – unabhängig von der Glaubwürdigkeit der Quelle, die wir irgendwann vergessen. [Spektrum der Wissenschaft]
  • Mehrheitsillusion: Netzwerkstrukturen können dazu führen, dass wir die tatsächliche Stärke von Überzeugungen/Verhaltensweisen überschätzen – vor allem in der Facebook-Filterblase: Als hessenschau.de über den Hessentrend 2017 schrieb („Angst vor Flüchtlingen in Hessen hat nachgelassen“), war die häufigste Reaktion bei Facebook: Das kann doch nicht sein, ich erlebe es in meinem Facebook-Umfeld doch ganz anders. Die hs.de-Antwort: Eben. [Paper über die Mehrheitsillusion], tolles (wissenschaftlich unterfüttertes) Newsgame über Netzwerk-Effekte: [Nicky Case]
  • Motivated Reasoning: Unsere unbewusste Neigung, Argumentationsketten vom erwünschten Resultat her zu denken (siehe auch →selektive Wahrnehmung). Beispiel: [Im Experiment] neigten Testpersonen, die einen Menschen sexuell attraktiv fanden, dazu, zu begründen, warum diese Person bestimmt nicht mit AIDS infiziert sein könnte.
  • Overconfidence Bias: die menschliche Neigung, zu viel Vertrauen in die eigenen Fähigkeiten zu haben – also: Selbstüberschätzung – und die eigenen Chancen höher einzuschätzen, als sie eigentlich sind. Vielleicht ist letzteres ein Glück – ohne eine systematische Überschätzung der Erfolgschancen [würde womöglich niemand ein Startup gründen.]
  • Peak-End-Regel: Wer sich an ein Fußballspiel seiner Lieblingsmannschaft erinnern soll, erinnert sich in der Regel an das letzte oder an das besonders spektakuläre („weißt du noch, als uns Stuttgart in den letzten Sekunden die Meisterschaft genommen hat?“) [Eintrag im Lexikon der Verhaltensökonomik]
  • Polarisierung: Nutzer zwingen, selbst eine Position zu beziehen – dafür oder dagegen? Je stärker ein Thema als polarisiert wahrgenommen wird, desto eher greifen Effekte wie →Bumerang-Effekt, →Hostile-Media-Effekt,; desto eher kommen →autoritäre Persönlichkeitsmerkmale zum Tragen.
  • Selektive Wahrnehmung: Unsere Tendenz, →kognitive Dissonanzen zu vermeiden, lässt uns Informationen besser aufnehmen, wenn sie unsere Annahmen bestätigen. („Cognitive bias“). Wirkt auch in der Rückschau: Erfolgreiche Unternehmer sind überzeugt, sie verdanken ihren Erfolg ihrer robusten Persönlichkeit (und nicht dem Zufall, der sie überleben ließ; all die Unternehmer, die ebenso überzeugt waren, aber scheiterten, kommen nie zu Wort – „survivorship bias“); Entscheidungen, die wir einmal getroffen haben, sehen wir als tendenziell richtig („choice-supportive bias“).
  • Sichtbarkeitsirrtum, „availability heuristic“: Je besser wir uns an etwas erinnern können, für desto wahrscheinlicher halten wir es. In Zusammenhang mit der →Peak-End-Regel verantwortlich für die Überschätzung von Terrorgefahr und Flugangst: Extremereignisse merken wir uns eben. Kanäle wie „Einzelfall XY“, die automatisch nur die Polizeimeldungen mit mutmaßlicher Beteiligung von Ausländern weiterverbreiten, wollen die Sichtbarkeit von Ausländerkriminalität erhöhen und diesen Effekt ausnutzen. [Eintrag im Lexikon der Verhaltensökonomik] Mehr dazu bei Kahneman.
  • Sunk Cost Fallacy: Etwas, in das wir investiert haben – auch emotional – halten wir für besser und wertvoller, als es möglicherweise ist (Dan Ariely nennt das mit Blick auf Ivar den Schrecklichen den „Ikea-Effekt“). Könnte einer der Gründe für →Motivated Reasoning sein, unsere Neigung, uns einmal getroffene Entscheidungen schön zu reden.
  • Trolling: Dialog im Netz durch absichtliche Provokation zerstören. →Aggression, →Polarisierung Trolle sind zwar die absolute Ausnahme, verursachen aber viel Aufmerksamkeit. Der alte Ratschlag „Don’t feed the troll“ kann leider nur bedingt gelten – wenn sich die Trollkommentare tot laufen, kann es schon zu spät sein; die Diskussionskultur ist futsch, weil sie andere anstecken – die Grenzen des Sagbaren werden von ihnen verschoben. Forscher attestieren Trollen sadistische Persönlichkeitsstrukturen. [Vortragsfolien zum Forschungsstand von Dr. Dominique Heinbach, Uni Düsseldorf, auf der DJV-Tagung besser online]. Porträt eines Alpha-Trolls: [„Ich bin der Troll“ – FAZ über Uwe Ostertag]

Kommentare

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert