Im öffentlichen und politischen Diskurs herrscht große Besorgnis über die gesellschaftlichen Folgen von Falsch- und Desinformation. Im „Global Risks Report 2025“ des Weltwirtschaftsforums stufen über 900 Experten und Expertinnen die Verbreitung von Falsch- und Desinformation als das größte globale Risiko der Gegenwart ein.
Neben dieser Einschätzung des „Global Risks Report 2025“ spiegeln zahlreiche verhaltenswissenschaftliche Studien die große Bedeutung wider, die Falsch- und Desinformation in der Wissenschaft zugeschrieben wird. Es gibt jedoch auch kritische Stimmen aus Wissenschaft, Politik sowie von prominenten CEOs von Social-Media-Unternehmen: Sie halten die Aufmerksamkeit, die Falsch- und Desinformation im öffentlichen und wissenschaftlichen Diskurs erhalten, für übertrieben und bezeichnen sie als Panikmache, die die Häufigkeit und Reichweite von Desinformation überbewerte.
Begriffsklärung
In der Forschung werden „Falschinformationen“ als jene Inhalte verstanden, die durch unabhängige Faktenchecks eindeutig als falsch identifiziert wurden. Zunehmend werden mit diesem Begriff aber auch irreführende Informationen bezeichnet. Diese können genauso täuschen wie faktisch falsche Informationen, kommen aber wahrscheinlich deutlich häufiger vor.
Neben dem Begriff der „Falschinformation“ gibt es den der „Desinformation“. Die Unterscheidung zwischen beiden hängt stark mit der Art der Intention und dem Schadenspotenzial zusammen: Viele Aussagen sind zwar wörtlich genommen falsch – zum Beispiel „gestern hat es den ganzen Tag geregnet“ –, aber in den meisten Fällen völlig unproblematisch. Werden Inhalte jedoch mit der Absicht verbreitet, zu täuschen oder Schaden anzurichten, spricht man von Desinformation. Diese kann erhebliche problematische Folgen haben. Allerdings können selbst Inhalte, die nicht eindeutig falsch sind, sekundäre Schäden verursachen, indem sie beispielsweise zu einem allgemeinen Vertrauensverlust in Institutionen und Personen führen. Diese Entwicklung wird als „compression of trust“ bezeichnet:
In Forschung und Praxis wird Desinformation meist anhand der jeweiligen Quelle gemessen. Auf der Basis von Faktenchecks bewerten unabhängige Dienste wie „NewsGuard“
Emotionale Reaktionen
Soziale Medien können die Verbreitung von Falsch- und Desinformation auf verschiedene Weise begünstigen. Das Geschäftsmodell sozialer Medien ist es, die Aufmerksamkeit und die Daten der Nutzerinnen und Nutzer zu monetarisieren. Nutzungsverhalten wird analysiert, um demografische Merkmale, Präferenzen und Verhaltensweisen zu ermitteln. Auf dieser Basis werden dann personalisierte Inhalte zugespielt, Verhaltensweisen prognostiziert und gezielt Werbung eingeblendet. Dabei gilt: Je länger die Aufmerksamkeit der Nutzerinnen und Nutzer gebunden werden kann, desto mehr Werbung kann platziert werden. Für die Aufmerksamkeitsökonomie ist dabei wichtig, dass jene Inhalte mehr Beachtung finden, die starke emotionale Reaktionen auslösen – etwa Empörung, Angst und Wut. Entsprechende Inhalte erzielen hohe Engagement-Kennzahlen – sie werden besonders häufig geteilt, kommentiert und gelikt.
Hinzu kommt, dass soziale Medien die Mechanismen der Qualitätskontrolle traditioneller Medien unterlaufen. Während journalistische Standards die Wahrhaftigkeit und eine sorgfältige Überprüfung der zur Veröffentlichung bestimmten Informationen einfordern,
Nicht vertrauenswürdige Medien
Der Fokus der Forschung zum Thema Desinformation liegt bislang auf der Produktion solcher Informationen auf digitalen Plattformen. Dabei wird der Anteil von Desinformation im Angebot politischer Informationen beschrieben, die von politischen Akteuren, Medien, Journalistinnen und Journalisten, Aktivisten oder einzelnen Individuen produziert werden. Betrachtet man etwa Informationen, die von Politikern auf Twitter geteilt wurden, ergibt sich für Deutschland folgendes Bild: Mitglieder der Parteien am politischen Rand – insbesondere der AfD – teilen häufiger Inhalte aus Quellen, die nach Kriterien wie Transparenz und journalistischen Standards als wenig vertrauenswürdig eingestuft werden, als Mitglieder der Parteien der politischen Mitte.
Bislang weniger erforscht sind hingegen der Konsum und die Nachfrage von Desinformation aufseiten der Bevölkerung. Aus Umfragen zur subjektiven Wahrnehmung von Desinformation wissen wir, dass Menschen zunehmend besorgt über deren Verbreitung im digitalen Informationsumfeld sind.
Die bislang präzisesten Erkenntnisse zum Konsum beziehungsweise zur Reichweite von Desinformation stammen aus Studien, die auf Webtracking-Daten basieren – also Aufzeichnungen des individuellen Browsing-Verhaltens. Für die US-Präsidentschaftswahl 2016 konnte beispielsweise nachgewiesen werden, dass nicht vertrauenswürdige Informationen vor allem von einer kleinen Gruppe sehr konservativer Menschen konsumiert wurden.
Eine kürzlich veröffentlichte Analyse deutscher Webtracking-Daten umfasst Daten aus zwei Erhebungswellen des YouGov-Pulse-Webtracking-Panels: Dafür wurden 2017 und 2024 große Stichproben deutscher Internetnutzerinnen und -nutzer befragt. Mit Zustimmung der Teilnehmenden erfolgte zusätzlich eine Aufzeichnung des Onlineverhaltens auf der URL-Ebene.
Begünstigende Faktoren
Um die Frage zu beantworten, was Menschen empfänglich für Falschinformationen macht, haben wir Daten aus 31 Studien mit fast 12000 Teilnehmenden analysiert, die zwischen 2006 und 2023 in den USA erstellt wurden.
Zugleich fanden sich Hinweise auf die Bedeutung politischer Identität: Unter den Anhängerinnen und Anhängern der Republikaner ließen sich mehr Menschen von falschen Schlagzeilen täuschen als unter denen der Demokraten. Menschen mit niedrigeren analytischen Denkfähigkeiten, die eher intuitiv urteilen, schnitten insgesamt schlechter ab. In der Metaanalyse zeigte sich der stärkste Effekt in der Antworttendenz, etwas als wahr oder falsch einzuschätzen: Wenn die Teilnehmenden der Meinung waren, eine Schlagzeile schon einmal gesehen zu haben – wenn sie ihnen also vertraut vorkam –, dann neigten sie deutlich stärker dazu, diese für wahr zu halten. Dieses Ergebnis verdeutlicht die Gefahr, die von der Verbreitung von Falschinformationen in den sozialen Medien ausgeht. Je weiter sie verbreitet werden und je häufiger sie wiederholt werden, desto mehr Menschen werden sie als vertraut und daher glaubwürdig empfinden.
Umgang mit Desinformation
Die Diskussion über die Moderation von Online-Inhalten hat eine erhebliche gesellschaftliche Sprengkraft. Bei der Frage, wie man das Recht auf freie Meinungsäußerung mit der Verhinderung potenzieller Schäden durch Falsch- und Desinformation abwägen soll, gehen die Ansichten weit auseinander. Manche CEOs, wie etwa Mark Zuckerberg von Meta,
Doch wie stehen die Bürgerinnen und Bürger dazu? Wir haben dazu zwei Untersuchungen durchgeführt: In der ersten Studie haben wir mehr als 2500 US-amerikanische Personen gefragt, ob sie Beiträge in den sozialen Medien zu vier Themen mit potenziell gefährlichen Falschinformationen entfernen würden: gestohlene Wahlen, Impfgegnerschaft, Holocaustleugnung und Leugnung des Klimawandels.
Trotz dieser klaren Mehrheitsmeinung gab es allerdings deutliche Unterschiede zwischen Republikanern und Demokraten: Während Demokraten im Schnitt über alle vier Themen hinweg mit großer Mehrheit (80,5 Prozent) angaben, gefährliche Falschinformationen entfernen zu wollen, war es bei den Republikanern nur etwa die Hälfte (47,5 Prozent). Ähnliche Präferenzen fanden wir in einer zweiten, noch nicht veröffentlichten Studie mit fast 11000 Teilnehmenden aus Deutschland, Frankreich, Polen, Spanien, Italien, Großbritannien und den USA.
Laterales Lesen und suchbasierte Strategie
In Zeiten KI-generierter Inhalte, die oft äußerst professionell erscheinen, gewinnt die Fähigkeit, Online-Inhalte kritisch zu lesen, an Bedeutung. Wie kann man also dabei helfen, mit Falsch- und Desinformation umzugehen? Dafür haben wir eine Reihe von Techniken in einer „Werkzeugkiste“ für Wissenschaft, Politik und Gesellschaft zusammengestellt.
Die erste Technik ist das sogenannte laterale Lesen, mit dessen Hilfe die Seriosität von Websites bewertet werden kann. Dabei wird die Vertrauenswürdigkeit von Nachrichten nicht auf der entsprechenden Website selbst überprüft, sondern auf der Grundlage externer Quellen. Mithilfe von Suchmaschinen und anderer Websites wird recherchiert, was andere über die entsprechende Website und ihre Produzenten sagen.
Die zweite Technik ist eine suchbasierte Strategie, die sich auf konkrete Inhalte und Behauptungen konzentriert. Hierbei sollen Nutzerinnen und Nutzer aktiv nach Belegen für die zentralen Aussagen in Online-Artikeln suchen und prüfen, ob diese durch unabhängige, vertrauenswürdige Quellen gestützt werden. Wie der US-amerikanische Politikwissenschaftler Kevin Aslett und seine Kollegen zeigten, birgt diese Herangehensweise jedoch die Gefahr einer konfirmatorischen Suchstrategie.
Unsere Untersuchung mit einer repräsentativen deutschen Stichprobe (mit 2666 Befragten) hat gezeigt, dass sowohl das laterale Lesen als auch die suchbasierte Strategie dabei helfen, vertrauenswürdige Quellen und glaubwürdige Informationen von unzuverlässigen oder falschen zu unterscheiden – ohne unerwünschte Nebenwirkungen. Darüber hinaus fanden wir heraus, dass die Technik des lateralen Lesens auch unter Anhängern populistischer und rechtsextremer Parteien Wirkung zeigte. Beide Ansätze waren zudem für jüngere Menschen und Personen mit niedrigerem Bildungsniveau besonders nützlich.
Bislang wurde kaum untersucht, wie Desinformation spezifische Gruppen innerhalb der deutschen Bevölkerung beeinflusst. Eine Studie hat jedoch gezeigt, dass Personen mit russischem Migrationshintergrund, die russische Medien regelmäßig nutzen, stärker für prorussische Narrative im Kontext des Ukrainekriegs empfänglich sind.
Fazit
Die verhaltens- und sozialwissenschaftliche Forschung zu Falsch- und Desinformation ist in gewisser Hinsicht ein Minenfeld. Gerade weil sie in den USA durch die Regierung unter Donald Trump unter Druck geraten ist, ist es aus unserer Sicht umso wichtiger, dass die europäische Wissenschaftsgemeinschaft die Themen Falsch- und Desinformation im Kontext der fundamentalen digitalen Transformation der Öffentlichkeit empirisch untersucht. Zudem sollte die deutsche und europäische Politik diese Herausforderungen aktiv gestalten. Dazu ist es notwendig, dass Plattformen den Austausch von Daten und die Schaffung öffentlichen Wissens unterstützen oder dies zumindest nicht verhindern. Die Wissenschaft hat die Aufgabe, die definitorischen, epistemischen und methodologischen Herausforderungen – einschließlich der Frage nach Kausalität oder Korrelation von Falsch- und Desinformation sowie die potenziellen gesellschaftlichen Schäden für Gesundheit und Demokratie