Themen Mediathek Shop Lernen Veranstaltungen kurz&knapp Die bpb Meine Merkliste Geteilte Merkliste PDF oder EPUB erstellen Mehr Artikel im

Wer’s glaubt | Propaganda und Desinformation | bpb.de

Propaganda und Desinformation Editorial Lauter Lügen und Fake News? Misstrauen in die Medien und die Wahrnehmung von Desinformation und Verschwörungstheorien Von Gilgamesch zum Algorithmus. Kleine Technikgeschichte der Propaganda Wer’s glaubt. Zu den psychologischen Faktoren von Falsch- und Desinformation Kleine Geschichte des Propaganda-Vorwurfs an die politische Bildung Desinformierte Debatte. Das Thema Desinformation und eine verkorkste Richterwahl – Essay Auch Demokraten betreiben Propaganda - Essay Schild, Schwert – und Social Media. Strategien und Erscheinungsformen russischer Desinformation Propaganda der Kommunistischen Partei Chinas

Wer’s glaubt Zu den psychologischen Faktoren von Falsch- und Desinformation

Ralph Hertwig Lisa Oswald

/ 14 Minuten zu lesen

Emotionen und politische Überzeugungen prägen, wie Desinformation wahrgenommen wird. Digitale Plattformen verstärken diese Dynamiken. Umstritten bleibt, wie groß der Schaden ist – und was dagegen hilft.

Im öffentlichen und politischen Diskurs herrscht große Besorgnis über die gesellschaftlichen Folgen von Falsch- und Desinformation. Im „Global Risks Report 2025“ des Weltwirtschaftsforums stufen über 900 Experten und Expertinnen die Verbreitung von Falsch- und Desinformation als das größte globale Risiko der Gegenwart ein. Zudem gehen sie davon aus, dass es auch in zehn Jahren noch zu den fünf gravierendsten Bedrohungen gehören wird – gleich hinter Risiken, die vor allem mit der Transformation unseres Planeten zusammenhängen. Die Gründe dafür sind vielfältig. So betont der Report, dass die Verbreitung falscher oder irreführender Inhalte das geopolitische Umfeld auf vielfältige Weise destabilisieren könne; etwa durch die Einflussnahme ausländischer Akteure auf die Wahlabsichten der Bürgerinnen und Bürger, das gezielte Streuen von Zweifeln an aktuellen Geschehnissen – wie dem Klimawandel oder den Hintergründen von Konflikten – oder, was für wirtschaftliche Akteure von Bedeutung ist, etwa durch die Beschädigung des Images von importierten Produkten und Dienstleistungen.

Neben dieser Einschätzung des „Global Risks Report 2025“ spiegeln zahlreiche verhaltenswissenschaftliche Studien die große Bedeutung wider, die Falsch- und Desinformation in der Wissenschaft zugeschrieben wird. Es gibt jedoch auch kritische Stimmen aus Wissenschaft, Politik sowie von prominenten CEOs von Social-Media-Unternehmen: Sie halten die Aufmerksamkeit, die Falsch- und Desinformation im öffentlichen und wissenschaftlichen Diskurs erhalten, für übertrieben und bezeichnen sie als Panikmache, die die Häufigkeit und Reichweite von Desinformation überbewerte. Diese unterschiedlichen Sichtweisen lassen sich kaum auf einen Nenner bringen – nicht zuletzt, weil die Forschung zu Falsch- und Desinformation auf Onlineplattformen mit einer Reihe von definitorischen, epistemischen und methodischen Fallstricken konfrontiert ist. Diese umreißen wir zunächst kurz und zeigen anschließend anhand ausgewählter Befunde, wie die vorhandene Evidenz hilft, den öffentlichen Diskurs einzuordnen.

Begriffsklärung

In der Forschung werden „Falschinformationen“ als jene Inhalte verstanden, die durch unabhängige Faktenchecks eindeutig als falsch identifiziert wurden. Zunehmend werden mit diesem Begriff aber auch irreführende Informationen bezeichnet. Diese können genauso täuschen wie faktisch falsche Informationen, kommen aber wahrscheinlich deutlich häufiger vor. Wahre Aussagen können irreführend werden, wenn sie außerhalb des relevanten Kontexts verwendet werden, beispielsweise bei absoluten Zahlen ohne Vergleichswerte oder aus dem Zusammenhang gerissenen Zitaten. Darüber hinaus gibt es schwer überprüfbare Inhalte wie Narrative, die nicht eindeutig widerlegt werden können. Auch der Begriff „Propaganda“ fällt in diesen Graubereich. Propaganda umfasst „die systematische Verbreitung von Informationen, insbesondere solche, die verzerrt oder irreführend sind, mit dem Ziel, eine bestimmte politische Agenda oder Sichtweise zu befördern“.

Neben dem Begriff der „Falschinformation“ gibt es den der „Desinformation“. Die Unterscheidung zwischen beiden hängt stark mit der Art der Intention und dem Schadenspotenzial zusammen: Viele Aussagen sind zwar wörtlich genommen falsch – zum Beispiel „gestern hat es den ganzen Tag geregnet“ –, aber in den meisten Fällen völlig unproblematisch. Werden Inhalte jedoch mit der Absicht verbreitet, zu täuschen oder Schaden anzurichten, spricht man von Desinformation. Diese kann erhebliche problematische Folgen haben. Allerdings können selbst Inhalte, die nicht eindeutig falsch sind, sekundäre Schäden verursachen, indem sie beispielsweise zu einem allgemeinen Vertrauensverlust in Institutionen und Personen führen. Diese Entwicklung wird als „compression of trust“ bezeichnet: Sie äußert sich etwa in der Wahrnehmung, dass man „sowieso nichts und niemandem mehr glauben kann".

In Forschung und Praxis wird Desinformation meist anhand der jeweiligen Quelle gemessen. Auf der Basis von Faktenchecks bewerten unabhängige Dienste wie „NewsGuard“ die Vertrauenswürdigkeit ganzer Websites anhand von Kriterien wie Transparenz, journalistischen Standards oder der wiederholten Verbreitung falscher Informationen. Diese Vorgehensweise ist pragmatisch und robust, blendet aber die beschriebenen Graubereiche aus – zum Beispiel extrem parteiische Inhalte, die keine eindeutigen Falschmeldungen enthalten und dennoch verzerrend wirken. Nimmt man hingegen einzelne Aussagen ins Visier, ist die Messung differenzierter, jedoch methodisch viel anspruchsvoller – insbesondere, wenn es um kontextabhängige Irreführung oder Narrative geht, die nicht klar als „wahr“ oder „falsch“ klassifiziert werden können.

Emotionale Reaktionen

Soziale Medien können die Verbreitung von Falsch- und Desinformation auf verschiedene Weise begünstigen. Das Geschäftsmodell sozialer Medien ist es, die Aufmerksamkeit und die Daten der Nutzerinnen und Nutzer zu monetarisieren. Nutzungsverhalten wird analysiert, um demografische Merkmale, Präferenzen und Verhaltensweisen zu ermitteln. Auf dieser Basis werden dann personalisierte Inhalte zugespielt, Verhaltensweisen prognostiziert und gezielt Werbung eingeblendet. Dabei gilt: Je länger die Aufmerksamkeit der Nutzerinnen und Nutzer gebunden werden kann, desto mehr Werbung kann platziert werden. Für die Aufmerksamkeitsökonomie ist dabei wichtig, dass jene Inhalte mehr Beachtung finden, die starke emotionale Reaktionen auslösen – etwa Empörung, Angst und Wut. Entsprechende Inhalte erzielen hohe Engagement-Kennzahlen – sie werden besonders häufig geteilt, kommentiert und gelikt. Es ist daher plausibel, dass Produzenten von Desinformation diese Dynamik ausnutzen. Und in der Tat: Es gibt deutliche Hinweise darauf, dass Desinformation mit stärker emotionalisierter Sprache einhergeht. Diese Verknüpfung wird durch die Algorithmen der Medienplattformen noch verstärkt. Diese priorisieren die Reichweite und Sichtbarkeit von Inhalten anhand von Engagement-Kennzahlen und nicht anhand der inhaltlichen Qualität oder der Quellenglaubwürdigkeit. Da Inhalte, die emotionalisieren und polarisieren, das Engagement steigern, werden sie von den Algorithmen bevorzugt. Dadurch steigt wiederum die Wahrscheinlichkeit, dass sich irreführende oder falsche Behauptungen weiter und schneller verbreiten als belastbare Informationen.

Hinzu kommt, dass soziale Medien die Mechanismen der Qualitätskontrolle traditioneller Medien unterlaufen. Während journalistische Standards die Wahrhaftigkeit und eine sorgfältige Überprüfung der zur Veröffentlichung bestimmten Informationen einfordern, kann heute grundsätzlich jede Person unkontrolliert Inhalte produzieren und einem potenziell globalen Publikum zugänglich machen. Zudem entfallen in den sozialen Medien räumliche Barrieren: Menschen mit extremen Überzeugungen – etwa solche, die den menschengemachten Klimawandel rundweg leugnen – finden online leichter Gleichgesinnte. Dadurch entgehen sie der korrigierenden Wirkung lokaler sozialer Netzwerke, in denen extreme Überzeugungen oder Verschwörungserzählungen infrage gestellt werden könnten.

Nicht vertrauenswürdige Medien

Der Fokus der Forschung zum Thema Desinformation liegt bislang auf der Produktion solcher Informationen auf digitalen Plattformen. Dabei wird der Anteil von Desinformation im Angebot politischer Informationen beschrieben, die von politischen Akteuren, Medien, Journalistinnen und Journalisten, Aktivisten oder einzelnen Individuen produziert werden. Betrachtet man etwa Informationen, die von Politikern auf Twitter geteilt wurden, ergibt sich für Deutschland folgendes Bild: Mitglieder der Parteien am politischen Rand – insbesondere der AfD – teilen häufiger Inhalte aus Quellen, die nach Kriterien wie Transparenz und journalistischen Standards als wenig vertrauenswürdig eingestuft werden, als Mitglieder der Parteien der politischen Mitte.

Bislang weniger erforscht sind hingegen der Konsum und die Nachfrage von Desinformation aufseiten der Bevölkerung. Aus Umfragen zur subjektiven Wahrnehmung von Desinformation wissen wir, dass Menschen zunehmend besorgt über deren Verbreitung im digitalen Informationsumfeld sind. Im Kontext des russischen Angriffskriegs gegen die Ukraine werden Falschinformationen dabei eher als gezielte Täuschungsversuche denn als versehentliche Fehlinformationen wahrgenommen.

Die bislang präzisesten Erkenntnisse zum Konsum beziehungsweise zur Reichweite von Desinformation stammen aus Studien, die auf Webtracking-Daten basieren – also Aufzeichnungen des individuellen Browsing-Verhaltens. Für die US-Präsidentschaftswahl 2016 konnte beispielsweise nachgewiesen werden, dass nicht vertrauenswürdige Informationen vor allem von einer kleinen Gruppe sehr konservativer Menschen konsumiert wurden. Zudem gibt es systematische Zusammenhänge zwischen der Art des Medienkonsums und dem Glauben an falsche Informationen. Im deutschsprachigen Raum zeigte sich vor allem im Kontext der Corona-Pandemie ein Zusammenhang zwischen der Art des Medienkonsums (insbesondere Nachrichten aus Boulevardmedien oder sozialen Medien) und dem Glauben an Falschinformationen sowie der Wahlabsicht für die AfD.

Eine kürzlich veröffentlichte Analyse deutscher Webtracking-Daten umfasst Daten aus zwei Erhebungswellen des YouGov-Pulse-Webtracking-Panels: Dafür wurden 2017 und 2024 große Stichproben deutscher Internetnutzerinnen und -nutzer befragt. Mit Zustimmung der Teilnehmenden erfolgte zusätzlich eine Aufzeichnung des Onlineverhaltens auf der URL-Ebene. In diesen Stichproben zeigte sich, dass Besuche auf nicht vertrauenswürdigen Nachrichtenseiten nur etwa ein Prozent des gesamten Nachrichtenkonsums ausmachten. Allerdings liefern die untersuchten Browser-Trackingdaten keinen Aufschluss über die Nachrichten, die Probandinnen und Probanden zusätzlich über soziale Medien konsumierten. Hier zeigen andere Studien üblicherweise bis zu zehnfach erhöhte Anteile an Desinformation – auch in Deutschland. In der Analyse der Webtracking-Daten konnten auch einige wiederkehrende Faktoren identifiziert werden, die mit dem Konsum unzuverlässiger Nachrichten deutscher Internetuserinnen und -user zusammenhängen. Dazu zählen insbesondere eine geringe Zufriedenheit mit der Demokratie sowie eine Präferenz für die AfD. Es scheint, als gäbe es demografische und politische Variablen, die systematisch mit dem Konsum nicht vertrauenswürdiger Medien zusammenhängen.

Begünstigende Faktoren

Um die Frage zu beantworten, was Menschen empfänglich für Falschinformationen macht, haben wir Daten aus 31 Studien mit fast 12000 Teilnehmenden analysiert, die zwischen 2006 und 2023 in den USA erstellt wurden. In allen Studien wurde der Frage nachgegangen, wie gut Menschen darin sind, wahre von falschen Schlagzeilen zu unterscheiden, und von welchen Faktoren diese Fähigkeit abhängt. Unsere Metaanalyse ergab überraschenderweise, dass die Höhe des Bildungsabschlusses keinen bedeutsamen Einfluss auf diese Fähigkeit hat. Dies widerspricht der häufig geäußerten Annahme, dass mehr Bildung weniger anfällig für Falschinformationen mache, da höhere Bildung kritisches Denken fördere. Auch die Annahme, dass ältere Erwachsene anfälliger für Falschinformationen seien, wurde nicht bestätigt. Tatsächlich konnten ältere Erwachsene besser zwischen wahren und falschen Schlagzeilen unterscheiden als jüngere.

Zugleich fanden sich Hinweise auf die Bedeutung politischer Identität: Unter den Anhängerinnen und Anhängern der Republikaner ließen sich mehr Menschen von falschen Schlagzeilen täuschen als unter denen der Demokraten. Menschen mit niedrigeren analytischen Denkfähigkeiten, die eher intuitiv urteilen, schnitten insgesamt schlechter ab. In der Metaanalyse zeigte sich der stärkste Effekt in der Antworttendenz, etwas als wahr oder falsch einzuschätzen: Wenn die Teilnehmenden der Meinung waren, eine Schlagzeile schon einmal gesehen zu haben – wenn sie ihnen also vertraut vorkam –, dann neigten sie deutlich stärker dazu, diese für wahr zu halten. Dieses Ergebnis verdeutlicht die Gefahr, die von der Verbreitung von Falschinformationen in den sozialen Medien ausgeht. Je weiter sie verbreitet werden und je häufiger sie wiederholt werden, desto mehr Menschen werden sie als vertraut und daher glaubwürdig empfinden.

Umgang mit Desinformation

Die Diskussion über die Moderation von Online-Inhalten hat eine erhebliche gesellschaftliche Sprengkraft. Bei der Frage, wie man das Recht auf freie Meinungsäußerung mit der Verhinderung potenzieller Schäden durch Falsch- und Desinformation abwägen soll, gehen die Ansichten weit auseinander. Manche CEOs, wie etwa Mark Zuckerberg von Meta, spitzen das Thema auf einen Kulturkampf zwischen verfassungsrechtlich verbriefter Meinungsfreiheit in den USA und scheinbar institutionalisierter Zensur in Europa zu. Hinter der markigen Rhetorik verbergen sich allerdings auch massive Wirtschaftsinteressen. In der EU regelt der Digital Services Act (DSA), wie soziale Plattformen mit Desinformation und illegalen Inhalten umgehen müssen. Kommen die Plattformen dem DSA nicht nach, müssen sie mit hohen Strafen rechnen.

Doch wie stehen die Bürgerinnen und Bürger dazu? Wir haben dazu zwei Untersuchungen durchgeführt: In der ersten Studie haben wir mehr als 2500 US-amerikanische Personen gefragt, ob sie Beiträge in den sozialen Medien zu vier Themen mit potenziell gefährlichen Falschinformationen entfernen würden: gestohlene Wahlen, Impfgegnerschaft, Holocaustleugnung und Leugnung des Klimawandels. Den Befragten wurden hypothetische Informationen über Accounts präsentiert, darunter deren politische Ausrichtung, die Zahl der Follower, die Folgen von Falschinformationen sowie die Häufigkeit, mit der ein Account Falschinformationen verbreitet. Die Mehrheit der Befragten entschied sich dafür, Maßnahmen zu ergreifen, um die Verbreitung schädlicher Falschinformationen zu verhindern. Im Durchschnitt gaben 66 Prozent der Befragten an, dass sie die fragwürdigen Beiträge löschen würden. 78 Prozent würden Maßnahmen gegen den Account ergreifen, beispielsweise eine Verwarnung aussprechen oder den Account befristet oder unbefristet sperren. Letzteres war besonders dann der Fall, wenn die Folgen schwerwiegend waren und der Account wiederholt Falschinformationen verbreitete.

Trotz dieser klaren Mehrheitsmeinung gab es allerdings deutliche Unterschiede zwischen Republikanern und Demokraten: Während Demokraten im Schnitt über alle vier Themen hinweg mit großer Mehrheit (80,5 Prozent) angaben, gefährliche Falschinformationen entfernen zu wollen, war es bei den Republikanern nur etwa die Hälfte (47,5 Prozent). Ähnliche Präferenzen fanden wir in einer zweiten, noch nicht veröffentlichten Studie mit fast 11000 Teilnehmenden aus Deutschland, Frankreich, Polen, Spanien, Italien, Großbritannien und den USA. Mit einer Zustimmung von 66 bis 76 Prozent unterstützen die Befragten Maßnahmen gegen schädliche Falschinformationen sowohl auf Ebene der Plattformen (zum Beispiel die Entfernung fraglicher Inhalte) als auch auf Ebene der individuellen Nutzerinnen und Nutzer (zum Beispiel die Steigerung der Medienkompetenz). Dieser eindeutige öffentliche Handlungsauftrag unterstreicht die zunehmende Diskrepanz zwischen der Politik der Plattformen und den Präferenzen der Gesellschaft.

Laterales Lesen und suchbasierte Strategie

In Zeiten KI-generierter Inhalte, die oft äußerst professionell erscheinen, gewinnt die Fähigkeit, Online-Inhalte kritisch zu lesen, an Bedeutung. Wie kann man also dabei helfen, mit Falsch- und Desinformation umzugehen? Dafür haben wir eine Reihe von Techniken in einer „Werkzeugkiste“ für Wissenschaft, Politik und Gesellschaft zusammengestellt. In weiteren Untersuchungen standen dann zwei Techniken im Fokus, die Nutzerinnen und Nutzern im deutschsprachigen Online-Nachrichtenraum dabei helfen können, sich besser im Internet zurechtzufinden und das Risiko durch Falschinformationen zu reduzieren.

Die erste Technik ist das sogenannte laterale Lesen, mit dessen Hilfe die Seriosität von Websites bewertet werden kann. Dabei wird die Vertrauenswürdigkeit von Nachrichten nicht auf der entsprechenden Website selbst überprüft, sondern auf der Grundlage externer Quellen. Mithilfe von Suchmaschinen und anderer Websites wird recherchiert, was andere über die entsprechende Website und ihre Produzenten sagen. Dieser Ansatz soll verhindern, dass Menschen einer professionell gestalteten, aber nicht vertrauenswürdigen Website auf den ersten Blick Glauben schenken. Ein zentraler Baustein dieses lateralen Lesens ist das „kritische Ignorieren“ von Informationen. Nutzerinnen und Nutzer sollten trainieren, irreführende Inhalte überhaupt nicht vertieft zu lesen, um so gar nicht erst in die Fänge problematischer Inhalte zu kommen.

Die zweite Technik ist eine suchbasierte Strategie, die sich auf konkrete Inhalte und Behauptungen konzentriert. Hierbei sollen Nutzerinnen und Nutzer aktiv nach Belegen für die zentralen Aussagen in Online-Artikeln suchen und prüfen, ob diese durch unabhängige, vertrauenswürdige Quellen gestützt werden. Wie der US-amerikanische Politikwissenschaftler Kevin Aslett und seine Kollegen zeigten, birgt diese Herangehensweise jedoch die Gefahr einer konfirmatorischen Suchstrategie. Diese kann den Glauben an falsche Informationen noch verstärken. Studien zeigen, dass Menschen häufig Informationen suchen und auswählen, die ihre bestehenden Überzeugungen bestätigen (Bestätigungsfehler).

Unsere Untersuchung mit einer repräsentativen deutschen Stichprobe (mit 2666 Befragten) hat gezeigt, dass sowohl das laterale Lesen als auch die suchbasierte Strategie dabei helfen, vertrauenswürdige Quellen und glaubwürdige Informationen von unzuverlässigen oder falschen zu unterscheiden – ohne unerwünschte Nebenwirkungen. Darüber hinaus fanden wir heraus, dass die Technik des lateralen Lesens auch unter Anhängern populistischer und rechtsextremer Parteien Wirkung zeigte. Beide Ansätze waren zudem für jüngere Menschen und Personen mit niedrigerem Bildungsniveau besonders nützlich.

Bislang wurde kaum untersucht, wie Desinformation spezifische Gruppen innerhalb der deutschen Bevölkerung beeinflusst. Eine Studie hat jedoch gezeigt, dass Personen mit russischem Migrationshintergrund, die russische Medien regelmäßig nutzen, stärker für prorussische Narrative im Kontext des Ukrainekriegs empfänglich sind. Gleichzeitig zeigte diese Untersuchung, dass Inokulation – also das gezielte Vorwarnen und Aufklären über spezifische Desinformationsstrategien – in dieser Gruppe effektiv wirkte. Sie stärkte die Fähigkeit, Desinformation als solche zu erkennen und als weniger glaubwürdig einzustufen. Zudem förderte sie die Zuschreibung der Verantwortung für den Krieg an Russland und erhöhte die Solidarität mit der Ukraine.

Fazit

Die verhaltens- und sozialwissenschaftliche Forschung zu Falsch- und Desinformation ist in gewisser Hinsicht ein Minenfeld. Gerade weil sie in den USA durch die Regierung unter Donald Trump unter Druck geraten ist, ist es aus unserer Sicht umso wichtiger, dass die europäische Wissenschaftsgemeinschaft die Themen Falsch- und Desinformation im Kontext der fundamentalen digitalen Transformation der Öffentlichkeit empirisch untersucht. Zudem sollte die deutsche und europäische Politik diese Herausforderungen aktiv gestalten. Dazu ist es notwendig, dass Plattformen den Austausch von Daten und die Schaffung öffentlichen Wissens unterstützen oder dies zumindest nicht verhindern. Die Wissenschaft hat die Aufgabe, die definitorischen, epistemischen und methodologischen Herausforderungen – einschließlich der Frage nach Kausalität oder Korrelation von Falsch- und Desinformation sowie die potenziellen gesellschaftlichen Schäden für Gesundheit und Demokratie – kritisch zu reflektieren und empirisch zu evaluieren.

Fussnoten

Fußnoten

  1. Vgl. World Economic Forum, Global Risks Report 2025, Genf 2025.

  2. Vgl. Andreas Jungherr/Ralph Schroeder, Disinformation and the Structural Transformations of the Public Arena: Addressing the Actual Challenges to Democracy, in: Social Media + Society 1/2021, Externer Link: https://doi.org/10.1177/205630512198.

  3. Vgl. Ceren Budak et al., Misunderstanding the Harms of Online Misinformation, in: Nature 8015/2024, S. 45–53; Ullrich Ecker et al., Misinformation Poses a Bigger Threat to Democracy Than You Might Think, in: Nature 8015/2024, S. 29–32.

  4. Vgl. Jennifer Allen et al., Evaluating the Fake News Problem at the Scale of the Information Ecosystem, in: Science Advances 6/2020, Externer Link: https://doi.org/10.1126/sciadv.aay3539; Sander van der Linden/Yara Kyrychenko, A Broader View of Misinformation Reveals Potential for Intervention, in: Science 6699/2024, S. 959f.

  5. Oxford English Dictionary, Propaganda, o.D., Externer Link: https://www.oed.com/dictionary/propaganda_n, eigene Übersetzung.

  6. Vgl. Mike Caulfield/Sam Wineburg, Verified: How to Think Straight, Get Duped Less, and Make Better Decisions About What to Believe Online, Chicago 2023.

  7. Siehe Externer Link: https://www.newsguardtech.com.

  8. Vgl. Benjamin Lyons/Jacob M. Montgomery/Jason Reifler, Partisanship and Older Americans’ Engagement With Dubious Political News, in: Public Opinion Quarterly 3/2024, S. 962–990.

  9. Vgl. Meysam Alizadeh et al., Content-Based Features Predict Social Media Influence Operations, in: Science Advances 30/2020.

  10. Vgl. Jay J. Van Bavel et al., Social Media and Morality, in: Annual Review of Psychology 1/2024, S. 311–340.

  11. Vgl. Carlos Carrasco-Farré, The Fingerprints of Misinformation: How Deceptive Content Differs From Reliable Sources in Terms of Cognitive Effort and Appeal to Emotions, in: Humanities and Social Sciences Communications 1/2022, Externer Link: https://doi.org/10.1057/s41599-022-01174-9.

  12. Vgl. Soroush Vosoughi/Deb Roy/Sinan Aral, The Spread of True and False News Online, in: Science 6380/2018, S. 1146–1151.

  13. Vgl. Presserat, Pressekodex, 19.3.2025, Externer Link: https://www.presserat.de/pressekodex.html.

  14. Vgl. Jana Lasser et al., Social Media Sharing of Low-Quality News Sources by Political Elites, in: PNAS Nexus 4/2022, Externer Link: https://doi.org/10.1093/pnasnexus/pgac186.

  15. Vgl. Nic Newman et al., Reuters Institute Digital News Report 2025, Oxford 2025.

  16. Vgl. Michael Hameleers et al., Mistakenly Misinformed or Intentionally Deceived? Mis- and Disinformation Perceptions on the Russian War in Ukraine Among Citizens in 19 Countries, in: European Journal of Political Research 4/2024, S. 1642–1654.

  17. Vgl. Andrew M. Guess/Brendan Nyhan/Jason Reifler, Exposure to Untrustworthy Websites in the 2016 US Election, in: Nature Human Behaviour 5/2020, S. 472–480.

  18. Vgl. Camila Mont’Alverne et al., The Electoral Misinformation Nexus: How News Consumption, Platform Use, and Trust in News Influence Belief in Electoral Misinformation, in: Public Opinion Quarterly S1/2024, S. 681–707.

  19. Vgl. Ernesto de León/Mykola Makhortykh/Silke Adam, Hyperpartisan, Alternative, and Conspiracy Media Users: An Anti-Establishment Portrait, in: Political Communication 6/2024, S. 877–902; Christina Leuker et al., Misinformation in Germany During the Covid-19 Pandemic: A Cross-Sectional Survey on Citizens’ Perceptions and Individual Differences in the Belief in False Information, in: European Journal of Health Communication 2/2022, S. 13–39.

  20. Vgl. Lisa Oswald/Simon Munzert, Exposure to Untrustworthy News Media Then and Now: Declining News Media Quality Over 7 Years, SocArXiv Working Paper 2025.

  21. Vgl. Sacha Altay/Rasmus Kleis Nielsen/Richard Fletcher, Quantifying the „Infodemic“: People Turned to Trustworthy News Outlets During the 2020 Coronavirus Pandemic, in: Journal of Quantitative Description: Digital Media 2022, Externer Link: http://dx.doi.org/10.51685/jqd.2022.020.

  22. Vgl. Mubashir Sultan et al., Susceptibility to Online Misinformation: A Systematic Meta-Analysis of Demographic and Psychological Factors, in: Proceedings of the National Academy of Sciences 47/2024, Externer Link: https://doi.org/10.1073/pnas.2409329121.

  23. Vgl. Daniel Leisegang/Tomas Rudl, Zuckerbergs Kehrtwende: Meta goes MAGA, 8.1.2025, Externer Link: https://netzpolitik.org/2025/zuckerbergs-kehrtwende-meta-goes-maga.

  24. Vgl. Anastasia Kozyreva et al., Resolving Content Moderation Dilemmas Between Free Speech and Harmful Misinformation, in: Proceedings of the National Academy of Sciences 7/2023, Externer Link: https://doi.org/10.1073/pnas.2210666120.

  25. Vgl. Anastasia Kozyreva et al., Interventions Against Harmful Misinformation in the EU, UK, and US, 2025 (unveröff.).

  26. Vgl. dies. et al., Toolbox of Individual-Level Interventions Against Online Misinformation, in: Nature Human Behaviour 6/2024, S. 1044–1052.

  27. Vgl. Lisa Oswald et al., Boosting Media Literacy Using Lateral Reading and Online Search Interventions, EU Horizon Project Deliverable Report 2025, Externer Link: https://files-www.mis.mpg.de/mpi-typo3/SoMe4Dem/Deliverables/D4.2_SoMe4Dem.pdf.

  28. Vgl. Sam Wineburg et al., Lateral Reading on the Open Internet: A District-Wide Field Study in High School Government Classes, in: Journal of Educational Psychology 5/2022, S. 893–909.

  29. Vgl. Anastasia Kozyreva et al., Critical Ignoring as a Core Competence for Digital Citizens, in: Current Directions in Psychological Science 1/2023, S. 81–88.

  30. Vgl. Kevin Aslett et al., Online Searches to Evaluate Misinformation Can Increase Its Perceived Veracity, in: Nature 625/2023, S. 1–9.

  31. Vgl. Stefan Schulz-Hardt et al., Biased Information Search in Group Decision Making, in: Journal of Personality and Social Psychology 4/2000, S. 655–669.

  32. Vgl. Carolin-Theresa Ziemer et al., Identity Is Key, But Inoculation Helps – How to Empower Germans of Russian Descent Against Pro-Kremlin Disinformation, in: advances.in/psychology 2/2024, Externer Link: https://doi.org/10.56296/aip00015.

  33. Vgl. Philipp Lorenz-Spreen et al., A Systematic Review of Worldwide Causal and Correlational Evidence on Digital Media and Democracy, in: Nature Human Behaviour 1/2023, S. 74–101.

Lizenz

Dieser Text ist unter der Creative Commons Lizenz "CC BY-NC-ND 3.0 DE - Namensnennung - Nicht-kommerziell - Keine Bearbeitung 3.0 Deutschland" veröffentlicht. Autoren/-innen: Ralph Hertwig, Lisa Oswald für Aus Politik und Zeitgeschichte/bpb.de

Sie dürfen den Text unter Nennung der Lizenz CC BY-NC-ND 3.0 DE und der Autoren/-innen teilen.
Urheberrechtliche Angaben zu Bildern / Grafiken / Videos finden sich direkt bei den Abbildungen.
Sie wollen einen Inhalt von bpb.de nutzen?

ist Direktor am Max-Planck-Institut für Bildungsforschung in Berlin und leitet den Forschungsbereich Adaptive Rationalität.

ist Wissenschaftlerin am Max-Planck-Institut für Bildungsforschung in Berlin.