Filmstill aus dem Film "Matrix Revolutions": Thomas "Neo" Anderson (Keanu Reeves) läuft an einer Reihe von geklonten Exemplaren des Agent Smith (Hugo Weaving) entlang (Szenenfoto).

27.8.2021 | Von:
Katharina Kleinen-von Königslöw
Gerret von Nordheim

Verschwörungstheorien in sozialen Netzwerken am Beispiel von QAnon

Für das aktuelle Erstarken von Verschwörungserzählungen werden im öffentlichen Diskurs häufig soziale Netzwerke verantwortlich gemacht. In der Tat weisen soziale Netzwerke beziehungsweise soziale Netzwerkplattformen (SNP)[1] eine Reihe von Merkmalen auf, die die Verbreitung von Verschwörungserzählungen erleichtern und beschleunigen können. Diese Dynamiken sollen im folgenden Beitrag vor dem Hintergrund aktueller politisch-gesellschaftlicher Entwicklungen und Ereignisse am Beispiel des Phänomens QAnon beschrieben werden. Hierbei wird eine medienökologische Perspektive eingenommen, das heißt, der Beitrag beschreibt Akteurs-Konstellationen und -Netzwerke, die sich rund um die Plattformen bilden, diese nutzen und von ihnen profitieren.

QAnon als "Omniverschwörung"

Den Kern der QAnon-Erzählung bildet die vermeintliche Verschwörung einer global agierenden, satanistischen Elite, die Kinder missbraucht, um aus ihrem Blut eine Verjüngungsdroge zu gewinnen. Das dynamisch wachsende Phänomen QAnon vereint neben diesem zentralen Motiv jedoch eine Vielzahl verschiedener Verschwörungsframes und -tropen und lässt sich daher am treffendsten als Omniverschwörung[2] beschreiben: Der uralte christlich-evangelikale Mythos satanistischer Blutrituale und Kinderopfer verbindet sich mit der paranoiden Angst vor der Unterwanderung des Staates durch feindliche Mächte und der Errichtung eines deep state. Hinzu kommen antisemitische Weltverschwörungsfantasien und rechtsextreme Vorstellungen vom sukzessiven Austausch des "autochthonen" Volkes durch eingewanderte Fremde. Als verbindendes Element wirkt ein archaischer Erlösungsglaube, der Meta-Topos eines nahenden, apokalyptischen Kampfes zwischen Gut und Böse, aus dem die Rechtschaffenen als Sieger*innen hervorgehen und schlussendlich zum Idealzustand einer verklärten Vergangenheit zurückkehren werden.

Eine solche Schnittmenge verschiedener, zunächst unzusammenhängender Narrative auf Basis gemeinsamer Meta-Frames ist keineswegs neu, beim Phänomen QAnon scheint diese integrative Dynamik jedoch besonders ausgeprägt. So konnte die "Marke" QAnon einen Mobilisierungseffekt entfalten, der sich nur schwerlich aus der Summe einzelner Verschwörungserzählungen ableiten lässt. Nach einer aktuellen Umfrage sind 15 Prozent aller US-Amerikaner*innen überzeugt, dass Regierung, Medien und Finanzwelt von einem satanistischen Pädophilenring kontrolliert werden (23 Prozent der Anhänger*innen der Republikaner, 8 Prozent der Demokraten).[3] Und auch in anderen Ländern ist zu beobachten, wie sich der besonders anschlussfähige QAnon-Glaube zunehmend mit anderen Verschwörungserzählungen vermischt – in Deutschland tragen Reichsbürger und Querdenker mittlerweile das "Q" als Erkennungszeichen,[4] in Großbritannien bekennen sich besorgte Eltern unter der Losung "Save Our Children" zur Verschwörungscommunity.[5] Eine zentrale Rolle bei dieser Expansion spielen SNP.

Ideale Infrastruktur für Verschwörungstheorien

Es gehört zu den Kernmerkmalen sozialer Netzwerkplattformen, dass dort alle Nutzer*innen mit geringem Aufwand eigene Inhalte veröffentlichen können – und oft lässt sich nur anhand der Absenderangabe nachvollziehen, ob die Urheber*innen einzelne Bürger*innen oder Nachbarschaftsverbände, professionelle Nachrichtenmedien, politische Akteure/Organisationen oder Wirtschaftsunternehmen sind. Eine Kontrolle oder Verifizierung der veröffentlichten Inhalte findet allenfalls in sehr oberflächlicher Form statt. Insbesondere Plattformen, die auch anonyme Beiträge zulassen, sind daher ideale Infrastrukturen für Verschwörungstheorien: Auch QAnon geht auf die anonymen Einträge des Nutzers "Q" zurück (es wird vermutet, dass mehrere Autor*innen unter diesem Pseudonym publizieren), die sogenannten Qdrops oder Breadcrumbs, zuerst veröffentlicht auf dem Imageboard 4chan im Oktober 2017. Das Ursprungsnarrativ von QAnon besagt dabei, dass ein anonymer Insider aus der Trump-Regierung sensible Informationen (aus Top-Secret-Quellen mit der Sicherheitsfreigabe "Q") über verschiedene Internetforen publiziere, um die Bürger*innen so auf den bevorstehenden "Sturm" (oder "das große Erwachen") vorzubereiten: ein Angriff auf den deep state und die massenweise Verhaftung der Mitglieder des darin organisierten Kinderhändlerrings.

Da sich die verschiedenen Typen von sozialen Netzwerken in ihren technischen Merkmalen, den von diesen geprägten Nutzungspraktiken sowie ihrer Nutzer*innenschaft stark unterscheiden, kommen ihnen in der Medienökologie jeweils unterschiedliche Rollen bei der Verbreitung von Verschwörungstheorien zu. Ausgangspunkt für QAnon waren Reddit und 4chan, also Messageboards, die überwiegend von technikaffinen Nutzer*innen besucht werden. Twitter fungierte als Link zwischen den Netzwerken, als Verbindung zur gesellschaftlichen Elite und Zugang zum journalistischen Mainstream.[6] Besonders prominente Verschwörungsgläubige wie die Schauspielerin Roseanne Barr verbreiteten ihre QAnon-Botschaften via Twitter und kreierten damit Berichterstattungsanlässe für Journalist*innen, die den Microblogging-Dienst regelmäßig als Quelle nutzen. Dabei kann die Berichterstattung durchaus kritisch sein – doch auch erklärende, warnende Artikel und Fact-Checks tragen letztlich zur Verbreitung der Verschwörungstheorie bei.[7]

Aber erst über die reichweitenstarken, in der Breite der Bevölkerung genutzten Plattformen, wie zum Beispiel Facebook und Instagram, konnte das Verschwörungsnarrativ für verschiedene gesellschaftliche Gruppen anschlussfähig werden. Das Motiv der durch Pädophile bedrohten Kinder ermöglichte der Bewegung beispielsweise einen Zugang zu Müttergruppen auf Facebook. Auf diesem Weg verlassen die Verschwörungstheorien die Sphäre der Anonymität – hier werden QAnon-Botschaften auch von Freund*innen und Bekannten geteilt, denen die Nutzer*innen vertrauen. Erst durch das "Deplatforming" prominenter QAnon-naher Accounts auf den großen SNP im Anschluss an den Angriff auf das Kapitol am 6. Januar 2021 haben sich die Aktivitäten wieder in die randständigeren SNP verlagert, im deutschsprachigen Raum beispielsweise zum Messenger-Dienst Telegram.

Strategische Akteure

Angesichts der Unmengen täglich auf den Plattformen veröffentlichter Inhalte ist es wenig überraschend, dass der Großteil von ihnen gar nicht oder nur von sehr wenigen Nutzer*innen gesehen wird. Entscheidend für die Sichtbarkeit von Inhalten in Netzwerken sind zentrale Knotenpunkte: Akteure, denen sehr viele andere (möglichst ebenfalls gut vernetzte) Nutzer*innen folgen. Mit Blick auf QAnon ist daher der Einfluss gesellschaftlicher Eliten, die sich zu QAnon bekennen, von immenser Bedeutung. Eliten legitimieren den Verschwörungsglauben und spielen so eine zentrale Rolle bei der Expansion von Narrativen von den Randbereichen des Internets in die Mitte des gesellschaftlichen Diskurses. Im Falle QAnons waren die wohl wichtigsten Katalysatoren des Deep-State-Narrativs Trumps Wahlkampfversprechen, Hillary Clinton zu verhaften ("Lock her up!") und den "Sumpf" Washingtons trockenzulegen ("Drain the swamp!"). Trump folgte auch als Präsident weiter dem politischen Kalkül, sich zu Verschwörungserzählungen zu bekennen, um so ihre Mobilisierungskraft für seine Zwecke zu nutzen. Soziale Medien spielten dabei eine zentrale Rolle: Trump lenkte laut einer Untersuchung von "Media Matters" insgesamt 315 Mal Aufmerksamkeit auf QAnon-assoziierte Twitter-Accounts, vor allem durch Retweets.[8]

Neben den prominenten Schlüsselfiguren und Verstärker*innen aus der gesellschaftlichen Elite sind für den Erfolg von Verschwörungstheorien über Netzwerkplattformen, und insbesondere für den Erfolg QAnons, die sogenannten Verschwörungsunternehmer*innen (conspiracy entrepreneurs)[9] entscheidend. In der Phase der initialen Verbreitung zeichneten Youtube-Influencer*innen geringer Reichweite aus der Szene rechter Alternativmedien und 4chan-Moderator*innen für die strategische Vermarktung der "Qdrops" verantwortlich, geeint durch das Ziel, (zu monetisierende) Follower*innen zu gewinnen. Sie verfolgten eine Cross-Plattform-Strategie, um verschiedene Zielgruppen mit QAnon bekannt zu machen. Dabei bedienten sich diese koordinierten Kampagnen professioneller Manipulationstechniken: Auf sogenannten Cheat-Sheets hatten die QAnon-Anhänger*innen neben persuasiven Argumenten und Gesprächsthemen bewährte Strategien vorbereitet, die sich an der Ästhetik und den Nutzungspraktiken der Plattformen orientierten[10] – ironisch-humorvolle Posts und eingängige Memes lassen sich mehrdeutig interpretieren und laden zum Teilen beziehungsweise zur Wiederverwendung und Weiterentwicklung ein.

Die Bemühungen der Verschwörungsunternehmer*innen zielten von Beginn an auch stark auf Journalist*innen, da die rechte Echokammer für sich genommen zu isoliert gewesen wäre, um die nationale Medienagenda zu beeinflussen und Anhänger*innen außerhalb der eigenen Kreise zu rekrutieren.[11] Die Strategien dieser "News-Hacks" folgen einer parasitären Logik und zielen darauf, die Reichweite etablierter Leitmedien zu instrumentalisieren.[12] Beispielsweise wurden bereits im Sommer 2018 in Internetforen Aktionen koordiniert, die das Ziel hatten, auf Wahlkampfveranstaltungen Donald Trumps mediale Aufmerksamkeit zu erregen. Mit Erfolg: Die zahlreichen Q-Anhänger*innen in uniformen T-Shirts samt professionell gestaltetem Logo wurden von den Fernsehkameras eingefangen und sorgten anschließend für eine Welle von Berichten.[13]

Hier entfalten Verschwörungstheorien ein beträchtliches ökonomisches Potenzial: Neben den Werbeeinnahmen über die Zugriffe der interessierten Nutzer*innen lassen sich in den USA inzwischen Millionen mit dem Verkauf von Merchandise umsetzen, mit Büchern oder Eintrittskarten zu QAnon-Events – aber auch über Spendenaufrufe, etwa zur Unterstützung Trumps, aber auch für Online-Wetten auf dessen Wahlsieg oder das Eintreten diverser QAnon-Prophezeiungen.[14]

Vergleichbare Dynamiken lassen sich in Deutschland nachzeichnen:[15] Auch hier wurden die QAnon-Erzählungen zunächst durch rechtsextreme Influencer verbreitet. Sie resonieren mit dem Antisemitismus und den Putsch-Fantasien rechtsradikaler Gruppen. Kleinere, nationale Verschwörungsgruppen wie die Reichsbürger nutzten die Marke "Q" ihrerseits als Vehikel, um neue Zielgruppen zu erreichen. Und auch in Deutschland verhalfen QAnon letztlich willfährige Prominente (etwa Attila Hildmann oder Xavier Naidoo) mit Social-Media-Nachrichten zu einer größeren Verbreitung. Mittlerweile bekennen sich auch viele Corona-Leugner und Impfgegner zur "Omniverschwörung".

Vulnerabilität gegenüber Verschwörungstheorien

Wie die ländervergleichenden Nachrichtennutzungsstudien des Reuters Institute zeigen, nutzt ein immer größer werdender Anteil der Bürger*innen SNP auch, um sich über politische Geschehnisse zu informieren.[16] Das hier zur Verfügung stehende Informationsangebot unterscheidet sich indes grundlegend von dem klassischer Nachrichtenmedien: Die Inhalte stammen aus einer schier unendlichen Vielzahl an (nicht immer seriösen) Quellen, sind stark dekontextualisiert und gleichzeitig eingebettet in einen endlos erscheinenden Strom von weiteren Beiträgen zu den unterschiedlichsten Themen. Gleichzeitig ist das Nachrichtenangebot stark personalisiert, also geprägt durch die bisherigen Auswahlentscheidungen der Nutzer*innen, deren Präferenzen zum Teil durch Empfehlungsalgorithmen zusätzlich verstärkt werden.[17] Diese unübersichtliche Informationsumgebung stellt neue, komplexe Anforderungen an die Nutzer*innen. Es überrascht in diesem Kontext nicht, dass Studien einen eindeutigen negativen Zusammenhang zwischen Medienkompetenz und einer Tendenz zum Verschwörungsglauben nachweisen konnten.[18] Verschwörungsnarrative verfangen umso stärker, je schwerer es Nutzer*innen fällt, verlässliche Quellen im informationellen Überangebot zu identifizieren.

Für das Verständnis der Bedeutung von SNP für die Verbreitung von Verschwörungstheorien ebenso entscheidend ist aber, dass bei deren Nutzung soziale Motive neben Informationsmotiven eine deutlich größere Rolle spielen als bei der Nutzung klassischer Nachrichtenmedien. Die Nutzer*innen sind unmittelbar mit ihrem persönlichen Netzwerk verknüpft, sie betreiben also gleichzeitig auch Beziehungspflege und gestalten auf der Plattform ihre persönliche und ihre soziale Identität – was Folgen für die Auswahl, Rezeption und Bewertung der dort verfügbaren Inhalte hat.

Gleichzeitig fördern die typischen Rezeptionsgewohnheiten bei der SNP-Nutzung über Smartphones eine oberflächliche oder gar automatisierte Bewertung der Inhalte;[19] denn die Bewertung der Verlässlichkeit der Informationen liegt bei den Nutzer*innen selbst. Dabei lassen sie sich häufig von eher ungeeigneten Strategien leiten. Die Suche nach besonders konsistenten Informationen macht sie beispielsweise empfänglich für die homogenen Botschaften der Verschwörungsunternehmer*innen und die Empfehlungen der auf Bestätigung geeichten Algorithmen.

Der interaktive Charakter der SNP ist ein weiterer Faktor, der zur Verbreitung von Verschwörungstheorien beiträgt: Jede*r einzelne Nutzer*in kann sich selbst an der Suche nach Hinweisen und Indikatoren beteiligen und dazu wiederum selbst Beiträge verfassen. Nachdem QAnon über Youtube-Videos, Reddit-Boards und Facebook-Gruppen sukzessive einem größeren Publikum bekannt wurde, ermöglichte der interaktive Charakter der SNP einer wachsenden Zahl von Usern, selbst zur "Beweisführung" beizutragen: Immer mehr Menschen beteiligten sich an der Interpretation und der "Erforschung" der Qdrops (Anhänger*innen von QAnon bezeichnen sich oft als "Researcher", als Forschende), die weiterhin in der unkontrollierten Sphäre der Imageboards (4chan, später 8chan/8kun) veröffentlicht wurden.

Tatsächlich ist der Glaube an Verschwörungserzählungen besonders bei solchen Menschen ausgeprägt, die dazu neigen, in zufälligen Koinzidenzen Muster zu erkennen.[20] Die kollaborative "Forschung" der QAnon-Community, die insbesondere in Foren und geschlossenen Gruppen sozialer Netzwerke stattfindet, unterstützt diese Neigung, sie katalysiert die Identifizierung vermeintlicher Muster als "Evidenzen". Nutzer*innen teilen ihre Beobachtungen und bestätigen sich in ihren irrationalen Deutungen, strategische Akteure manipulieren die Sammlung vermeintlicher Belege parallel mit "Evidenz-Collagen",[21] in denen sie tatsächliche Fakten mit gezielter Desinformation verweben, um so die Illusion der Faktizität zu verstärken.

Neben den Plattformen spielen dabei auch Suchmaschinen eine zum Teil problematische Rolle: Wenn Nutzer*innen erstmalig Begriffen aus Verschwörungstheorien begegnen, sei es in den traditionellen Nachrichtenmedien oder in sozialen Netzwerken, dann führen Suchmaschinen sie in die sogenannten "Data Voids":[22] Die Suchmaschinenalgorithmen verweisen prominent auf die Inhalte der Verschwörungstheoretiker*innen, vor allem, weil diese ihre Seiten strategisch so optimieren, dass sie bei der Suche nach bestimmten Begriffen vom Algorithmus als relevant erkannt werden. Verschwörungsunternehmer*innen machen sich also zum einen die Funktionsweise der Suchmaschinen zunutze, zum anderen vertrauen sie auf den Impuls der Nutzer*innen, unklare oder vieldeutige Begriffe online zu recherchieren.

Die Dynamik der resultierenden Selbstbestätigungszirkel befriedigt das Bedürfnis nach kognitiver Klarheit, das bei Verschwörungsgläubigen besonders ausgeprägt ist: eine Abneigung gegen Ambiguität, eine Tendenz, klaren Antworten zu glauben. Diese unkritische Haltung Verschwörungsgläubiger spiegelt sich in sozialen Netzwerken in einer gleichsam hyperaktiven Bereitschaft, alle Inhalte zu teilen, die als bestätigend aufgefasst werden – seien sie noch so unplausibel.[23] Die Algorithmen der Plattformen erkennen in ebendieser Aktivität einen Indikator für die Relevanz von Inhalten, die sie dann wiederum mit gesteigerter Sichtbarkeit belohnen.

Entsprechend fanden Studien zur Verbreitung von Verschwörungsnarrativen in sozialen Medien heraus, dass diese vor allem in relativ isolierten Sub-Netzwerken zu finden sind.[24] Die Empfehlungsalgorithmen der Plattformen sind Treiber dieser asymmetrischen Isolierung – je extremer die Inhalte, die ein User rezipiert, desto verlässlicher gelingt die Weiterleitung zu ähnlichem Inhalt. Die Ausprägung spezifischer Slogans, Begriffe oder Hashtags, wie sie bei QAnon zu beobachten ist, verstärkt diesen Rabbit-Hole-Effekt. User werden so immer wieder mit denselben oder ähnlichen Botschaften konfrontiert. Diese Erfahrung kollektiver Identität normalisiert und legitimiert die eigene Überzeugung und ermutigt dazu, den persönlichen Verschwörungsglauben öffentlich zu kommunizieren.

Eskalationen im Digitalen und darüber hinaus

Auch unabhängig von Verschwörungstheorien lässt sich schon länger das Phänomen der digitalen Enthemmung beobachten:[25] Dadurch, dass im digitalen Raum bei sozialen Interaktionen das Gegenüber weniger direkt erlebbar ist (in der Regel nicht sichtbar, Reaktionen erfolgen zeitverzögert und dergleichen mehr), erkennen die Nutzer*innen nicht, wie grenzüberschreitend und verletzend ihr eigenes Verhalten mitunter ist. Dieser Effekt wird weiter verstärkt durch sogenannte Deindividuationsprozesse: Insbesondere in der Anonymität erleben sich Nutzer*innen weniger als einzelne Individuen, stattdessen sind sie sich ihrer Zugehörigkeit zu sozialen Gruppen bewusster und orientieren sich stärker an deren kollektiven Normen. Ein aggressiver Kommunikationsstil kann dann von den Beteiligten eines bestimmten Forums oder einer geschlossenen Gruppe als vollkommen normal wahrgenommen werden, selbst wenn dort anderen Personen der Tod gewünscht oder der Sturz des gesamten politischen Systems gefordert wird. Dies kann wiederum zu negativen Ausstrahlungseffekten führen, beziehungsweise zu einer Abwärtsspirale in den Kommunikationsnormen. Digitale Gewalt, sei es in Form von Hassrede oder persönlichen Angriffen, kann wiederum die Bereitschaft zu physischer Gewalt erhöhen.

Im Kontext von Verschwörungstheorien erscheint dieses Gewaltpotenzial derzeit aus zwei Gründen besonders problematisch: wegen der engen Verzahnung mit der gewaltbereiten rechtsextremistischen Szene und den persönlichen und gesellschaftlichen Destabilisierungen durch die Corona-Pandemie.

Die beschriebenen Selbstbestätigungszirkel dienen extremistischen Gruppierungen als Orte der Radikalisierung und digitalen Enthemmung. Verschwörungserzählungen übernehmen hier eine wichtige soziale und funktionale Rolle, sie sind Multiplikatoren der Radikalisierung ("radicalizing multiplier").[26] Korrespondierend stellten Studien fest, dass Verschwörungsgläubige eine höhere Gewaltbereitschaft aufweisen. So befürworten sie laxe Waffengesetze und werden häufiger straffällig.[27] Auch QAnon weist deutliche Bezüge zur gewaltbereiten rechtsradikalen Szene auf: Der Veröffentlichung der ersten Qdrops 2017 war ein "reactionary turn on 4chan"[28] vorausgegangen – das Imageboard wurde zu diesem Zeitpunkt bereits aktiv von rechtsradikalen Gruppierungen infiltriert und für Rekrutierungszwecke genutzt. Ein zentraler Knoten des QAnon-Netzwerks war zudem von Anfang an der rechtsradikale Verschwörungskanal "InfoWars", der bis zu seiner Abschaltung durch Youtube im Jahre 2018 bis zu 2,4 Millionen Abonnent*innen erreichte. Bereits im Dezember 2017 lud InfoWars-Moderator Alex Jones QAnon-"Researcher" der ersten Stunde ein und machte Q’s Botschaften damit dem rechten Mainstream bekannt – alsbald wurde so auch der rechte Fernsehsender Fox News auf Q aufmerksam. QAnon-Profiteure nutzten so eine vernetzte Medienökologie, ein rechtes "echo-system":[29] Während in den verschiedenen chan-Foren, Reddit und anderen rechtsradikalen Foren die jüngere Zielgruppe mit reaktionären Videos, Memes und Manifesten versorgt wurde, sendete Fox News eine Vielzahl von Deep-State-Plots für ältere Zuschauer*innen.[30]

Die so gewachsene Medienökologie spezialisierte sich zusehends darauf, das Weltgeschehen durch die Folie des Verschwörungsglaubens zu deuten, also immer neue Evidenzen und Verschwörungsfragmente zu ersinnen, um so die Marke QAnon zu stärken. Unter diesen Bedingungen wirkte der Ausbruch der Covid-Pandemie wie ein Brandbeschleuniger: Aus der Forschung zu Verschwörungsgläubigen ist bekannt, dass insbesondere große, präzedenzlose Ereignisse profane Erklärungsmuster unbefriedigend erscheinen lassen.[31] Gleichzeitig verstärkt sich der Glaube an Verschwörungserzählungen in Zeiten großer Unsicherheiten, die Suche nach alternativen Erklärungsmustern wird ausgelöst durch existenzielle Ängste und ein Gefühl der Machtlosigkeit. Die nach Bestätigung Suchenden wurden fündig in den "Data Voids" der Suchmaschinen, den Foren der Imageboards und den Kanälen der Telegram-Chats. Die Pandemie passte nur allzu gut in das Narrativ der globalen Verschwörung, die darauf zielt, die Bevölkerung zu kontrollieren. Der Verschwörungsglaube stellt hier einen Versuch dar, nach einer Destabilisierung der Lebensumstände Kontrolle und Sicherheit zurückzugewinnen. Die vereinfachenden Erklärungsmuster der Verschwörungserzählung und insbesondere die mit QAnon assoziierte kollektive Identität bieten vermeintlich Zuflucht und Stabilität in einer scheinbar aus den Fugen geratenen Welt.

Wie wir gesehen haben, ist QAnon das Produkt einer gewachsenen Ökologie, eines Netzwerks voneinander profitierender Akteure, die symbiotisch und in gegenseitiger Abhängigkeit agieren. Die Netzwerkstrukturen sozialer Medien, aus denen QAnon hervorgegangen ist, katalysieren diese Form der synergetischen Verschmelzung verschiedener Gruppen und ermöglichen so Kristallisationsprozesse rund um eine kollektive Identität, gemeinsame Symbole und Slogans. Verschwörungsunternehmer*innen nutzen Ressourcen des Online-Marketings, um der neuen Marke zu Sichtbarkeit zu verhelfen, und genauso nutzen strategische Akteure Mechanismen gezielter Desinformationskampagnen, um den Inhalten eine größere Reichweite zu verschaffen.

QAnon ist nicht das erste Produkt, das aus dieser Konstellation hervorgeht. Es ist jedoch die erfolgreichste Version einer Reihe konzertierter Kampagnen eines (mehr oder minder losen) Netzwerks unterschiedlich motivierter Akteure, die darauf hinwirken, Bürger*innen langfristig epistemologisch von der übrigen Gesellschaft zu entkoppeln.[32] Die Folgen sind gesellschaftliche Polarisierung und eine Entfremdung vom gesellschaftlichen Diskurs – und damit schließlich die Unterminierung der Funktionsfähigkeit demokratischer Institutionen.

Fußnoten

1.
Diesem Beitrag liegt ein breit gefasstes Verständnis von SNP zugrunde: Es handelt sich um digitale Plattformen, auf denen Nutzer*innen eigene Beiträge einstellen und sich potenziell (aber nicht notwendigerweise) mit anderen Nutzer*innen vernetzen können. Unter diesen breiten SNP-Begriff fallen Microblogging-Dienste wie Twitter, soziale Netzwerkplattformen wie Facebook und Instagram, aber auch Messageboards wie Reddit und 4chan oder Videoplattformen wie Youtube und Messenger-Dienste wie Whatsapp und Telegram.
2.
Vgl. Abby Ohlheiser, It’s Too Late to Stop QAnon with Fact Checks and Account Bans, 26.7.2020, http://www.technologyreview.com/2020/07/26/1005609«.
3.
Vgl. Public Religion Research Institute, Understanding QAnon’s Connection to American Politics, Religion, and Media Consumption, 27.5.2021, http://www.prri.org/research/qanon-conspiracy-american-politics-report«.
4.
Siehe hierzu auch den Beitrag von Jan Rathje in dieser Ausgabe (Anm. d. Red.).
5.
Vgl. Katrin Bennhold, QAnon Is Thriving in Germany. The Extreme Right Is Delighted, http://www.nytimes.com/2020/10/11/world/europe/qanon-is-thriving-in-germany-the-extreme-right-is-delighted.html«.
6.
Vgl. Whitney Phillips/Ryan M. Milner, You Are Here. A Field Guide For Navigating Polluted Information, Cambridge MA 2021, S. 138.
7.
Vgl. ebd., S. 143.
8.
Vgl. Alex Kaplan, Trump Has Repeatedly Amplified QAnon Twitter Accounts. The FBI Has Linked the Conspiracy Theory to Domestic Terror, 1.8.2019, http://www.mediamatters.org/twitter/fbi-calls-qanon-domestic-terror-threat-trump-has-amplified-qanon-supporters-twitter-more-20«.
9.
Vgl. Phillips/Milner (Anm. 6), S. 64.
10.
Vgl. ebd., S. 145.
11.
Vgl. Yochai Benkler/Robert Farris/Hal Roberts, Network Propaganda: Manipulation, Disinformation, and Radicalization in American Politics, New York 2018.
12.
Vgl. Gerret von Nordheim/Katharina Kleinen-von Königslöw, Uninvited Dinner Guests: A Theoretical Perspective on the Antagonists of Journalism Based on Serres’ Parasite, in: Media and Communication 1/2021, S. 88–98.
13.
Vgl. Phillips/Milner (Anm. 6), S. 146.
14.
Vgl. Ilana E. Strauss, The Dark Reality of Betting Against QAnon, 1.1.2021, http://www.theatlantic.com/politics/archive/2021/01/betting-against-qanon-predictit/617396«.
15.
Vgl. Bennhold (Anm. 5).
16.
Vgl. Nic Newman et al., Reuters Institute Digital News Report 2021, http://www.digitalnewsreport.org«.
17.
Vgl. Katharina Kleinen-von Königslöw, Die Individualisierung der Nachrichtennutzung als Treiber der gesellschaftlichen Vermittlungskrise, in: Otfried Jarren/Christoph Neuberger (Hrsg.), Gesellschaftliche Vermittlung in der Krise: Medien und Plattformen als Intermediäre, Baden-Baden 2020, S. 93–118.
18.
Vgl. etwa Karen M. Douglas et al., Understanding Conspiracy Theories, in: Political Psychology S1/2019, S. 3–35.
19.
Vgl. Mareike Wieland/Katharina Kleinen-von Königslöw, Conceptualizing Different Forms of News Processing Following Incidental News Contact: A Triple-Path Model, in: Journalism 8/2020, S. 1049–1066.
20.
Vgl. Douglas et al. (Anm. 18).
21.
Vgl. Joan Donovan/Brian Friedberg, Source Hacking – Media Manipulation in Practice, http://www.datasociety.net/wp-content/uploads/2019/09/Source-Hacking_Hi-res.pdf«.
22.
Vgl. Michael Golebiewski/Danah Boyd, Data Voids: Where Missing Data Can Easily Be Exploited, 11.5.2018, http://www.datasociety.net/output/data-voids-where-missing-data-can-easily-be-exploited«.
23.
Vgl. Alessandro Bessi et al., Science vs Conspiracy: Collective Narratives in the Age of Misinformation, in: Plos One 2/2015, DOI: 10.1371/journal.pone.0118093.
24.
Vgl. ebd.
25.
Vgl. Anna Sophie Kümpel/Diana Rieger, Wandel der Sprach- und Debattenkultur in sozialen Online-Medien. Ein Literaturüberblick zu Ursachen und Wirkungen von inziviler Kommunikation, Berlin 2019.
26.
Vgl. Jamie Bartlett/Carl Miller, The Power of Unreason: Conspiracy Theories, Extremism and Counter-Terrorism, London 2010, S. 4.
27.
Vgl. Douglas et al. (Anm. 18), S. 21.
28.
Phillips/Milner (Anm. 6), S. 117.
29.
Vgl. Kate Starbird, Content Sharing Within the Alternative Media Echo-System: The Case of the White Helmets, 7.5.2018, http://www.medium.com/@katestarbird/f34434325e77«.
30.
Vgl. Phillips/Milner (Anm. 6).
31.
Vgl. Douglas et al. (Anm. 18), S. 7.
32.
Siehe hierzu auch den Beitrag von Carolin Amlinger und Oliver Nachtwey in dieser Ausgabe (Anm. d. Red.).
Creative Commons License

Dieser Text ist unter der Creative Commons Lizenz "CC BY-NC-ND 3.0 DE - Namensnennung - Nicht-kommerziell - Keine Bearbeitung 3.0 Deutschland" veröffentlicht. Autoren/-innen: Katharina Kleinen-von Königslöw, Gerret von Nordheim für Aus Politik und Zeitgeschichte/bpb.de

Sie dürfen den Text unter Nennung der Lizenz CC BY-NC-ND 3.0 DE und der Autoren/-innen teilen.
Urheberrechtliche Angaben zu Bildern / Grafiken / Videos finden sich direkt bei den Abbildungen.