Das Internet gilt im Allgemeinen als Katalysator für Radikalisierungsprozesse. Angesichts der zentralen Rolle digitaler Kommunikation im Alltag ist heute unumstritten, dass das Internet und Soziale Medien als wesentliche Faktoren in Radikalisierungsprozessen wirken können. Allerdings lässt sich aufgrund der Komplexität dieser Prozesse, der stark individualisierten Mediennutzungsgewohnheiten und des Mangels an Langzeitstudien nicht genau bestimmen, wie und in welchem Ausmaß digitale Kommunikationsangebote Radikalisierung fördern. Hinzu kommt, dass „Online-Radikalisierung“ stets mit offline stattfindenden Ereignissen verbunden, und eine strikte Trennung zwischen der „digitalen“ und der „realen“ Welt kaum möglich ist.
Radikalisierung kann definiert werden als „die zunehmende Infragestellung der Legitimation einer normativen Ordnung und/oder die zunehmende Bereitschaft, die institutionellen Strukturen dieser Ordnung zu bekämpfen.“ Radikalisierung ist ein Prozess, der in verschiedenen Phasen zu extremistischen Einstellungen, zu der Befürwortung oder gar zu der Ausübung extremistischer Gewalthandlungen führen kann. Gewalt kann hierbei in unterschiedlichen Ausprägungen auftreten – in Sozialen Medien beispielsweise in Form von Morddrohungen.
Beschleunigte Radikalisierung online
Die Möglichkeiten der digitalen Kommunikation tragen dazu bei, Radikalisierungsprozesse zu beschleunigen: Potenziell radikalisierende Kommunikationsprozesse werden effektiver und effizienter – etwa durch den Zugang zu umfangreichen, globalen Zielgruppen und einer gesteigerten Reichweite. Extremistische Akteure nutzen diese neuen Gelegenheitsstrukturen, die sich durch das Internet ergeben, gezielt aus. Sie instrumentalisieren die Reichweite dieser Plattformen, um ihre Anhängerschaft zu beeinflussen, Gewalt zu glorifizieren oder sogar zu gewalttätigen Handlungen zu animieren. Insbesondere rechtsradikale und -extremistische Parteien oder Gruppen stellen sich online als Alternative dar und wenden sich vehement gegen die „Leitmedien“, denen sie eine einseitige Themendarstellung unterstellen, um Misstrauen zu schüren. Während die meisten Online-Nutzer:innen Inhalte konsumieren und nicht produzieren, setzen extremistische Akteure die Möglichkeiten der digitalen Kommunikation effizient ein, um ihre Botschaften im großen Umfang schnell und weitreichend zu verbreiten. Dabei verwenden sie nicht nur gezielt technische Funktionen der Plattformen wie Weiterleiten und Liken, sondern bedienen sich auch vielfältiger stilistischer Mittel, wie direkter persönlicher Ansprache, humoristischer Darstellungen und Emotionalisierung der Inhalte. Besonders profitieren sie dabei von der hohen Geschwindigkeit der Online-Kommunikation.
Wie und von wem diese Inhalte rezipiert werden, ist weitaus schwieriger zu bestimmen. Fest steht, dass ein erstes Interesse an den Themen und eine grundlegende Empfänglichkeit für die Narrative vorhanden sein muss, damit die Inhalte auf Individualebene Radikalisierung begünstigen können. Personen, die rechtsradikale oder extremistische Ideologie ablehnen, reagieren auf diese Form der Inhalte eher mit Reaktanz, dem Bedürfnis sich abzugrenzen und ggfs. mit einer Bereitschaft gegen die Verbreitung aktiv zu werden. Besonders problematisch sind die Auswirkungen jedoch auf gesamtgesellschaftlicher Ebene. Durch die weitreichende Verbreitung und die kontinuierliche Wiederholung bestimmter Narrative, kann die Sichtbarkeit marginaler gesellschaftliche Konfliktlinien erhöht werden und Nischenthemen sowie Minderheitenmeinungen relevanter wirken, als sie es tatsächlich sind. Dadurch kann der Eindruck entstehen, diese Positionen würden von einer breiten Mehrheit vertreten oder seien sogar Bestandteil eines vermeintlichen gesellschaftlichen Konsenses.
Nutzung von großen Plattformen
Obwohl sich Social-Media-Plattformen in ihren Funktionalitäten (z. B. Videoeinbindung) zunehmend einander annähern, verfügt jede Plattform über ein spezifisches Set an Funktionalitäten, das jeweils bestimmte Zwecke erfüllt. Entsprechend übernehmen unterschiedliche Plattformen auch unterschiedliche Rollen im strategischen Wirken extremistischer Akteure. Große Social-Media-Plattformen wie Facebook und YouTube werden vor allem für externe Kommunikation genutzt, die ein möglichst großes Publikum erreichen soll, da sie Sichtbarkeit und Reichweite für extremistische Narrative ermöglichen. Extremistische Akteure können so den öffentlichen Diskurs gezielt beeinflussen oder zumindest stören, politische Gegner angreifen und Aufmerksamkeit für Aktivitäten erzeugen, um neue Unterstützer:innen anzuwerben. Besonders videobasierte Plattformen wie YouTube oder TikTok erlauben es, ideologische Narrative in unterhaltsamer und leicht zugänglicher Form zu präsentieren. Aktuell wird Interner Link: TikTok intensiv genutzt, um jüngere Zielgruppen anzusprechen. Über Gaming-Plattformen wie Roblox werden sogar auch Kinder und Jugendliche erreicht.
Große Plattformen werden jedoch in der Regel moderiert: Extremistische Kommunikation und Accounts, die gegen die Nutzungsrichtlinien oder Gesetze verstoßen, werden ggfs. gelöscht. Auch wenn US-Konzerne wie X und META derzeit ihre Moderationsmaßnahmen öffentlichkeitswirksam minimieren, schreiben europäische Rechtsvorschriften strenge Regulierungsmaßnahmen vor. Auf großen Plattformen passen extremistische Akteure daher häufig die Kommunikation an, um die zugrundeliegende Ideologie zu verschleiern. Eindeutig extremistische und hasserfüllte Formulierungen und Darstellungen (z. B. Hakenkreuzvarianten) werden bewusst vermieden; stattdessen werden beispielsweise Codes (z. B. bestimmte Emojis), Memes und humoristische Darstellungen oder alltagsnahe Inhalte (z. B. Kochvideos) mit den der Ideologie zugrundliegenden Narrativen verbunden.
Fehlende Moderation auf „alternativen“ Plattformen
Gleichzeitig gibt es eine Fülle an kleineren, „alternativen“ Plattformen, die teils selbst von extremistischen Akteuren betrieben werden. Aufgrund fehlender oder nur eingeschränkter Moderation eignen sie sich besser für interne Kommunikation, die sich primär an die Unterstützer:innen und Gruppenangehörigen richtet. Auf diesen Plattformen können extremistische Ideologie, Hetze, Gewaltfantasien und teils auch Anschlagsplanungen ungehindert verbreitet werden, was die Stärkung der Gruppenbindung fördern und die Mobilisierung von Unterstützer:innen ermöglichen kann. Auch thematisch spezialisierte Randgemeinschaften (z. B. Interner Link: Incels) oder Verschwörungsbewegungen (z. B. Interner Link: QAnon), die ideologische Überschneidungen zu bekannten extremistischen Bewegungen haben, können in diesen Kommunikationsräumen gedeihen.
Je stärker eine Plattform oder Online-Community als randständig wahrgenommen wird, desto stärker ist das Ausmaß an Hassrede. So finden sich in den politischen Subforen der Alt-Right-Bewegung auf 8kun (bis 2019 bekannt unter dem Namen 8chan) deutlich mehr hasserfüllte Inhalte als beispielsweise auf Plattformen wie 4chan oder Reddit. Eine mögliche Erklärung dafür ist, dass bestimmte Online-Umgebungen die Entstehung und Verbreitung von Hass besonders begünstigen können. Beispielsweise kann der Grad der (wahrgenommenen) Anonymität das Verhalten auf Plattformen beeinflussen und bei hoher Ausprägung eine enthemmende Wirkung entfalten.
Hate Speech als Strategie, um den gesellschaftlichen Konsens zu brechen
Hassrede (engl. Hate Speech) ist ein Ausdruck gruppenbezogener Menschenfeindlichkeit und kann verstanden werden als „Form inziviler, extremer und schädigender kommunikativer Angriffe auf Personen aufgrund ihrer (wahrgenommenen) Zugehörigkeit zu einer sozialen Gruppe“. Es geht also darum, dass Menschen nicht aufgrund ihrer individuellen Eigenschaften abgewertet werden, sondern aufgrund ihrer ethnischen Zugehörigkeit, Religion, sexuellen Orientierung oder anderer gruppendefinierender Merkmale. Hassrede kann sowohl gegen Einzelpersonen aufgrund ihrer Gruppenzugehörigkeit als auch gegen ganze Gruppen pauschal gerichtet sein. Die konkrete Ausgestaltung ist vielfältig und reicht von direkten Beleidigungen und Gewaltandrohungen über negative Stereotypisierung und Falschinformationen bis hin zu subtilen und impliziten Formen, die oft schwer zu erkennen sind. Auch nonverbale Mittel wie Memes oder Musik können zur Verbreitung von Hassbotschaften eingesetzt werden.
Die Urheber:innen von Hassrede umfassen ein breites Spektrum – von Einzelpersonen zu organisierten Gruppen – und zeichnen sich durch vielfältige Motive und Handlungen aus. Schmitt unterscheidet vier verschiedene Gründe, aufgrund derer Hassrede im Internet verbreitet wird:
um andere auszugrenzen,
um andere einzuschüchtern (aufgrund von eigenen Gefühlen wie Wut oder einem Bedrohungserleben),
um Macht zu demonstrieren und Deutungshoheit im Diskurs zu verdeutlichen und
aus Spaß oder Nervenkitzel
So kann es sich bei Verfasser:innen von Hassrede um „normale“ Nutzer:innen handeln, die keiner extremistischen Organisation angehören und die keine systematische Strategie verfolgen beim Verfassen herabwürdigender Kommentare. Trolle verbreiten Hassrede zur Provokation und um andere zu verletzen. Ausländische Akteure können Hassrede als Mittel der Destabilisierung einsetzen. Meist entsteht Hassrede jedoch aus ideologischen Überzeugungen heraus, die Stereotype bestärken und bestimmte Gruppen gezielt angreifen. Hassrede wird demnach meist von extremistischen Akteuren, Gruppen oder deren Anhänger:innen initiiert, um ihre Positionen strategisch in die Öffentlichkeit zu tragen und Personen bzw. Personengruppen gezielt mit Herabwürdigung anzugreifen. Insgesamt zeigt sich, dass nur eine vergleichsweise kleine Gruppe überhaupt regelmäßig Hasskommentare verfasst; sie neigt jedoch zu extremeren Haltungen und ist überdurchschnittlich häufig männlich.
Online-Hassrede weit verbreitet
Obwohl die Feststellung nicht neu ist, dass Online-Medien aufgrund von negativen Kommunikationspraktiken wie Trolling (emotionale Provokationen) oder Flaming (unspezifische Beschimpfungen) nicht den allgemeinen Höflichkeitsnormen entsprechen, scheint das Risiko einer Konfrontation mit eher inzivilen Online-Diskursen gerade in den Sozialen Medien zuzunehmen. Online-Hassrede ist heute keine Seltenheit mehr, sondern entwickelt sich immer mehr zur Norm für Internetnutzer:innen. Die überwiegende Mehrheit (78 Prozent) der Deutschen über 14 Jahren berichtet von Erfahrungen mit Hasskommentaren. Online-Hassrede ist heute auf nahezu allen Sozialen Medien zu finden. Die Wahrscheinlichkeit, mit Hassrede in Berührung zu kommen, steigt mit zunehmender Internetnutzung. Daher sind junge Nutzer:innen, die viel Zeit mit Sozialen Medien verbringen, besonders häufig betroffen. In der Altersgruppe der 14- bis 24-Jährigen geben 92 Prozent an, dass ihnen Hassrede online bereits begegnet ist. Dies hat zur Folge, dass jüngere Generationen für abwertende Äußerungen vermehrt desensibilisiert werden und teils ihre problematische Botschaft nicht vollständig erfassen können, was die Normalisierung extremistischer Narrative unterstützen kann.
Besonders folgenreich sind Hassrede und extremistische Angriffe für die Opfer. Die repräsentative Studie Externer Link: „Lauter Hass – leiser Rückzug“ (2024) zeigt, dass fast jede zweite Person schon einmal im Internet beleidigt wurde. Von Hassrede besonders betroffen sind Zugehörige von Minderheiten wie Personen mit sichtbarem Migrationshintergrund (30 Prozent) und bisexueller Orientierung (36 Prozent), aber auch junge Frauen (30 Prozent). Ebenso werden Angehörige bestimmter Berufsgruppen, die besonders in der Öffentlichkeit stehen, zunehmend zum Ziel von Hassrede: Im Jahr 2019 gaben beispielsweise 60 Prozent der deutschen Journalist:innen an, im Internet persönlich angegriffen worden zu sein. Ähnlich stark betroffen von Anfeindungen im Netz sind politisch engagierte Personen (58 Prozent). Diese bleiben jedoch nicht nur im digitalen Raum – knapp ein Drittel dieser Personen hat zusätzlich bereits physische Angriffe erlebt. Auch in der Wissenschaft wird von einer Zunahme digitaler Angriffe berichtet: Bei einer Befragung in 2024 gaben 45 Prozent der Wissenschaftler:innen an, Erfahrungen mit Wissenschaftsfeindlichkeit gemacht zu haben.
Digitale Anfeindungen haben nicht nur physische und psychische Folgen für die Betroffenen. Schwerwiegend sind sie insbesondere für den gesellschaftlichen Zusammenhalt und einen funktionierenden demokratischen Diskurs. Digitale Anfeindungen können dazu führen, dass sich Angehörige bestimmter Berufsgruppen, die etwa in die Öffentlichkeit zu kommunizieren, zum Selbstschutz aus dem Diskurs zurückziehen – mitunter gar das Forschungsthema oder den Beruf wechseln.
Online-Hetze kann zur Polarisierung der Gesellschaft beitragen
Da gruppenbezogene Menschenfeindlichkeit ein Bestandteil verschiedener extremistischer Bewegungen ist, wird Online-Hassrede unmittelbar mit Radikalisierungsdynamiken in Verbindung gebracht und als Indikator für Radikalisierung im digitalen Raum bewertet. Untersuchungen zur Kommunikation in relevanten Telegram-Kanälen zeigen, dass verschiedene Radikalisierungsmerkmale zwischen 2020 und 2021 zugenommen haben – wie die Verbreitung von Hassrede und (rechts-)extremer Ideologie. Diesen Dynamiken liegt zugrunde, dass Radikalisierungs- und Polarisierungsprozesse häufig mit einer fortlaufenden Einstellungsänderung einhergehen, die in extremen Einstellungsmustern münden können.
Hasskommentare haben das Potenzial, die Einstellungen von Nutzer:innen gegenüber den verunglimpften Gruppen zu verändern, Vorurteile zu verstärken und sie dazu anzuregen, sich selbst negativer über die angesprochene Gruppe zu äußern. Hassrede kann Verachtung gegenüber anderen Gruppen fördern, indem sie Empathie verdrängt. Ihre zunehmende Verbreitung normalisiert abwertende Einstellungen gegenüber Fremdgruppen und schwächt gesellschaftliche Normen, die ein respektvolles und gleichberechtigtes Miteinander fördern und sich gegen Diskriminierung richten.
Gleichzeitig schaden Hasskommentare in der Regel auch denjenigen, die angegriffen werden: Hassrede kann bei ihren Opfern negative emotionale Reaktionen wie Angst oder Wut auslösen, psychischen Stress und Unsicherheitsgefühle erzeugen, aber auch Vorurteile und Aggressionen gegenüber der Gruppe fördern, die die Hassrede verbreitet. Selbst bei Zeugen von Hassrede kann das soziale Vertrauen in andere Menschen und in die Gesellschaft als Ganzes verringert werden. Hassrede kann zur Erosion des gesellschaftlichen Zusammenhalts beitragen, indem sie das Gefühl der Verbundenheit untergräbt und die Tendenz zur Abgrenzung sowie Feindseligkeit gegenüber Fremdgruppen fördert.
Regulierung von Online-Hassrede
Die Regulierung von schädlichen Online-Inhalten gehört zu den größten Herausforderungen der gegenwärtigen digitalen Medienlandschaft. Mit der Entwicklung großer Sprachmodelle wie ChatGPT, die in kürzester Zeit enorme Mengen an Inhalten generieren können, wird diese Aufgabe noch komplexer. Um der Verbreitung von Hassrede im Internet entgegenzuwirken, wurden daher in den letzten Jahren verschiedene regulatorische Maßnahmen eingeführt: In Deutschland verpflichtet das Interner Link: Netzwerkdurchsetzungsgesetz (NetzDG) große Plattformen dazu Verfahren für den Umgang mit Beschwerden über rechtswidrige Inhalte vorzuhalten und diese Inhalte innerhalb bestimmter Fristen zu entfernen oder zu sperren. Auch auf EU-Ebene gibt es mit dem Interner Link: Digital Services Act (DSA) und der Terrorist Content Online Regulation (TCO) weitreichende Regelungen zur Plattformverantwortlichkeit. Jedoch stehen diese Regulierungen auch in der Kritik, das Recht auf freie Meinungsäußerung einzuschränken. Kritiker:innen befürchten, dass gesetzliche Vorgaben dazu führen könnten, dass Plattformen aus Vorsicht mehr Inhalte löschen als nötig und dadurch auch legitime Meinungsäußerungen eingeschränkt werden.
Gleichzeitig passen extremistische Akteure ihre Kommunikationsstrategien kontinuierlich an, um bestehende Regulierungen zu umgehen. Inhalte werden bewusst so gestaltet, dass sie sich an der Grenze dessen bewegen, was rechtlich verboten oder durch Nutzungsbedingungen der Plattformen untersagt ist. Diese regelgrenznahen Inhalte („borderline content“) sind rechtlich schwer zu fassen, können aber erheblichen Schaden anrichten, indem sie Radikalisierung begünstigen oder gesellschaftliche Spannungen verstärken. Ein Beispiel hierfür sind Interner Link: Desinformationen, etwa in Form von Propaganda oder Verschwörungstheorien oder auch eine politische Rhetorik, die Ängste oder Hass schürt.
Eine besonders tückische Form dieser Grenzfälle ist Furchtrede. Während Hassrede offene Abwertungen enthält und in vielen Fällen klar als rechtswidrig eingestuft werden kann, zielt Furchtrede darauf ab, Bedrohungswahrnehmungen zu verstärken, indem bestimmte Gruppen oder Institutionen als schädlich dargestellt werden. Furchtrede erzeugt oder verstärkt gezielt die Wahrnehmung einer Bedrohung, um Angst und Unsicherheit zu schüren. In digitalen Umgebungen kann Furchtrede eine feindselige Stimmung fördern und zur Eskalation von Konflikten sowie zu Radikalisierungsdynamiken beitragen. (Rechts-)extremistische Akteure nutzen dies gezielt, um ihre radikalen Weltanschauungen zu verbreiten. Die Vorstellung einer gemeinsamen „Bedrohung von außen“ – etwa durch eine Regierung oder eine ethnische Gruppe – stärkt den Zusammenhalt innerhalb der eigenen Gruppe. So wird ein Handlungsdruck erzeugt, der bis zur Rechtfertigung von Widerstand und in manchen Fällen sogar Gewalt gegen die wahrgenommene Bedrohung führen kann.