Themen Mediathek Shop Lernen Veranstaltungen kurz&knapp Die bpb Meine Merkliste Geteilte Merkliste PDF oder EPUB erstellen Mehr Artikel im

Diskussionsräume und Radikalisierungsprozesse in Sozialen Medien | Rechtspopulismus | bpb.de

Rechtspopulismus Was heißt Rechtspopulismus? Rechtspopulismus als Strategie Das Syndrom des Populismus Europäischer Vergleich Erscheinungsformen, Ursachen, Gegenstrategien Was versteht man unter "Populismus"? Repräsentationsdefizite und Rechtspopulismus Begriffe der äußeren Rechten Repräsentationslücken Sprache, Themen und politische Agitationsformen Diskussionsräume in sozialen Medien Nation – eine Begriffsbestimmung aus aktuellem Anlass Fakten und Wissen in der Postmoderne Zwischen Hyperkultur und Kulturessenzialismus Sprache Der Begriff der Identität Pegida – eine Protestbewegung zwischen Ängsten und Ressentiments (II) Pegida – eine Protestbewegung zwischen Ängsten und Ressentiments Sind sie das Volk? Pegida – die Patriotischen Europäer gegen die Islamisierung des Abendlandes Diskussionsräume und Radikalisierungsprozesse in Sozialen Medien Rechtspopulistische Parteien und Strömungen Die verlorene Ehre der Arbeiter Lokale Ebene AfD Nordeuropa Ungarn Italien Asien und Lateinamerika Polen Rassemblement National Niederlande FPÖ USA Großbritannien Europakarte Die AfD: Werdegang und Wesensmerkmale einer Rechtsaußenpartei Wer wählt warum die AfD? Debatte: Ist die Alternative für Deutschland eine rechtspopulistische Partei? Junge Menschen und Rechtspopulismus Rechtsaußenpositionen im Parteienwettbewerb Exkurs: Nation und Nationalismus Angaben zur Redaktion Wie umgehen mit rechtspopulistischen Akteuren?

Diskussionsräume und Radikalisierungsprozesse in Sozialen Medien

Heidi Schulze Diana Rieger

/ 20 Minuten zu lesen

Soziale Medien können im politischen Diskurs eine Bereicherung sein. In ihnen wird aber auch eine Plattform für Online-Hetze gesehen, die zur Polarisierung der Gesellschaft beiträgt und Radikalisierungsprozesse beschleunigt.

78 Prozent der Deutschen sind bereits mit Hassrede online in Berührung gekommen. (© picture-alliance, NurPhoto | Jaap Arriens)

Das Internet gilt im Allgemeinen als Katalysator für Radikalisierungsprozesse. Angesichts der zentralen Rolle digitaler Kommunikation im Alltag ist heute unumstritten, dass das Internet und Soziale Medien als wesentliche Faktoren in Radikalisierungsprozessen wirken können. Allerdings lässt sich aufgrund der Komplexität dieser Prozesse, der stark individualisierten Mediennutzungsgewohnheiten und des Mangels an Langzeitstudien nicht genau bestimmen, wie und in welchem Ausmaß digitale Kommunikationsangebote Radikalisierung fördern. Hinzu kommt, dass „Online-Radikalisierung“ stets mit offline stattfindenden Ereignissen verbunden, und eine strikte Trennung zwischen der „digitalen“ und der „realen“ Welt kaum möglich ist.

Radikalisierung kann definiert werden als „die zunehmende Infragestellung der Legitimation einer normativen Ordnung und/oder die zunehmende Bereitschaft, die institutionellen Strukturen dieser Ordnung zu bekämpfen.“ Radikalisierung ist ein Prozess, der in verschiedenen Phasen zu extremistischen Einstellungen, zu der Befürwortung oder gar zu der Ausübung extremistischer Gewalthandlungen führen kann. Gewalt kann hierbei in unterschiedlichen Ausprägungen auftreten – in Sozialen Medien beispielsweise in Form von Morddrohungen.

Beschleunigte Radikalisierung online

Die Möglichkeiten der digitalen Kommunikation tragen dazu bei, Radikalisierungsprozesse zu beschleunigen: Potenziell radikalisierende Kommunikationsprozesse werden effektiver und effizienter – etwa durch den Zugang zu umfangreichen, globalen Zielgruppen und einer gesteigerten Reichweite. Extremistische Akteure nutzen diese neuen Gelegenheitsstrukturen, die sich durch das Internet ergeben, gezielt aus. Sie instrumentalisieren die Reichweite dieser Plattformen, um ihre Anhängerschaft zu beeinflussen, Gewalt zu glorifizieren oder sogar zu gewalttätigen Handlungen zu animieren. Insbesondere rechtsradikale und -extremistische Parteien oder Gruppen stellen sich online als Alternative dar und wenden sich vehement gegen die „Leitmedien“, denen sie eine einseitige Themendarstellung unterstellen, um Misstrauen zu schüren. Während die meisten Online-Nutzer:innen Inhalte konsumieren und nicht produzieren, setzen extremistische Akteure die Möglichkeiten der digitalen Kommunikation effizient ein, um ihre Botschaften im großen Umfang schnell und weitreichend zu verbreiten. Dabei verwenden sie nicht nur gezielt technische Funktionen der Plattformen wie Weiterleiten und Liken, sondern bedienen sich auch vielfältiger stilistischer Mittel, wie direkter persönlicher Ansprache, humoristischer Darstellungen und Emotionalisierung der Inhalte. Besonders profitieren sie dabei von der hohen Geschwindigkeit der Online-Kommunikation.

Wie und von wem diese Inhalte rezipiert werden, ist weitaus schwieriger zu bestimmen. Fest steht, dass ein erstes Interesse an den Themen und eine grundlegende Empfänglichkeit für die Narrative vorhanden sein muss, damit die Inhalte auf Individualebene Radikalisierung begünstigen können. Personen, die rechtsradikale oder extremistische Ideologie ablehnen, reagieren auf diese Form der Inhalte eher mit Reaktanz, dem Bedürfnis sich abzugrenzen und ggfs. mit einer Bereitschaft gegen die Verbreitung aktiv zu werden. Besonders problematisch sind die Auswirkungen jedoch auf gesamtgesellschaftlicher Ebene. Durch die weitreichende Verbreitung und die kontinuierliche Wiederholung bestimmter Narrative, kann die Sichtbarkeit marginaler gesellschaftliche Konfliktlinien erhöht werden und Nischenthemen sowie Minderheitenmeinungen relevanter wirken, als sie es tatsächlich sind. Dadurch kann der Eindruck entstehen, diese Positionen würden von einer breiten Mehrheit vertreten oder seien sogar Bestandteil eines vermeintlichen gesellschaftlichen Konsenses.

Nutzung von großen Plattformen

Obwohl sich Social-Media-Plattformen in ihren Funktionalitäten (z. B. Videoeinbindung) zunehmend einander annähern, verfügt jede Plattform über ein spezifisches Set an Funktionalitäten, das jeweils bestimmte Zwecke erfüllt. Entsprechend übernehmen unterschiedliche Plattformen auch unterschiedliche Rollen im strategischen Wirken extremistischer Akteure. Große Social-Media-Plattformen wie Facebook und YouTube werden vor allem für externe Kommunikation genutzt, die ein möglichst großes Publikum erreichen soll, da sie Sichtbarkeit und Reichweite für extremistische Narrative ermöglichen. Extremistische Akteure können so den öffentlichen Diskurs gezielt beeinflussen oder zumindest stören, politische Gegner angreifen und Aufmerksamkeit für Aktivitäten erzeugen, um neue Unterstützer:innen anzuwerben. Besonders videobasierte Plattformen wie YouTube oder TikTok erlauben es, ideologische Narrative in unterhaltsamer und leicht zugänglicher Form zu präsentieren. Aktuell wird Interner Link: TikTok intensiv genutzt, um jüngere Zielgruppen anzusprechen. Über Gaming-Plattformen wie Roblox werden sogar auch Kinder und Jugendliche erreicht.

Große Plattformen werden jedoch in der Regel moderiert: Extremistische Kommunikation und Accounts, die gegen die Nutzungsrichtlinien oder Gesetze verstoßen, werden ggfs. gelöscht. Auch wenn US-Konzerne wie X und META derzeit ihre Moderationsmaßnahmen öffentlichkeitswirksam minimieren, schreiben europäische Rechtsvorschriften strenge Regulierungsmaßnahmen vor. Auf großen Plattformen passen extremistische Akteure daher häufig die Kommunikation an, um die zugrundeliegende Ideologie zu verschleiern. Eindeutig extremistische und hasserfüllte Formulierungen und Darstellungen (z. B. Hakenkreuzvarianten) werden bewusst vermieden; stattdessen werden beispielsweise Codes (z. B. bestimmte Emojis), Memes und humoristische Darstellungen oder alltagsnahe Inhalte (z. B. Kochvideos) mit den der Ideologie zugrundliegenden Narrativen verbunden.

Fehlende Moderation auf „alternativen“ Plattformen

Gleichzeitig gibt es eine Fülle an kleineren, „alternativen“ Plattformen, die teils selbst von extremistischen Akteuren betrieben werden. Aufgrund fehlender oder nur eingeschränkter Moderation eignen sie sich besser für interne Kommunikation, die sich primär an die Unterstützer:innen und Gruppenangehörigen richtet. Auf diesen Plattformen können extremistische Ideologie, Hetze, Gewaltfantasien und teils auch Anschlagsplanungen ungehindert verbreitet werden, was die Stärkung der Gruppenbindung fördern und die Mobilisierung von Unterstützer:innen ermöglichen kann. Auch thematisch spezialisierte Randgemeinschaften (z. B. Interner Link: Incels) oder Verschwörungsbewegungen (z. B. Interner Link: QAnon), die ideologische Überschneidungen zu bekannten extremistischen Bewegungen haben, können in diesen Kommunikationsräumen gedeihen.

Je stärker eine Plattform oder Online-Community als randständig wahrgenommen wird, desto stärker ist das Ausmaß an Hassrede. So finden sich in den politischen Subforen der Alt-Right-Bewegung auf 8kun (bis 2019 bekannt unter dem Namen 8chan) deutlich mehr hasserfüllte Inhalte als beispielsweise auf Plattformen wie 4chan oder Reddit. Eine mögliche Erklärung dafür ist, dass bestimmte Online-Umgebungen die Entstehung und Verbreitung von Hass besonders begünstigen können. Beispielsweise kann der Grad der (wahrgenommenen) Anonymität das Verhalten auf Plattformen beeinflussen und bei hoher Ausprägung eine enthemmende Wirkung entfalten.

Hate Speech als Strategie, um den gesellschaftlichen Konsens zu brechen

Hassrede (engl. Hate Speech) ist ein Ausdruck gruppenbezogener Menschenfeindlichkeit und kann verstanden werden als „Form inziviler, extremer und schädigender kommunikativer Angriffe auf Personen aufgrund ihrer (wahrgenommenen) Zugehörigkeit zu einer sozialen Gruppe“. Es geht also darum, dass Menschen nicht aufgrund ihrer individuellen Eigenschaften abgewertet werden, sondern aufgrund ihrer ethnischen Zugehörigkeit, Religion, sexuellen Orientierung oder anderer gruppendefinierender Merkmale. Hassrede kann sowohl gegen Einzelpersonen aufgrund ihrer Gruppenzugehörigkeit als auch gegen ganze Gruppen pauschal gerichtet sein. Die konkrete Ausgestaltung ist vielfältig und reicht von direkten Beleidigungen und Gewaltandrohungen über negative Stereotypisierung und Falschinformationen bis hin zu subtilen und impliziten Formen, die oft schwer zu erkennen sind. Auch nonverbale Mittel wie Memes oder Musik können zur Verbreitung von Hassbotschaften eingesetzt werden.

Die Urheber:innen von Hassrede umfassen ein breites Spektrum – von Einzelpersonen zu organisierten Gruppen – und zeichnen sich durch vielfältige Motive und Handlungen aus. Schmitt unterscheidet vier verschiedene Gründe, aufgrund derer Hassrede im Internet verbreitet wird:

  • um andere auszugrenzen,

  • um andere einzuschüchtern (aufgrund von eigenen Gefühlen wie Wut oder einem Bedrohungserleben),

  • um Macht zu demonstrieren und Deutungshoheit im Diskurs zu verdeutlichen und

  • aus Spaß oder Nervenkitzel

So kann es sich bei Verfasser:innen von Hassrede um „normale“ Nutzer:innen handeln, die keiner extremistischen Organisation angehören und die keine systematische Strategie verfolgen beim Verfassen herabwürdigender Kommentare. Trolle verbreiten Hassrede zur Provokation und um andere zu verletzen. Ausländische Akteure können Hassrede als Mittel der Destabilisierung einsetzen. Meist entsteht Hassrede jedoch aus ideologischen Überzeugungen heraus, die Stereotype bestärken und bestimmte Gruppen gezielt angreifen. Hassrede wird demnach meist von extremistischen Akteuren, Gruppen oder deren Anhänger:innen initiiert, um ihre Positionen strategisch in die Öffentlichkeit zu tragen und Personen bzw. Personengruppen gezielt mit Herabwürdigung anzugreifen. Insgesamt zeigt sich, dass nur eine vergleichsweise kleine Gruppe überhaupt regelmäßig Hasskommentare verfasst; sie neigt jedoch zu extremeren Haltungen und ist überdurchschnittlich häufig männlich.

Online-Hassrede weit verbreitet

Obwohl die Feststellung nicht neu ist, dass Online-Medien aufgrund von negativen Kommunikationspraktiken wie Trolling (emotionale Provokationen) oder Flaming (unspezifische Beschimpfungen) nicht den allgemeinen Höflichkeitsnormen entsprechen, scheint das Risiko einer Konfrontation mit eher inzivilen Online-Diskursen gerade in den Sozialen Medien zuzunehmen. Online-Hassrede ist heute keine Seltenheit mehr, sondern entwickelt sich immer mehr zur Norm für Internetnutzer:innen. Die überwiegende Mehrheit (78 Prozent) der Deutschen über 14 Jahren berichtet von Erfahrungen mit Hasskommentaren. Online-Hassrede ist heute auf nahezu allen Sozialen Medien zu finden. Die Wahrscheinlichkeit, mit Hassrede in Berührung zu kommen, steigt mit zunehmender Internetnutzung. Daher sind junge Nutzer:innen, die viel Zeit mit Sozialen Medien verbringen, besonders häufig betroffen. In der Altersgruppe der 14- bis 24-Jährigen geben 92 Prozent an, dass ihnen Hassrede online bereits begegnet ist. Dies hat zur Folge, dass jüngere Generationen für abwertende Äußerungen vermehrt desensibilisiert werden und teils ihre problematische Botschaft nicht vollständig erfassen können, was die Normalisierung extremistischer Narrative unterstützen kann.

Besonders folgenreich sind Hassrede und extremistische Angriffe für die Opfer. Die repräsentative Studie Externer Link: „Lauter Hass – leiser Rückzug“ (2024) zeigt, dass fast jede zweite Person schon einmal im Internet beleidigt wurde. Von Hassrede besonders betroffen sind Zugehörige von Minderheiten wie Personen mit sichtbarem Migrationshintergrund (30 Prozent) und bisexueller Orientierung (36 Prozent), aber auch junge Frauen (30 Prozent). Ebenso werden Angehörige bestimmter Berufsgruppen, die besonders in der Öffentlichkeit stehen, zunehmend zum Ziel von Hassrede: Im Jahr 2019 gaben beispielsweise 60 Prozent der deutschen Journalist:innen an, im Internet persönlich angegriffen worden zu sein. Ähnlich stark betroffen von Anfeindungen im Netz sind politisch engagierte Personen (58 Prozent). Diese bleiben jedoch nicht nur im digitalen Raum – knapp ein Drittel dieser Personen hat zusätzlich bereits physische Angriffe erlebt. Auch in der Wissenschaft wird von einer Zunahme digitaler Angriffe berichtet: Bei einer Befragung in 2024 gaben 45 Prozent der Wissenschaftler:innen an, Erfahrungen mit Wissenschaftsfeindlichkeit gemacht zu haben.

Digitale Anfeindungen haben nicht nur physische und psychische Folgen für die Betroffenen. Schwerwiegend sind sie insbesondere für den gesellschaftlichen Zusammenhalt und einen funktionierenden demokratischen Diskurs. Digitale Anfeindungen können dazu führen, dass sich Angehörige bestimmter Berufsgruppen, die etwa in die Öffentlichkeit zu kommunizieren, zum Selbstschutz aus dem Diskurs zurückziehen – mitunter gar das Forschungsthema oder den Beruf wechseln.

Online-Hetze kann zur Polarisierung der Gesellschaft beitragen

Da gruppenbezogene Menschenfeindlichkeit ein Bestandteil verschiedener extremistischer Bewegungen ist, wird Online-Hassrede unmittelbar mit Radikalisierungsdynamiken in Verbindung gebracht und als Indikator für Radikalisierung im digitalen Raum bewertet. Untersuchungen zur Kommunikation in relevanten Telegram-Kanälen zeigen, dass verschiedene Radikalisierungsmerkmale zwischen 2020 und 2021 zugenommen haben – wie die Verbreitung von Hassrede und (rechts-)extremer Ideologie. Diesen Dynamiken liegt zugrunde, dass Radikalisierungs- und Polarisierungsprozesse häufig mit einer fortlaufenden Einstellungsänderung einhergehen, die in extremen Einstellungsmustern münden können.

Hasskommentare haben das Potenzial, die Einstellungen von Nutzer:innen gegenüber den verunglimpften Gruppen zu verändern, Vorurteile zu verstärken und sie dazu anzuregen, sich selbst negativer über die angesprochene Gruppe zu äußern. Hassrede kann Verachtung gegenüber anderen Gruppen fördern, indem sie Empathie verdrängt. Ihre zunehmende Verbreitung normalisiert abwertende Einstellungen gegenüber Fremdgruppen und schwächt gesellschaftliche Normen, die ein respektvolles und gleichberechtigtes Miteinander fördern und sich gegen Diskriminierung richten.

Gleichzeitig schaden Hasskommentare in der Regel auch denjenigen, die angegriffen werden: Hassrede kann bei ihren Opfern negative emotionale Reaktionen wie Angst oder Wut auslösen, psychischen Stress und Unsicherheitsgefühle erzeugen, aber auch Vorurteile und Aggressionen gegenüber der Gruppe fördern, die die Hassrede verbreitet. Selbst bei Zeugen von Hassrede kann das soziale Vertrauen in andere Menschen und in die Gesellschaft als Ganzes verringert werden. Hassrede kann zur Erosion des gesellschaftlichen Zusammenhalts beitragen, indem sie das Gefühl der Verbundenheit untergräbt und die Tendenz zur Abgrenzung sowie Feindseligkeit gegenüber Fremdgruppen fördert.

Regulierung von Online-Hassrede

Die Regulierung von schädlichen Online-Inhalten gehört zu den größten Herausforderungen der gegenwärtigen digitalen Medienlandschaft. Mit der Entwicklung großer Sprachmodelle wie ChatGPT, die in kürzester Zeit enorme Mengen an Inhalten generieren können, wird diese Aufgabe noch komplexer. Um der Verbreitung von Hassrede im Internet entgegenzuwirken, wurden daher in den letzten Jahren verschiedene regulatorische Maßnahmen eingeführt: In Deutschland verpflichtet das Interner Link: Netzwerkdurchsetzungsgesetz (NetzDG) große Plattformen dazu Verfahren für den Umgang mit Beschwerden über rechtswidrige Inhalte vorzuhalten und diese Inhalte innerhalb bestimmter Fristen zu entfernen oder zu sperren. Auch auf EU-Ebene gibt es mit dem Interner Link: Digital Services Act (DSA) und der Terrorist Content Online Regulation (TCO) weitreichende Regelungen zur Plattformverantwortlichkeit. Jedoch stehen diese Regulierungen auch in der Kritik, das Recht auf freie Meinungsäußerung einzuschränken. Kritiker:innen befürchten, dass gesetzliche Vorgaben dazu führen könnten, dass Plattformen aus Vorsicht mehr Inhalte löschen als nötig und dadurch auch legitime Meinungsäußerungen eingeschränkt werden.

Gleichzeitig passen extremistische Akteure ihre Kommunikationsstrategien kontinuierlich an, um bestehende Regulierungen zu umgehen. Inhalte werden bewusst so gestaltet, dass sie sich an der Grenze dessen bewegen, was rechtlich verboten oder durch Nutzungsbedingungen der Plattformen untersagt ist. Diese regelgrenznahen Inhalte („borderline content“) sind rechtlich schwer zu fassen, können aber erheblichen Schaden anrichten, indem sie Radikalisierung begünstigen oder gesellschaftliche Spannungen verstärken. Ein Beispiel hierfür sind Interner Link: Desinformationen, etwa in Form von Propaganda oder Verschwörungstheorien oder auch eine politische Rhetorik, die Ängste oder Hass schürt.

Eine besonders tückische Form dieser Grenzfälle ist Furchtrede. Während Hassrede offene Abwertungen enthält und in vielen Fällen klar als rechtswidrig eingestuft werden kann, zielt Furchtrede darauf ab, Bedrohungswahrnehmungen zu verstärken, indem bestimmte Gruppen oder Institutionen als schädlich dargestellt werden. Furchtrede erzeugt oder verstärkt gezielt die Wahrnehmung einer Bedrohung, um Angst und Unsicherheit zu schüren. In digitalen Umgebungen kann Furchtrede eine feindselige Stimmung fördern und zur Eskalation von Konflikten sowie zu Radikalisierungsdynamiken beitragen. (Rechts-)extremistische Akteure nutzen dies gezielt, um ihre radikalen Weltanschauungen zu verbreiten. Die Vorstellung einer gemeinsamen „Bedrohung von außen“ – etwa durch eine Regierung oder eine ethnische Gruppe – stärkt den Zusammenhalt innerhalb der eigenen Gruppe. So wird ein Handlungsdruck erzeugt, der bis zur Rechtfertigung von Widerstand und in manchen Fällen sogar Gewalt gegen die wahrgenommene Bedrohung führen kann.

Fussnoten

Fußnoten

  1. Meleagrou-Hitchens, A. & Kaderbhai, N. (2017). Research perspectives on online radicalisation. Dublin: International Centre for the Study of Radicalisation (ICSR), VOX Pol. Baldauf, J., Ebner, J. & Guhl, J. (2018): Hassrede und Radikalisierung im Netz. Online Civil Courage Initiative. London: Institute for Strategic Dialogue. Abgerufen von Externer Link: Externer Link: www.isdglobal.org/wp-content/uploads/2018/09/ISD-NetzDG-Report-German-FINAL-26.9.18.pdf

  2. Whittaker, J. (2022). Rethinking Online Radicalization. Perspectives of Terrorism, 16(4), 71–84.

  3. Gaspar, H. A., Daase, C., Deitelhoff, N., Junk, J., & Sold, M. (2019). Vom Extremismus zur Radikalisierung: Zur wissenschaftlichen Konzeptualisierung illiberaler Einstellungen. Gesellschaft extrem. Was wir über Radikalisierung wissen, 15-44.

  4. Conway, M., Scrivens, R., & Macnair, L. (2019). Right-wing extremists’ persistent online presence: History and contemporary trends. ICCT Policy Brief. Externer Link: https://icct.nl/publication/right-wingextremists-persistent-online-presence-history-and-contemporary-trends/

  5. siehe Link: Interner Link: http://www.bpb.de/politik/extremismus/rechtsextremismus/239267/gegenoeffentlichkeit-von-rechtsaussen

  6. Der Begriff „Lügenpresse“ gewann zuletzt vor allem durch die Bewegung „Pegida“ wieder an Bedeutung (siehe Denner, N. & Peter, C. (2017): Der Begriff Lügenpresse in deutschen Tageszeitungen. Publizistik, 62(3), 273-297.). Er drückt ein Misstrauen gegenüber den etablierten Medien aus, welches vor allem durch eine rechtspopulistische Rhetorik geschürt wird. Zwar kritisieren auch andere Gruppierungen die Haltungen vieler massenmedialen Publika; der rechtspopulistischen Rhetorik wird diese Kritik jedoch absolutistisch vorgetragen, ohne Gegenargumente oder Widerspruch zu dulden.

  7. Obwohl es zur Angebotsseite im Bereich Radikalisierung und Extremismus bereits zahlreiche Studien gibt, bestehen auf der Nachfrageseite noch erhebliche Forschungslücken. Das liegt unter anderem daran, dass die Erforschung von Medienwirkungen hochgradig komplex ist und Effekte individuell variieren (vgl. Wulf, T., Naderer, B., & Rieger, D. (2023). Medienpsychologie. Nomos Verlagsgesellschaft mbH & Co. KG). Hinzu kommt, dass es in diesem Themenfeld nur wenige experimentelle Untersuchungen zur Wirkung extremistischer Inhalte gibt, da solche Forschung potenziell unbeabsichtigte Folgen haben und damit vor besonderen ethischen Herausforderungen steht. Darüber hinaus ist die Mediennutzung im Themenfeld Radikalisierung und Extremismus im Internet nur schwer empirisch belastbar zu erfassen, einerseits weil das Feld sehr heterogen und volatil ist und andererseits, weil online zahlreiche Fake-Accounts bzw. -Akteure aktiv sind.

  8. Frischlich, L., Rieger, D., Morten, A., & Bente, G. (2018). The power of a good story: Narrative persuasion in extremist propaganda and videos against violent extremism. International Journal of Conflict and Violence, 12, 1-16. Externer Link: https://doi.org/10.4119/UNIBI/ijcv.644 Rieger, D., Frischlich, L., & Bente, G. (2013). Propaganda 2.0: Psychological effects of right-wing and Islamic extremist Internet videos. Munich, Germany: Luchterhand

  9. Schulze, H., Greipl, S., Hohner, J., & Rieger, D. (2024). Social media and radicalization: An affordance approach for cross-platform comparison. M&K Medien & Kommunikationswissenschaft, 72(2), 187-212.

  10. Hohner, J., Kakavand, A., & Rothut, S. (2024). Analyzing Radical Visuals at Scale: How Far-Right Groups Mobilize on TikTok. Journal of Digital Social Research, 6(1), 10-30.

  11. Koehler, D., Fiebig, V., & Jugl, I. (2023). From gaming to hating: Extreme‐right ideological indoctrination and mobilization for violence of children on online gaming platforms. Political Psychology, 44(2), 419-434.

  12. Jugendliche sind eine besonders relevante Zielgruppe für Rekrutierungsversuche, da sie in ihrer Entwicklungsphase nach Orientierung und Gemeinschaft suchen und daher empfänglicher für ideologische Botschaften und emotional aufgeladene Narrative sind. Reinemann, C. (2019). Von „unbedarft“ bis „gefährdet“–Muster des medialen Kontakts Jugendlicher mit (Online-) Extremismus. Totalitarismus und Demokratie, 16(2), 109-126.

  13. Schulze, H. (2020). Zur Bedeutung von Dark Social & Deplatforming: Eine quantitative Exploration der deutschsprachigen Rechtsaußenszene auf „Telegram“. Zeitschrift für Semiotik, 42(3-4), 61-86.

  14. Schmid, U. K., Schulze, H., & Drexel, A. (2024). Memes, humor, and the far right’s strategic mainstreaming. Information, Communication & Society, 1-20.

  15. Mamié, R., Horta Ribeiro, M., & West, R. (2021, June). Are anti-feminist communities gateways to the far right? Evidence from Reddit and YouTube. In Proceedings of the 13th ACM Web Science Conference 2021 (pp. 139-147).

  16. Rieger, D., Kümpel, A. S., Wich, M., Kiening, T., & Groh, G. (2021). Assessing the extent and types of hate speech in fringe communities: A case study of alt-right communities on 8chan, 4chan, and Reddit. Social Media+ Society, 7(4), 20563051211052906.

  17. Rieger, D., Greipl, S., Schmid, U. K., Hohner, J. & Schulze. H. (2024). Hassrede als Merkmal von (Online-) Radikalisierung. In T. Rothmund & E. Walther (Hrsg.), Psychologie der Rechtsradikalisierung - Theorien, Perspektiven, Prävention (S. 125-134). Kohlhammer.

  18. Suler, J. (2004). The Online Disinhibition Effect. CyberPsychology & Behavior, 7(3), 321–326.

  19. Frischlich, L., Schmid, U. K. & Rieger, D. (2023). Hass und Hetze im Netz. In M. Appel, F. Hutmacher, C. Mengelkamp, J.-P. Stein & S. Weber (Hrsg.), Digital ist besser?! Die Psychologie der Online- und Mobilkommunikation (S. 201–216). Berlin: Springer. S. 204

  20. Rieger, D., Kümpel, A. S., Wich, M., Kiening, T., & Groh, G. (2021). Assessing the extent and types of hate speech in fringe communities: A case study of alt-right communities on 8chan, 4chan, and Reddit. Social Media + Society, 7(4), 20563051211052906.

  21. Schwertberger, U., & Rieger, D. (2021). Hass und seine vielen Gesichter: Eine sozial- und kommunikationswissenschaftliche Einordnung von Hate Speech. In Hate Speech-Multidisziplinäre Analysen und Handlungsoptionen: Theoretische und empirische Annäherungen an ein interdisziplinäres Phänomen (pp. 53-77). Wiesbaden: Springer Fachmedien Wiesbaden.

  22. Schmitt, J. B. (2017): Online-Hate Speech: Definition und Verbreitungsmotivation aus psychologischer Perspektive. In: K. Kaspar, L. Gräßer & A. Riffi (Hrsg.), Online Hate Speech: Perspektiven auf eine neue Form des Hasses (S. 52-56). Schriftenreihe zur digitalen Gesellschaft NRW. Marl: kopaed verlagsgmbh.

  23. s. Definition von Das NETTZ (https://www.das-nettz.de/glossar/troll): „Als Troll werden Internetnutzer oder auch Bots bezeichnet, die bewusst manipulative und provokante Inhalte oder Kommentare posten, um andere Nutzer*innen zu einer bestimmten Handlung zu bewegen. Der Begriff leitet sich aus dem englischen "trolling with bait" ab, was so viel bedeutet wie "mit einem Köder locken". Dabei können zwei Arten von Trollen unterschieden werden. Es gibt einerseits Trolle, die mit ihren Posts lediglich provozieren wollen, um sich dann an der Reaktion und dem entstandenen Schaden zu amüsieren und es gibt andererseits Trolle, die aufgrund einer bestimmten Ideologie mit einer politischen Agenda gezielt posten. Bei Letzteren gibt es sowohl Nutzer*innen, die rein aus Überzeugung handeln als auch Nutzer*innen, die dafür bezahlt werden diese Inhalte zu veröffentlichen. Mittlerweile werden auch verstärkt Algorithmen eingesetzt, die automatisiert Inhalte in soziale Netzwerke posten und sich als menschliche Nutzer*innen ausgeben. (Vgl. Social Bots)“

  24. Schwertberger, U., & Rieger, D. (2021). Hass und seine vielen Gesichter: Eine sozial- und kommunikationswissenschaftliche Einordnung von Hate Speech. In Hate Speech-Multidisziplinäre Analysen und Handlungsoptionen: Theoretische und empirische Annäherungen an ein interdisziplinäres Phänomen (pp. 53-77). Wiesbaden: Springer Fachmedien Wiesbaden. Rieger, D., Kümpel, A. S., Wich, M., Kiening, T., & Groh, G. (2021). Assessing the extent and types of hate speech in fringe communities: A case study of alt-right communities on 8chan, 4chan, and Reddit. Social Media+ Society, 7(4), 20563051211052906.

  25. Vgl. Buckles, E.E., Trapnell, P.D. & Paulhus, D.L. (2014): Trolls just want to have fun. Personality and Individual Differences, 67, 97-102.

  26. Vgl. O’Sullivan, P.B. & Flanagin, A.J. (2003): Reconceptualizing ‘flaming’ and other problematic messages. New Media & Society, 5(1), 69-94.

  27. Vgl. Papacharissi, Z. (2004): Democracy online: civility, politeness, and the democratic potential of online political discussion groups. New Media & Society, 6(2), 259-283.

  28. Vgl. Coe, K., Kenski, K & Rains, S.A. (2014) : Online and Uncivil? Patterns and Determinants of Incivility in Newspaper Website Comments. Journal of Communication, 64(4), 658-679.; Kaakinen, M., Oksanen, A. & Räsänen, P. (2018): Did the risk of exposure to online hate increase after the November 2015 Paris attacks? A group relations approach. Computers in Human Behavior, 78, 90-97.; Muddiman, A. (2017): News Values, Cognitive Biases, and Partisan Incivility in Comment Sections. Journal of Communication, 67(4), 586-609.

  29. In Deutschland berichtete Jugendschutz.net, dass die Zahl der Verstöße gegen das Jugendschutzgesetz von rund 6.000 registrierten Verstößen im Jahr 2015 auf über 7.600 im Jahr 2023 gestiegen ist. (siehe Schindler, F., Glaser, S., Herzog, H. & Özkilic, M. (2015): Jugendschutz im Internet. Ergebnisse der Recherchen und Kontrollen. Bericht 2015. Jugendschutz.net.; Eisentraut, S., Hautz, G. & Özkilic, M. (2024): 2023 Bericht. Jugendschutz im Internet. Risiken und Handlungsbedarf. Jugendschutz.net. Externer Link: https://www.jugendschutz.net/fileadmin/daten/publikationen/jahresberichte/jahresbericht_2023.pdf).

  30. Windisch, S., Wiedlitzka, S., Olaghere, A., & Jenaway, E. (2022). Online interventions for reducing hate speech and cyberhate: A systematic review. Campbell systematic reviews, 18(2), e1243. In Deutschland berichtete Jugendschutz.net, dass die Zahl der Verstöße gegen das Jugendschutzgesetz von rund 6.000 registrierten Verstößen im Jahr 2015 auf über 7.600 im Jahr 2023 gestiegen ist. (siehe Schindler, F., Glaser, S., Herzog, H. & Özkilic, M. (2015): Jugendschutz im Internet. Ergebnisse der Recherchen und Kontrollen. Bericht 2015. Jugendschutz.net.; Eisentraut, S., Hautz, G. & Özkilic, M. (2024): 2023 Bericht. Jugendschutz im Internet. Risiken und Handlungsbedarf. Jugendschutz.net. Externer Link: https://www.jugendschutz.net/fileadmin/daten/publikationen/jahresberichte

  31. Landesanstalt für Medien NRW. (2024). Hate Speech Forsa-Studie 2024. Zentrale Untersuchungsergebnisse. Externer Link: https://www.medienanstalt-nrw.de/fileadmin/user_upload/Forschung/forsa_Hassrede/LFMNRW_Hatespeech_forsa_2024.pdf.

  32. Haslop, C., O’Rourke, F., & Southern, R. (2021). # NoSnowflakes: The toleration of harassment and an emergent gender-related digital divide, in a UK student online culture. Convergence, 27(5), 1418-1438.

  33. Das NETTZ, Gesellschaft für Medienpädagogik und Kommunikationskultur, HateAid und Neue deutsche Medienmacher*innen als Teil des Kompetenznetzwerks gegen Hass im Netz (Hrsg.) (2024): Lauter Hass – leiser Rückzug. Wie Hass im Netz den demokratischen Diskurs bedroht. Ergebnisse einer repräsentativen Befragung. Berlin. Externer Link: https://kompetenznetzwerk-hass-im-netz.de/download_lauterhass.php

  34. Papendick, M., Rees, Y., Wäschle, D. & Zick, A. (2020): Hass und Angriffe auf Medienschaffende – Eine Studie zur Wahrnehmung von und Erfahrungen mit Angriffen auf Journalist:innen. (IKG Forschungsbericht). Berlin: Mediendienst Integration. Externer Link: https://mediendienst-integration.de/fileadmin/Dateien/Studie_Hass_und_Angriffe_auf_Medienschaffende.pdf

  35. HateAid, Koch, L., Voggenreiter, A., Steinert, J.I. (2025): Angegriffen & alleingelassen. Wie sich digitale Gewalt auf politisches Engagement auswirkt. Ein Lagebild.

  36. Seeger, C., Frischlich, L., Obermaier, M., Schmid, U. K., & Schulze, H. (2024). Hate Speech und Angriffe auf Wissenschaftler*innen — Ein Forschungsüberblick. Berlin: Transfer Unit Wissenschaftskommunikation. Externer Link: https://wissenschaft-im-dialog.de/documents/217/TransferUnit_Forschungsueberblick_Hatespeech.pdf Nogrady, B. (2021). Scientists under attack dozens of researchers tell nature they have received death threats, or threats of physical or sexual violence, after speaking about covid-19. Nature, 598.

  37. Laut der Studie von Blümel & Just (2024) treten Anfeindungen besonders häufig in den Geistes- sowie Naturwissenschaften auf. Am häufigsten berichten dabei Geisteswissenschaftler:innen (51 %) von Erfahrungen mit Angriffen, die vor allem in Form von herabwürdigenden Kommentaren und infrage gestellter fachlicher Kompetenz auftreten (je rund 40 %). Überraschend ist, dass Naturwissenschaftler:innen in vergleichbarem Ausmaß wie Geisteswissenschaftler:innen von solchen Anfeindungen betroffen sind. Dagegen werden Ingenieurswissenschaftler:innen insgesamt seltener attackiert, wobei hier insbesondere Kompetenzzweifel und unangemessene Reaktionen auf öffentliche Äußerungen weniger häufig vorkommen. In den Lebenswissenschaften werden zwar insgesamt weniger Anfeindungen gemeldet, dafür treten hier jedoch überdurchschnittlich oft besonders gravierende Fälle wie körperliche Übergriffe und Sachbeschädigungen auf. Hinzu kommen kontextspezifische Effekte: Public-Health-Forschende beispielsweise waren während der COVID-19-Pandemie besonders stark betroffen, da sie verstärkt in der Öffentlichkeit standen und kontroverse gesellschaftliche Debatten über Gesundheitspolitik beeinflussten (Nogrady, 2021).

  38. Blümel, C., & Just, A.. (2024). Anfeindungen gegen Forschende. Eine repräsentative Studie des Projektes KAPAZ Kurzdossier für die Berichterstattung. Hannover, Deutschland. Deutsches Zentrum für Hochschul- und Wissenschaftsforschung.

  39. HateAid, Koch, L., Voggenreiter, A., Steinert, J.I. (2025): Angegriffen & alleingelassen. Wie sich digitale Gewalt auf politisches Engagement auswirkt. Ein Lagebild.

  40. Rieger, D., Greipl, S., Schmid, U. K., Hohner, J. & Schulze. H. (2024). Hassrede als Merkmal von (Online-) Radikalisierung. In T. Rothmund & E. Walther (Hrsg.), Psychologie der Rechtsradikalisierung - Theorien, Perspektiven, Prävention (S. 125-134). Kohlhammer.

  41. Rieger, D., Schulze, H., Hohner, J. & Greipl, S. (2021). Wie das Internet Radikalisierungsprozesse fördert - 5 Ansatzpunkte für die Forschung. In U. Kemmesies et al. (Hrsg.), MOTRA-Monitor 2020 (pp. 206-239). Wiesbaden: Aumüller Druck GmbH & Co. KG. Externer Link: https://doi.org/10.53168/isbn.978-3-9818469-9-7_2021_MOTRA

  42. Greipl, S., Hohner, J., Schulze, H. & Rieger, D. (2022). Radikalisierung im Internet: Ansätze zur Differenzierung, empirische Befunde und Perspektiven zu Online-Gruppendynamiken. In U. Kemmesies et al. (Hrsg.), MOTRA-Monitor 2021 (pp. 42-71). Wiesbaden: Aumüller Druck GmbH & Co. KG. Externer Link: https://doi.org/10.53168/isbn.978-3-9818469-4-2_2022_MOTRA Schulze. H., Hohner, J., Greipl, S., Girgnhuber, M., Desta, I., & Rieger, D. (2022). Far-right conspiracy groups on fringe platforms: a longitudinal analysis of radicalization dynamics on Telegram. Convergence: The International Journal of Research into New Media Technologies. Externer Link: doi.org/10.1177/13548565221104977

  43. Hsueh, M., Yogeeswaran, K. & Malinen, S. (2015): „Leave your comment below“: Can biased online comments influence our own prejudicial attitudes and behaviors? Human Communication Research, 41(4), 557-576.

  44. Bilewicz, M., & Soral, W. (2020). Hate speech epidemic. The dynamic effects of derogatory language on intergroup relations and political radicalization. Political Psychology, 41, 3-33.

  45. Leets, L. (2002): Experiencing Hate Speech: Perceptions and Responses to Anti-Semitism and Antigay Speech. Journal of Social Issues, 58(2), 341-361.

  46. Hsueh, Yogeeswaran & Malinen, 2015; Rösner, L., Winter, S. & Krämer, N.C. (2016): Dangerous minds? Effects of uncivil online comments on aggressive cognitions, emotions, and behavior. Computers in Human Behavior, 58, 461-470.; Soral, W., Bilewicz, M. & Winiewski, M. (2018): Exposure to hate speech increases prejudice through desensitization. Aggressive Behavior, 44(2), 136-146.

  47. Näsi, M., Räsänen, P., Hawdon, J., Holkeri, E., & Oksanen, A. (2015): Exposure to online hate material and social trust among Finnish youth. Information Technology & People, 28(3), 607-622.

  48. Schäfer, S., Sülflow, M. & Reiners, L. (2021). Hate Speech as an Indicator for the State of the Society: Effects of Hateful User Comments on Perceived Social Dynamics. Journal of Media Psychology, 34(1), 3–15. Externer Link: https://doi.org/10.1027/1864-1105/a000294

  49. Auf Deutsch auch als das Gesetzt über digitale Dienste bezeichnet: Externer Link: https://commission.europa.eu/strategy-and-policy/priorities-2019-2024/europe-fit-digital-age/digital-services-act_de

  50. Rothut, S., Schulze, H., Rieger, D., Bouko, C., & Naderer, B. (2023). Improving Your Counter-Terrorism Response: A Six-Step Guide to Adhering to the EU’s TCO Regulation [English, German, French]. Technical Report prepared for EU project Tech Against Terrorism Europe (TATE) Externer Link: https://ksp.techagainstterrorism.org/wp-content/uploads/2023/09/TATE_Guide_EN.pdf

  51. Vgl. George, S. (2016): Approaches for Countering Violent Extremism at Home and Abroad. The Annals of the American Academy of Political and Social Science 668(1), 94-101.

  52. Vgl. Niewöhner, M. (2021). NetzDG und Meinungsfreiheit: Zur Anreizstruktur und Eingriffsqualität des NetzDG insbesondere im Hinblick auf Overblocking. Datenschutz und Datensicherheit-DuD, 45(6), 391-395.

  53. McDonald, B. (2022). Extremists are Seeping Back into the Mainstream: Algorithmic Detection and Evasion Tactics on Social Media Platforms. Externer Link: https://gnet-research.org/2022/10/31/extremists-are-seeping-back-into-the-mainstream-algorithmic-detection-and-evasion-tactics-on-social-media-platforms/

  54. Macdonald, S., & Vaughan, K. (2024). Moderating borderline content while respecting fundamental values. Policy & Internet, 16(2), 347-361.

  55. Greipl, S., Hohner, J., Schulze, H. & Rieger, D. (2022). Radikalisierung im Internet: Ansätze zur Differenzierung, empirische Befunde und Perspektiven zu Online-Gruppendynamiken. In U. Kemmesies et al. (Hrsg.), MOTRA-Monitor 2021 (pp. 42-71). Wiesbaden: Aumüller Druck GmbH & Co. KG. Externer Link: https://doi.org/10.53168/isbn.978-3-9818469-4-2_2022_MOTRA; Schulze, H., Greipl, S., Hohner, J., & Rieger, D. (2023). Zwischen Furcht und Feindseligkeit: Narrative Radikalisierungsangebote in Online-Gruppen. MOTRA Monitor 2022 (pp. 40-64). Aumüller Druck GmbH & Co. KG.

  56. Greipl, S., Hohner, J., Schulze, H., Schwabl, P., & Rieger, D. (2024). “You are doomed!" - Crisis-specific and dynamic use of fear speech in protest and extremist radical social movements. Journal of Quantitative Description: Digital Media, 1-46. Externer Link: https://doi.org/10.51685/jqd.2024.icwsm.8

  57. Doosje, B., Loseman, A., & Van Den Bos, K. (2013). Determinants of radicalization of Islamic youth in the Netherlands: Personal uncertainty, perceived injustice, and perceived group threat. Journal of Social Issues, 69(3), 586-604.

  58. Bornschier, S. (2018): Globalization, cleavages and the radical right. In: J. Rydgren, The Oxford Handbook of the radical right (S. 212). Oxford: Oxford University Press.

  59. Freiheit, M., Zick, A. (2022). Die Rolle von islamistischen Gruppen und Milieus in der Hinwendung und Radikalisierung von jungen Menschen. In B. Milbradt, A. Frank, F. Greuel,& M. Herding (Hrsg.), Handbuch Radikalisierung im Jugendalter. Phänomene, Herausforderungen, Prävention (pp. 247–262). Opladen: Verlag Barbara Budrich.

Lizenz

Dieser Text ist unter der Creative Commons Lizenz "CC BY-NC-ND 4.0 - Namensnennung - Nicht kommerziell - Keine Bearbeitungen 4.0 International" veröffentlicht.
Urheberrechtliche Angaben zu Bildern / Grafiken / Videos finden sich direkt bei den Abbildungen.
Sie wollen einen Inhalt von bpb.de nutzen?

Weitere Inhalte

Weitere Inhalte

InfoPool Rechtsextremismus

Mehr als nur „Extremismusprävention“

Politische Bildung und Beratung gegen Rechtsextremismus werden oft in einem Atemzug als Präventionsansätze genannt. Welche Schnittmengen und Abgrenzungen beider Ansätze gibt es?

Infodienst Radikalisierungsprävention

Webtalkreihe: Schule – Radikalisierung – Prävention

Was hat Radikalisierungsprävention mit Schule zu tun? Fachleute aus Wissenschaft und pädagogischer Praxis stellen von März bis Juni in zehn Webtalks ihre Ansätze und Forschungsergebnisse vor.

Video Dauer
Webvideo

Reflect Your Past - Cheng komentiert Kommentare

In einem vorigen Video traf der YouTuber Cheng auf den ehemalig rechtsextremen Maximilian Kelm. In diesem Video reagiert Cheng auf die Reaktionen, die dieses Video ausgelöst hat und ordnet diese ein.

Video Dauer
Webvideo

Reflect Your Past - Road Trip mit Diana zur Löwen

Der ehemalige Rechtsextreme Christian Weißgerber fährt mit der YouTuberin Diana zur Löwen zu den Orten, die ihn auf seinem Weg in den Rechtsextremismus und während seiner Zeit in dieser Szene…

Heidi Schulze ist wissenschaftliche Mitarbeiterin am Institut für Kommunikationswissenschaft und Medienforschung an der LMU München. Ihre Forschungsschwerpunkte sind politische und digitale Kommunikation, Medienwirkungsforschung sowie Extremismus und Radikalisierung Online.

Diana Rieger ist Professorin für Kommunikationswissenschaft am Institut für Kommunikationswissenschaft und Medienforschung an der Ludwig-Maximilians-Universität München (LMU). In ihrer Forschung befasst sie sich mit Merkmalen und Auswirkungen von Hassrede, extremistischer Online-Kommunikation sowie der Messung von Radikalisierungsindikatoren auf Sozialen Medien und Gegenrede.