Digitale Technologien prägen unseren Alltag heute so selbstverständlich, dass man von einem postdigitalen Zeitalter sprechen kann. Digitale Kommunikation ist keine Ausnahmeerscheinung mehr, sondern die Regel. Die virtuelle Sphäre ist kaum noch von der „analogen“ Welt zu trennen. In Online-Gemeinschaften mobilisiert eine große Bandbreite Interner Link: rechtsextremer Gruppen potenzielle Anhänger:innen für ihre demokratie- und menschenfeindlichen Weltbilder. Sie reichen von offen gewaltbereiten, Interner Link: neonazistischen Milieus auf alternativen Plattformen bis hin zu subtileren Kommunikationsformen mit bürgerlichem Anstrich auf Social-Media-Apps des Mainstreams.
Rechtsterrorismus mit globalem Publikum
Um zu verstehen, wie stark die erhoffte Resonanz eines Echtzeit-Publikums in digitalen Communitys die Ausübung physischer Gewalt befördern kann, lohnt sich ein Blick zurück in das Jahr 2019. Am 15. März 2019 konnten Facebook-User:innen weltweit live verfolgen, wie im neuseeländischen Interner Link: Christchurch 51 Menschen durch einen Rechtsterroristen ermordet wurden. Der Attentäter filmte seine Tat mit einer Go-Pro-Kamera an seinem Helm und kommentierte sie zu Hintergrundmusik, während er gezielt Muslim:innen in zwei Moscheen tötete. Kurz zuvor hatte er auf dem Imageboard 8chan ein rassistisches Manifest veröffentlicht, in dem er sich auf den rechtsextremen Kampfbegriff des Interner Link: „Großen Austauschs“ bezog und die Online-Community explizit zur Weiterverbreitung seiner Botschaft aufrief: „So Leute, es ist Zeit, […] im echten Leben etwas zu unternehmen. […] Ich werde diese Eindringlinge angreifen […] Bitte leistet euren Beitrag und verbreitet meine Botschaft, erstellt weiter Memes und shitpostet .“
Ein halbes Jahr später, am höchsten jüdischen Feiertag Jom Kippur, erschoss ein Attentäter Interner Link: in Halle zwei Menschen aus antisemitischen, rassistischen und frauenfeindlichen Motiven. Auch er übertrug seine Tat live, diesmal auf der Plattform Twitch. Davor hatte er ein PDF-Pamphlet auf einem Imageboard gepostet, das sich ursprünglich der Manga- und Anime-Kultur widmete (Erb 2020: 24). In seinem Livestream erklärte er, jüdische Menschen seien die Interner Link: Ursache aller Probleme und der Feminismus sei verantwortlich Interner Link: für sinkende Geburtenraten und eine daraus resultierende „Masseneinwanderung“ (Kracher 2020: 65). Wie beim Anschlag von Christchurch finden sich viele Bezüge zur Gaming-Welt, etwa die Ego-Shooter-Perspektive des Streams. Das Video verbreitete sich über weitere digitale Medien, unter anderem über rechtsextreme Telegram-Kanäle. Der Täter stellte sich selbst als „Anon“ vor. Damit verweist er auf Imageboards wie 4chan und 8kun (vormals 8chan), wo sich User:innen so nennen, da sie auch ohne Registrierung als „Anonymous“ posten können (Guhl et al. 2020: 7). In Imageboards und Messenger-Gruppen wurde die Tat teils geschockt, teils begeistert kommentiert (Erb 2020: 36-41).
Solche rechtsterroristischen Anschläge sind eine extreme Ausdrucksform digital kultivierter Menschenfeindlichkeit. Auch spätere Täter suchten ein potenziell globales Publikum, streamten ihre Taten live und bezogen sich explizit auf frühere Anschläge wie in Christchurch oder Halle. Digitale Foren dienen dabei nicht nur dazu, Propaganda zu verbreiten und Sichtbarkeit zu erzeugen. Sondern durch sie kann Gewalt als unterhaltsam und gleichzeitig heldenhaft inszeniert werden. Virtuelle Communitys werden direkt angesprochen und dienen als Resonanzraum für (scheinbar) persönliche Anerkennung und Bewunderung.
Digitale Kultur und Gemeinschaften
Eine digital vernetzte Welt ermöglicht diverse Formen der Gemeinschaftsbildung, die unsere Alltagspraktiken genauso nachhaltig verändert haben wie unsere sozialen Interaktionen und Identitäten. Solche sozialen Resonanzerwartungen können Menschen dazu motivieren, sich in digitalen Räumen niedrigschwellig mit anderen auszutauschen und zu vernetzen. Der Begriff „digitale Kulturen“ meint kollektive Denk- und Verhaltensweisen, die Menschen durch die Nutzung digitaler Medien entwickeln und die wiederum in die Weiterentwicklung Interner Link: technologischer Innovationen einfließen. Sie entstehen aus der Interaktion zwischen Technik, Mensch und Gesellschaft (Bogerts et al. 2025: 19). Daraus sind vielfältige digitale (Sub-)Kulturen entstanden, in denen Menschen sich weltweit zugehörig fühlen, auch ohne sich persönlich zu begegnen – von Gaming- oder Meme-Communitys über K-Pop-Fandom und „Swifties“ bis hin zur „Open Knowledge“-Bewegung und TikTok-Trends wie #BookTok. Viele dieser Gemeinschaften sind unterhaltsam und nicht ausdrücklich politisch. Sie können Zugehörigkeit stiften, kreative Ausdrucksformen fördern und sogar demokratisches oder emanzipatorisches Potenzial entfalten.
Gleichzeitig stehen die Möglichkeiten digitaler Gemeinschaftsbildung natürlich auch antidemokratischen, menschenverachtenden Bewegungen offen, um gezielt zu mobilisieren. Die Beschaffenheit digitaler Foren und sozialer Medien – wie schnelle Reichweitenstärke, anonyme Interaktion und algorithmische Verstärkung polarisierender Inhalte – begünstigen extreme und emotionalisierende Aussagen und beschleunigen die Verbreitung von Hass. Entsprechend gilt das Internet auch als Interner Link: Verstärker rechtsextremer Ideologien und Mobilisierung.
Alternative Plattformen und Vereinnahmung digitaler Infrastruktur
Viele der digitalen Mittel, die die Attentäter von Christchurch und Halle einsetzten, sind bis heute relevant und haben sich technologisch weiterentwickelt. Dazu gehören Livestreams ebenso wie Memes und Shitposting. Durch KI können Inhalte mittlerweile automatisiert und noch schneller erstellt und verbreitet werden. Dazu erschwert es die zunehmende Qualität, echte Fotos und Videos von KI-erzeugtem Material zu unterscheiden. Rechtsextreme Akteure vereinnahmen weiterhin die Infrastruktur von Gaming-Communitys, um Anhänger:innen zu mobilisieren – etwa auf Twitch, Steam oder Discord (Schlegel et al. 2025). Als Reaktion auf die beginnende Regulierung großer Social-Media-Plattformen wie Facebook und Sperrung von Accounts (sog. Deplatforming) wichen ab Ende der 2010er-Jahre viele Rechtsextreme auf alternative Plattformen wie 4chan oder 8chan (heute: 8kun) aus. Diese werden deutlich weniger moderiert und verweisen auf ein cyberlibertäres Verständnis von Meinungsfreiheit. Dort ist mit weniger Gegenrede zu rechnen, da die Nutzerschaft homogener ist. Während Rechtsextreme weiterhin Mainstream-Plattformen nutzen, um in einem moderaten Ton öffentliche Debatten zu beeinflussen und neue Anhänger:innen zu rekrutieren (front stage), fungieren alternative und geschlossene Plattformen als radikalisierter Rückzugsraum, in dem offener menschen- und demokratiefeindliche Inhalte verbreitet werden (back stage) (Mudde 2000: 68). Imageboards wie 8kun und in geringerem Maße 4chan wurden durch anonyme Nutzung, fehlende Moderation und geringe Regulierung zu einem „Biotop, in dem sich Rechtsextreme vernetzen, radikalisieren, inspirieren und Aktionen planen – bislang weitgehend im Schatten von Strafverfolgung und Gesetzen“ (Guhl et al. 2020: 7). Zu den kaum regulierten Plattformen gehört neben Imageboards und dem Videoportal Bitchute auch der Messengerdienst Telegram.
Die „Terrorgram“-Szene auf Telegram
Im Januar 2026 wurde bekannt, dass deutsche Sicherheitsbehörden mehrere konkrete Anschlagspläne aus dem sogenannten „Terrorgram“-Netzwerk verhindert hatten. In dieser digitalen „Attentäter-Fanszene“ werden die Täter von Christchurch, Halle, Buffalo und anderen Anschlägen als „Heilige“ verehrt und Nachahmungstaten angekündigt (Jugl-Kuntzsch/Köhler 2026: 20). Der Name verweist auf die App Telegram, auf der die Szene überwiegend aktiv ist. Telegram ist mit rund einer Milliarde Nutzer:innen einer der beliebtesten Messenger weltweit. Der russische Internet-Unternehmer Pawel Durow erschuf die App 2013 als cyberlibertären Gegenentwurf zu den damaligen Mainstream-Messengern wie WhatsApp. Die Moderation der Gruppenchats und Kanäle obliegt den Admins und User:innen; jahrelang kam es nur selten zu Sperrung oder Löschungen. Das konspirative Image und das libertäre Verständnis von Meinungsfreiheit gehören zur Markenidentität (Donner et al. 2025). Telegram entwickelte sich so zu einer der wichtigsten digitalen Kommunikationsmittel für kriminelle Aktivitäten, Rechtsextremismus und Verschwörungsideologie (Guhl et al. 2020: 10; CEMAS 2023). Im August 2024 wurde Durow in Frankreich festgenommen, weil die Pariser Staatsanwaltschaft gegen ihn ermittelte – wegen Beihilfe zu Straftaten, wie Drogenhandel und Verbreitung von Kindesmissbrauchsmaterials, durch unzureichende Moderation auf Telegram. Nachdem er eine stärkere Regulierung ankündigte und diese laut veröffentlichten Zahlen auch umsetzte, durfte er Ende 2025 wieder das Land verlassen. Seit Februar 2026 läuft auch in Russland ein Strafverfahren gegen ihn, weil ihm der Kreml Unterstützung terroristischer Aktivitäten vorwirft.
Das „Terrorgram“-Netzwerk entwickelte sich ab 2019 dezentral in lose verbundenen Gruppen und Kanälen. Terrorverherrlichung wird dort mit Waffenfaszination, NS-Symbolik sowie rassistischen, antisemitischen, frauen- und queerfeindlichen Narrativen verknüpft. Geteilt werden teils aufwendig gestaltete Publikationen, Videos und Memes, die zu terroristischer Gewalt aufrufen oder diese ästhetisieren (Jugl-Kuntzsch/Köhler 2026: 20). Viele Memes sind in der Interner Link: Fashwave-Ästhetik gehalten: einem retro-futuristischen Stil, der die frühe Internetkultur humoristisch wieder aufleben lässt und gleichzeitig militaristische Männlichkeit und die NS-Vergangenheit glorifiziert (Bogerts/Fielitz 2025). Hakenkreuze und SS-Totenköpfe sind häufig geteilte Symbole, ebenso wie solche aus Interner Link: rechtsextrem-okkulten Strömungen des Satanismus (Colin 2025) und aus der frauenfeindlichen Interner Link: Incel-Szene und der sogenannten Interner Link: Mannosphäre (Johanssen 2023; Kracher 2020). Obwohl kein ideologisch konsistentes Weltbild vorherrscht, eint die Szene der Glaube an den militanten Akzelerationismus: einer rechtsextremen Strategie, nach der durch gezielte Gewalt, Panikmache und Terror gesellschaftliches Chaos ausgelöst und der Zusammenbruch der liberal-demokratischen Gesellschaft beschleunigt werden kann (CEMAS 2022).
Kollektive Offline-Aktionen der Szene scheint es kaum zu geben; geplante Gewalttaten gehen überwiegend von einzelnen User:innen aus. Dennoch zeigt sich hier, wie digitale Plattformen kollektive Ökosysteme hervorbringen können, in denen Gewaltfantasien schrittweise zu konkreten Anschlagsplänen werden. Eine Analyse identifizierte 2025 in Deutschland 164 Gruppen und 650 Angehörige der „Terrorgram“-Szene, darunter 83 sogenannte „Heavy User“ mit besonders hohem Gefahrenpotenzial (Manemann 2025). Das Durchschnittsalter der 37 Personen aus dem „Terrorgram“-Netzwerk, gegen die 2025 in Deutschland Ermittlungen oder Strafverfahren eingeleitet wurden, lag bei gut 16 Jahren. Alle waren männlich (Jugl-Kuntzsch/Köhler 2026: 26).
Das Beispiel von Telegram verdeutlicht, wie ein geringes Maß an Moderation und eine Selbstinszenierung als libertäre Plattform die kollektiven Kommunikationspraktiken der User:innen beeinflussen können. Zudem bietet die App, neben der Kommunikation in Privatchats (one-to-one) und offenen oder geschlossenen Gruppenchats (few-to-few oder many-to-many), eine Broadcast-Funktion über Kanäle an (one-to-many). Damit können Kanalbetreibende einseitig ihre Botschaften an eine große Menge an Subscriber:innen schicken und ohne Gegenrede Narrative verbreiten. Das kann zur schnellen Verbreitung von Desinformation und zur Entstehung demokratieskeptischer bis -feindlicher digitaler Gegenöffentlichkeiten beitragen (Panahi el at. 2024: 24). So machte es schon 2017 Martin Sellner vor, die Leitfigur der rechtsextremen Identitären Bewegung in Österreich, als er auf Telegram auswich. Die Plattform fungiert aber nicht nur als digitaler Rückzugsort, sondern auch als Scharnier zwischen abgeschotteten Szenen und öffentlichem Diskurs und hat „eigene Kommunikationsmuster und eine Kultur hervorgebracht […]“ (Donner et al 2025).
Kommunikationskulturen von Telegram bis TikTok
Auch wenn die Relevanz von Telegram für einige Interner Link: verschwörungsideologische Gruppierungen wie die „Querdenker“ zuletzt abgenommen hat, nahmen die Subscriber:innen in neurechten Gruppenchats und Kanälen zu (Donner et al. 2025). Dieser Zulauf liegt auch an der seit Anfang 2024 entfachten Debatte um „Remigration“. Der Begriff beschreibt die Rückwanderung von Migrant:innen in ihr Herkunftsland. Remigration wird zunehmend von rechtsextremen und rechtspopulistischen Akteuren genutzt und umgedeutet: Dort beruht er auf der Annahme von einer vor fremden Einflüssen zu schützenden weißen und homogenen Volksgemeinschaft (siehe Interner Link: Ethnopluralismus), die die massenhafte Zwangsausweisung von Menschen mit eigener oder familiärer Migrationsgeschichte vorsieht. Der österreichische Rechtsextremist Martin Sellner stellte ein darauf beruhendes Konzept beim sogenannten Potsdamer Geheimtreffen im November 2023 vor – dieses bezog er auch auf Menschen, die die deutsche Staatsbürgerschaft haben oder schon lange in Deutschland leben. An diesem Treffen beteiligte sich auch Ulrich Siegmund, der mittlerweile Spitzenkandidat der Interner Link: Alternative für Deutschland (AfD) in Sachsen-Anhalt ist. Der AfD-Landesverband Sachsen-Anhalt wird vom Landesverfassungsschutz Sachsen-Anhalt als Interner Link: gesichert rechtsextremistische Bestrebung eingestuft.
Siegmund wiederum nutzt auf den Social-Media-Plattformen des Mainstreams eine andere digitale Kommunikationsstrategie: Seinem TikTok-Account folgen mit über 611.000 Menschen mehr als fast allen anderen deutschen Politiker:innen. Er baute seine Follower:innenschaft zunächst inkognito auf und gab sich erst später als AfD-Politiker zu erkennen. Das erleichterte es möglicherweise Menschen, die sich zunächst nicht mit den radikalen Positionen der AfD identifizieren konnten, ihm zu folgen. In seinen eng getakteten Videoclips bemüht er eine optimistische und volksnahe Tonart; stilistisch dominiert eine authentisch wirkende Do-it-yourself-Ästhetik. Ähnlich wie bei anderen offiziellen TikTok-Accounts von AfD-Politiker:innen „findet man weder durchinszenierte Vorstellungsvideos noch biedere Wiederholungen überstrapazierter TikTok-Trends […] Stattdessen setzen die Akteur*innen […] auf schnörkellose Professionalität, Nahbarkeit und Emotionalisierung“ (Schnabel/Berendsen 2024: 22). Dieser Stil weicht stark von dem zahlreicher Accounts von AfD-Anhänger:innen ab, die vor allem auf KI-generierte Videos setzen. In Siegmunds Realvideos vermischt sich der freundliche und nahbare Ton mit feindbildschürenden Behauptungen, ohne sich dabei klar rechtsextrem zu positionieren. Dennoch reproduziert er das Narrativ einer völkischen Homogenität, einem der Kernelemente rechtsextremer Ideologien. Am prominentesten wiederholt Siegmund immer wieder die These, dass Gewalttaten und -anschläge im öffentlichen Raum „in unserem Land und in unserer Kultur undenkbar waren“ (Post vom 20.12.2024), bevor im Sommer 2015 außergewöhnlich viele Menschen nach Deutschland flüchteten. Im Mittelpunkt des im Januar 2026 veröffentlichten Wahlprogrammentwurfs der AfD Sachsen-Anhalt stehen umfassende Pläne für „Remigration“, die sie umsetzen will, sollte sie nach den Landtagswahlen im September erstmals in eine Landesregierung kommen.
KontroverseEinordnung der AfD
In der Politikwissenschaft reicht das Spektrum zur Einordnung der AfD von rechtspopulistisch, völkisch-nationalistisch, rechtsradikal, rassistisch bis rechtsextremistisch. Seit 2021 wird die AfD als „rechtsextremistischer Verdachtsfall“ durch das Bundesamt für Verfassungsschutz (BfV) eingestuft. Am 2. Mai 2025 stufte das BfV die gesamte AfD als „gesichert rechtsextremistische“ Partei ein. Gegen die Einstufung hat die AfD beim Verwaltungsgericht Köln Klage eingereicht. Am 8. Mai 2025 hat das Externer Link: BfV eine „Stillhaltezusage“ abgegeben, d.h. das BfV setzt seine Einstufung vorerst aus, bis das Gericht zu einer Entscheidung im Eilverfahren gekommen ist.
In Thüringen, Sachsen-Anhalt, Sachsen und Brandenburg stuft der jeweilige Landesverfassungsschutz die Partei als „erwiesene“ bzw. „gesichert rechtsextremistische Bestrebung“ ein. In Sachsen-Anhalt und Brandenburg haben die Landesverbände Klage gegen diese Einstufung eingereicht.
Für eine schleichende Interner Link: Normalisierung rechtsextremer Positionen eignen sich Mainstream-Plattformen wie TikTok gut, wenn auf offene Gewaltaufrufe oder andere strafbare Aussagen verzichtet wird. Rechtsextreme setzen meist auf positiv besetzte Gefühle wie Stolz auf Deutschland oder die Zusammengehörigkeit einer eingeschworenen, ethnisch homogenen Volksgemeinschaft. Durch den Aufbau der App, und insbesondere die „For you“-Seite mit algorithmisch eingespielten Videos, können sie eine scheinbare Bindung zu den User:innen aufbauen. Offene Hassrede findet man bei AfD-Politiker:innen auf TikTok nur selten. So unterscheidet sich diese Plattform von alternativen digitalen Communitys wie auf Telegram, in denen Rechtsterroristen offen Gewalttaten verherrlichen.
Gegenmaßnahmen zu Hass im Netz
Es gibt eine Bandbreite von Gegenmaßnahmen gegen die Verbreitung demokratie- und menschenfeindlicher Weltbilder sowie Gewalt im Netz. Auf individueller Ebene reicht das von Deradikalisierungs- und Präventionsprogrammen für potenzielle rechtsterroristische Täter:innen – insbesondere junger Menschen – bis hin zu Schutzangeboten für Betroffene rechtsextremer Gewalt. Auf staatlicher Ebene wird die Regulierung und stärkere Moderation großer Plattformen vorangetrieben, um rechtsextreme Accounts oder Kanäle konsequenter zu löschen. Allerdings birgt dieses sogenannte Deplatforming auch das Risiko, dass sich Nutzer:innen in alternative, geschlossene Räume zurückziehen und dort radikalisieren. Die Macht großer Internetkonzerne wie X, Meta oder ByteDance (TikTok) erschwert es demokratischen Regierungen zudem, Plattformregulierungen durchzusetzen – etwa die Regeln des 2024 in Kraft getretenen Interner Link: Digital Services Act (DSA) der Europäischen Union. Dennoch bleiben Strafverfolgung und Gesetzgebung, auch im Bereich digitale Gewalt, zentrale juristische Maßnahmen gegen Hass im Netz.
Ansätze für gemeinwohlorientierte Plattformen versuchen, dieser Marktlogik etwas entgegensetzen und können auch dazu beitragen, digitale Desinformation zu verringern. Neben präventiven Ansätzen zielen andere Maßnahmen darauf ab, Nutzer:innen zu befähigen, bei rechtsextremen Äußerungen direkt einzugreifen. Durch Bildung und Medienkompetenz werden Menschen in digitalen Communities darin gestärkt, Hassinhalten keinen Resonanzraum zu bieten. Dazu gehört digitale Zivilcourage sowie Wissen über Handlungsmöglichkeiten im Umgang mit Hate Speech und offener Gewalt (z.B. Gegenrede, Melden, rechtliche Schritte).
Je subtiler Hass und rechtsextreme Ideologien geäußert werden, desto schwerer ist es, ihnen wirksam zu begegnen. Gegenmaßnahmen dürfen sich daher nicht auf die Funktionslogiken digitaler Räume beschränken, sondern müssen auch der Normalisierung rechtsextremer Aussagen in der Gesellschaft allgemein entgegenwirken – denn ohne diese hat auch digitaler Hass weniger Nährboden. Nur können sie den Realitäten des postdigitalen Zeitalters gerecht werden.