Themen Mediathek Shop Lernen Veranstaltungen kurz&knapp Die bpb Meine Merkliste Geteilte Merkliste PDF oder EPUB erstellen Mehr Artikel im

„Rechtsextreme TikToker gehen sehr subtil vor“ | InfoPool Rechtsextremismus | bpb.de

InfoPool Rechtsextremismus Zielgruppen Schule Politische Bildung Jugendarbeit & Soziale Arbeit Sicherheitsbehörden Öffentliche Verwaltung Betroffene Themenschwerpunkte Grundlagen: Begriffe & Konzepte Ausstieg & Deradikalisierung Beratungsarbeit Reichsbürger Antifeminismus Gedenkstätten Antisemitismus Weitere Themen Materialsammlungen Fachdidaktische Publikationen Materialien und Methoden für die pädagogische Praxis Ausgewählte Publikationen für pädagogische Fachkräfte Service Anlaufstellen Angebote der bpb Über den InfoPool Rechtsextremismus

„Rechtsextreme TikToker gehen sehr subtil vor“ Ein Interview über digital Streetwork gegen Antisemitismus

Sofía Hernández Tila de Almeida Mendonça

/ 9 Minuten zu lesen

Wie man Antisemitismus im Netz erkennt und wirksam dagegen angeht, das erforscht seit Januar 2023 das vom Bundesministerium für Forschung, Technologie und Raumfahrt geförderte Projekt „deras_on – Deradikalisierung Antisemitismus Online". Es wird vom Jenaer Jugendhilfeverein Drudel 11 e.V. geleitet und vom Zentrum für Antisemitismusforschung (TU Berlin) wissenschaftlich begleitet. Wie sie im digitalen Raum antisemitischen und rechtsextremen Äußerungen begegnen, darüber sprechen die Soziologinnen Sofía Hernández und Tila Mendonça von Drudel 11.

Tila Mendonça und Sofía Hernández von Drudel 11 erproben Online-Ansprachen auf Sozialen Medien, um herauszufinden, wie dort auf antisemitische und rechtsextreme Aussagen deradikalisierend reagiert werden kann. (© Privat)

Redaktion InfoPool: Das Projekt „deras_on – Deradikalisierung Antisemitismus Online“ erprobt Online-Ansprachen zur Deradikalisierung von Personen, die im Internet rechtsextrem oder antisemitisch in Erscheinung treten. Wie äußert sich rechtsextremer Antisemitismus online konkret?

Sofía Hernández: Unser Projekt arbeitet vor allem auf TikTok und Instagram. Wir erproben Online-Ansprachen in den dortigen Kommentarspalten, um antisemitischen und rechtsextremen Aussagen in den Kommentaren zu begegnen.

Gerade auf Instagram gibt es viele rechte Meme-Pages . Ich nehme in meiner Arbeit vor allem das Thema Verschwörungsglauben wahr. Es existieren viele KI-Videos und -Bilder, aber auch alte Verschwörungstheorien, die auf die Familie Rothschild Bezug nehmen – und seit Corona werden auch Geschichten von vermeintlichen Ritualmorden wieder aufgewärmt.

Tila Mendonça: Interner Link: Die Legende von Ritualmorden – besonders gegen Kinder – gibt es schon seit dem Mittelalter. Diese Verschwörungserzählung wird auf Social Media nun wiederbelebt. Das Hashtag #SaveTheChildren von Interner Link: QAnon kann hier als Beispiel genannt werden. Es klang erst einmal harmlos, aber von einigen Accounts wurde es benutzt, um zu behaupten, dass eine "geheime Elite" Kinder entführen würde, um sie zu foltern und deren Blut zu trinken oder ihnen bestimmte Hormone zu entziehen.

Sofía Hernández: Auch Interner Link: auf TikTok gibt es ganz viel Rechtsextremismus von jungen Leuten. Nicht immer ist dieser sofort als solcher erkennbar, aber zum Beispiel über Sounds wie bei dem „Sylt-Video“ aus dem Jahr 2024 leicht zuortbar. Die Melodie wurde auf TikTok immer wieder bespielt von Leuten, die beispielsweise ein Bild mit „Ich bin rechts“ oder einfach nur ein Selfie mit diesem Sound gepostet haben. Die konnte man dann sofort dem rechten Spektrum zuordnen – weil sie sich selbst durch die rassistische Konnotation des Memes in „die rechte Ecke gestellt haben“. Auch Personen untereinander konnten einander so direkt zuordnen und haben sich in den Kommentarspalten ausgetauscht. Und genau das ist für Laien oder Personen, die nichts mit dem Themenfeld zu tun haben, manchmal schwerer zu beurteilen. Denn nicht alle Memes und Social Media-Trends werden auch durch große Medien aufgegriffen und thematisiert, wie es bei dem „Sylt-Video“ der Fall war.

Auffällig ist, dass rechtsextreme Inhalte auf Social-Media-Plattformen nah an den Rezeptionsgewohnheiten und der Lebenswelt der Nutzenden ausgerichtet sind. Dadurch sinken sowohl die Hemmschwellen, wenn Grenzen überschritten werden, als auch die Hürde, eine emotionale Verbindung zu diesen Inhalten aufzubauen. Rechte TikToker:innen gehen dabei sehr subtil vor. Sie orientieren sich an aktuellen Trends, singen, tanzen und vermitteln nebenher ihre Ideologie. Dabei präsentieren sie sich bewusst harmlos und nutzen die ganze Bandbreite an jugendaffinen Elementen der Social-Media Welt: GIFs, Memes, Hashtags, häufig gepaart mit einem humoristischen Ansatz, der schon länger als stilistisches Mittel gilt, um rechte Propaganda zu verdecken. Offensichtlich rechsextreme Symbole werden meist vermieden. Stattdessen werden Emojis verwendet, die zunächst harmlos wirken. Dazu zählen zum Beispiel zwei Blitze, die als Zeichen für die SS – die „Schutzstaffel“ im Nationalsozialismus – gelten, oder auch ein vermeintlich unverfängliches Emoji, das die Hand hebt – als Symbol für den Hitler-Gruß. Darüber hinaus werden auch Emojis in den Farben der Reichsflagge, Adler oder Deutschlandfahnen verwendet.

Als ebenfalls harmlos wird zum Beispiel die starke Heimatverbundenheit rechter Influencer:innen inszeniert: mit starken Bildern von Burgen oder grünen Wiesen, oftmals verbunden mit traditionellen Familienkonstellationen. Diese Accounts vermitteln eher positive Eindrücke – Stolz, Ehre, Zugehörigkeit –, anstelle von Hass und Hetze. Auch rechte TikTokerinnen, Interner Link: inklusive sogenannter Tradwives, verfolgen diese Strategie, indem sie sich in ihren harmlos wirkenden Videos schminken oder kochen – und währenddessen von ihrer rechten Weltanschauung erzählen. Auf den ersten Blick seriös wirkende Erklärvideos wiederum verbreiten gezielt Desinformation, Hass und Hetze gegenüber sämtlichen rechten Feindbildern, wie Geflüchteten, Menschen mit Migrationshintergrund und eben auch Jüdinnen und Juden. In diesem Zusammenhang werden unter anderem historische Ereignisse falsch wiedergegeben oder NS-Verbrechen relativiert. Daneben existieren aber auch explizitere Kanäle, zum Beispiel rechtsextremistische Kampfsport-Accounts, mit einer betont männlich-rebellischen Ästhetik oder auch Kanäle mit eindeutigen NS-Bezügen.

Wie hat sich die Verbreitung von rechtsextremem Antisemitismus in den letzten Jahren verändert?

Sofía Hernández: Auf TikTok hat sich vor allem viel durch die voreingestellten Sounds verändert, auf die man immer wieder reagieren kann, sodass der Sound einen Wiedererkennungsfaktor hat und sich dadurch Peer-Groups im Netz bilden können. Ein Beispiel dafür ist das Lied „Es eskaliert“ von Schillah, ArniTheSavage und Justin Pollnik aus dem Jahr 2024. Der Text beginnt mit „Es Es-kaliert“, was phonetisch an „SS“ erinnert. Verbreitet wird das Lied vor allem von rechten TikTok-Nutzer:innen, erkennbar an Handzeichen, Flaggen im Hintergrund und weiteren Symbolen.

Tila Mendonça: Bei TikTok ist Teil des Algorithmus, welche Musik im Hintergrund zu hören ist. Das heißt, wenn jemand Videos mit einer bestimmten Musik „liked“, dann werden der Person auf der „For You“-Page öfter Sachen mit diesem Content vorgeschlagen.

Auch vermeintlich "aufklärerische" KI-Videos, die es vor einigen Jahren so noch nicht gab, sind mittlerweile ein häufiges Phänomen. Sie beinhalten viele visuelle Codes, nehmen Informationen und Fotos aus ihren Entstehungskontexten und vermischen häufig viele unterschiedliche Themen.

Gibt es bestimmte Plattformen oder digitale Räume, die besonders von rechtsextremen Inhalten betroffen sind?

Tila Mendonça: Unser Forschungsfokus liegt derzeit auf Instagram und TikTok. Aber grundsätzlich sind alle Plattformen betroffen – auch viele Online Games, wo sich Communities bilden können und es Platz für Chats gibt. Jede Plattform hat hier jedoch ein wenig eine andere Logik.

Sofía Hernández: Die Plattformen, auf denen wir arbeiten, TikTok und Instagram, bevorzugen visuelle Inhalte und sind algorithmisch getrieben, ihr emotionalisierender Content erhält eine höhere Reichweite. Auf TikTok wird Humor als Tarnung benutzt – unter anderem mit subtilen Memes und symbolischen Emojis. Instagram und TikTok sind bild- und videoorientierte Plattformen und nicht textbasiert. Insofern sind sie sich schon ähnlich. Aber zum Beispiel funktioniert TikTok besser über Videos, bei Instagram können es auch unbewegte Bilder sein. Deswegen unterscheidet sich, wie das Bildmaterial vermittelt wird. Bei Instagram reicht oft ein Meme, bei TikTok ist es in der Regel ein KI-Video. Das sind dann aber eher Nuancen. Auf X wiederum ist viel textbasiert.

Der Interner Link: Messenger-Dienst Telegram funktioniert anders, man wird nicht zufällig durch den Algorithmus einem Kanal hinzugefügt, sondern muss danach suchen. Aber sobald man drin ist, kommt man häufig an Links zu anderen Kanälen. Hier werden die Inhalte nicht so stark codiert, sondern kursieren offen und radikaler. Sie funktionieren in Form von Text, Links, Videos und Memes. Viele dieser Kanäle sind so aufgebaut, dass man nur passiv Inhalte bekommt, in anderen darf man in den Dialog eintreten. Die pädagogische Arbeit ist hier jedoch schwieriger, denn bei einer „Entlarvung“ als Nicht-Teil der Gruppe riskiert man rausgeworfen und blockiert zu werden. Das Monitoring dieser Kanäle ist sehr wichtig, jedoch nicht Teil unserer Arbeit.

Welche präventiven Methoden oder Ansätze – besonders in der Digital Streetwork – gibt es, die Jugendliche für diese Art von Inhalten sensibilisieren?

Sofía Hernández: Es braucht ein gutes Maß zwischen Gegenrede und Zuhören, ohne den Leuten Raum zu geben, ihren rechtsextremen Antisemitismus weiterzuverbreiten. Es gibt allerdings mehrere Studien, denen zufolge reine Gegenrede nichts bringt. Deshalb ist es wichtig, dass man sich genauer ansieht, wie man mit Ansprachestrategien arbeiten kann. Personen sollten Gegenrede erfahren – man kann bestimmte Inhalte bzw. Aussagen nicht im luftleeren Raum im Internet lassen –, ohne sie jedoch sofort zu verprellen. Interner Link: Das Internet funktioniert anders als zum Beispiel Streetwork aus den 1990er-Jahren, wo die Leute von Angesicht zu Angesicht miteinander geredet haben und man einen ganz anderen Beziehungsaufbau hatte. In der sozialen Arbeit funktioniert eigentlich kaum etwas ohne Beziehungsaufbau. Im digitalen Raum ist das natürlich um einiges schwieriger und es kann sehr schnell Widerstand ausgelöst werden. Es ist eine ganz wichtige pädagogische Aufgabe der Prävention, die Balance zu finden.

An Schulen ist Interner Link: Primärprävention sehr wichtig und darf nicht vergessen werden, vor allem hinsichtlich der Vermittlung von Medienkompetenzen gegenüber Fake News und Interner Link: Deepfakes. Wer gar nicht in dem Feld geschult ist, hat es oft schwer. Ein guter Tipp, um Deepfakes zu erkennen, ist die Google-Rückwärtssuche und die Suche nach den Quellen, die oft auch im Video enthalten sind.

Tila Mendonça: Die Heransgehensweisen verändern sich mit den Plattformen selbst, denn sie sind keine statischen Räume. Zum einen hat jede Plattform ihre eigene Dynamik, zum anderen verändern sich innerhalb einer Plattform im Zeitverlauf die Formate, Inhalte und Algorithmen. Zum Beispiel gab es auf Instagram anfangs nur quadratische Bilder, inzwischen dominieren dort auch Videos, Reels und Karussells. Dadurch werden die Inhalte anders aufgearbeitet, sowohl sprachlich als auch visuell. Für uns heißt das, dass sich auch unsere Arbeit anpassen muss an neue Formate, Erzählweisen und Plattformmechanismen. In anderen Worten, wir müssen nicht nur inhaltlich reagieren, sondern auch methodisch flexibel arbeiten, um niedrigschwellige Zugänge zu schaffen.

Sofía Hernández: Bei Online-Präventionsarbeit muss man, wie bereits gesagt, immer bedenken, dass jeder Social-Media-Kanal anders funktioniert, rechtsextreme und antisemitische Codes auf jeder Plattform anders verwendet werden und sich weiterentwickeln. Das beeinflusst unsere präventiven Ansätze insofern, als dass wir sehr stark situationsbezogen und plattformspezifisch arbeiten müssen. Unsere Methoden orientieren sich an der Dynamik und dem Stil der jeweiligen Plattform, zum Beispiel durch den Einsatz von humorvollen, niedrigschwelligen Ansprachestrategien. Im Projekt analysieren wir daher auch, wie sich Interaktionsdynamiken entwickeln und inwieweit sie durch unsere Interventionen beeinflusst werden. Dabei interessiert uns besonders, welche Kommunikationsformen im Sinne einer Deradikalisierung erfolgreicher verlaufen als andere.

Was kann man selbst tun, wenn man im Netz auf antisemitische Inhalte stößt?

Sofía Hernández: Man kann das als Privatperson immer melden. Zuallererst auf den Plattformen selbst, diese überprüfen das dann und entfernen gegebenenfalls den Content. Es gibt aber auch allgemeine, zivilgesellschaftlich getragene Meldestellen, wie zum Beispiel bei HateAid, die Meldestelle REspect! oder die Internet-Beschwerdestelle, oder solche, die für eine bestimmte Art von Menschenfeindlichkeit zuständig sind – für Antisemitismus ist das RIAS. Wenn Vorfälle gemeldet werden, können sie dokumentiert und somit in die Statistiken aufgenommen werden. Darüber hinaus kann natürlich auch bei der Polizei Anzeige erstattet werden.

Wichtig ist dabei, einen rechtssicheren Screenshot zu machen, auf dem alle Daten sichtbar sind. Außerdem kann man – abhängig von den persönlichen Kapazitäten – auch versuchen, privat mit den Leuten in die Diskussion zu gehen. Darüber hinaus hoffe ich, dass sich die Algorithmen weiterentwickeln und rechtsextreme sowie antisemitische Inhalte zukünftig selbst entdecken.

Was bräuchte es an Maßnahmen der Plattformbetreibenden oder der Politik, um antisemitischen Inhalten effektiv entgegenzuwirken?

Tila Mendonça: Algorithmen müssen angepasst werden, weil oft einfach ein Buchstabe mit einer Zahl ausgetauscht wird und dann erkennt der Algorithmus das schon nicht mehr als antisemitischen Post. Zum Beispiel „Hit1er“ mit einer 1 statt einem L zu schreiben. Auch in der Rechtslage braucht es Veränderungen. Das Monitoring muss besser funktionieren. Es mangelt noch daran, dass bestimmte Richtlinien nicht ausreichend eingehalten werden.

Sofía Hernández: Es wäre wichtig, dass Richtlinien wie Altersbegrenzungen besser eingehalten werden. TikTok beispielsweise setzt das Mindestalter der Nutzer:innen auf 13 Jahre. Es wird aber nicht richtig geprüft, ob jemand wirklich 13 Jahre alt ist. Außerdem muss das Melden schneller funktionieren und auch, dass Algorithmen rechtsextreme oder antisemitische Codes schneller erkennen. Dafür ist es wichtig, dass die Plattformbetreiber:innen das auch wollen. Auch wäre es wünschenswert, wenn die Förderlandschaft in Deutschland langfristig pädagogische Modelle und Projekte fördern würde.

Tila Mendonça: Neben den technischen und rechtlichen Maßnahmen braucht es auch eine stärkere inhaltliche Präsenz von sozialer Arbeit auf den Plattformen selbst – eine Verstetigung wäre hier also sinnvoll. Aufklärungsinhalt und Gegenrede gegen Antisemitismus müssen sichtbar sein, wo sich junge Menschen aufhalten. Digitale soziale Arbeit muss präsent, niedrigschwellig und wiedererkennbar sein.

Die Schule, beispielsweise, kann diese Präventionsarbeit nicht alleine leisten. Schulische Partnerschaften mit pädagogischen Projekten, die Workshops anbieten, wären eine Möglichkeit. Eine andere wäre, Workshops im außerschulischen Kontext, etwa in Jugendzentren oder in digitalen Räumen zu etablieren. Wichtig ist, dass gemeinsam erarbeitet wird, wie Desinformation aussieht, antisemitische Codes verbreitet werden und wie man darauf reagieren kann.

Quellen / Literatur

Ascone, Laura/Placzynta, Karolina/Vincent, Chloé (2023): Gegenrede gegen antisemitische Hassrede - eine vergleichende Studie französischer und britischer Online-Kommentarspalten In: Institut für Demokratie und Zivilgesellschaft (Hg.): Wissen schafft Demokratie. Schwerpunkt Netzkulturen und Plattformpolitiken, Band 14, Jena, S. 164–177. Online unter: Externer Link: https://www.idz-jena.de/fileadmin/user_upload/PDFs_WsD14/WsD14_Beitrag_Laura_Ascone_et_al.pdf (abgerufen am 15.09.2025).

Ebner, Julia (2019): “Counter-Creativity: Innovative Ways to Counter Far-Right Communication Tactics.” In: Fielitz, Maik/Thurston, Nick: Post-Digital Cultures of the Far Right: Online Actions and Offline Consequences in Europe and the US, S.169–181. Online unter: Externer Link: https://mediarep.org/server/api/core/bitstreams/367cb3c4-bf27-4993-8085-fc803d068013/content (abgerufen am 15.09.2025).

Jikeli, Günther (2017): Best Practices to Combat Antisemitism on Social Media. Research Report to the U.S. Department of State Office of Religion and Global Affairs. Online unter: Externer Link: https://isca.indiana.edu/documents/Report-to-State-Department-on-Best-Practices.pdf (abgerufen am 15.09.2025).

Hübscher, Monika/Pfaff, Nicolle (2023): „Weil je mehr Klicks die haben, desto mehr wird es dann natürlich auch“. Umgangsformen junger Menschen mit Antisemitismus und Hass in den sozialen Medien. In: Institut für Demokratie und Zivilgesellschaft (Hg.): Wissen schafft Demokratie. Schwerpunkt Netzkulturen und Plattformpolitiken, Band 14, Jena, S.178–191. Online unter: Externer Link: https://www.idz-jena.de/fileadmin/user_upload/PDFs_WsD14/WsD14_Beitrag_Monika_Huebscher_Nicolle_Pfaff.pdf (abgerufen am 15.09.2025).

Wetzel, Juliane (o.D.): Themenforum Antisemitismus – Antisemitische Verschwörungstheorien. Online unter: Externer Link: www.blz.bayern.de/antisemitische-verschwoerungstheorien.html (abgerufen am 15.04.2025).

Fussnoten

Fußnoten

  1. „Memes sind digitale Inhalte – Bilder, Videos, Formulierungen –, die sich durch (meist humoristische) Nachahmung und Veränderung schnell im Internet verbreiten.

  2. Die Verschwörungserzählung um die Familie Rothschild besagt, dass „eine vermeintlich jüdische Allmacht über das weltweite Finanzwesen“ herrscht und dieses lenkt (Wetzel, o.D.).

  3. Das sogenannte „Sylt-Video“ zeigt, wie Partygäste im Mai 2024 in einem Sylter Nobel-Club rassistische Slogans auf dem Neunzigerjahre-Hit „L’amour toujours“ von Gigi D’Agostino skandierten.

  4. Über Studien zur Ineffektivität von Gegenrede berichtet beispielsweise Julia Ebner in ihrem Bericht über „Counter-Creativity: Innovative Ways to Counter Far-Right Communication“. Näheres zu dieser und zu weiteren Studienberichten im Literaturverzeichnis.

Lizenz

Dieser Text ist unter der Creative Commons Lizenz "CC BY-NC-ND 4.0 - Namensnennung - Nicht kommerziell - Keine Bearbeitungen 4.0 International" veröffentlicht. Autoren/-innen: Sofía Hernández, Tila de Almeida Mendonça für bpb.de

Sie dürfen den Text unter Nennung der Lizenz CC BY-NC-ND 4.0 und der Autoren/-innen teilen.
Urheberrechtliche Angaben zu Bildern / Grafiken / Videos finden sich direkt bei den Abbildungen.
Sie wollen einen Inhalt von bpb.de nutzen?

Weitere Inhalte

Sofía Hernández ist stellvertretende Projektleiterin des Projektes „deras_on – Deradikalisierung Antisemitismus Online“ des Jenaer Jugendhilfevereins Drudel 11. In diesem Projekt ist sie vor allem für die pädagogische Betreuung und die Erprobung von Möglichkeiten der Zielgruppenansprache in verschiedenen Social-Media-Kanälen zuständig. Sie hat 2022 ihren Bachelor in Soziologie an der Universität Leipzig abgeschlossen und 2025 ihren Master in Sozial- und Organisationspädagogik an der Universität Hildesheim.

Tila de Almeida Mendonça ist Projektmitarbeiterin im Projekt „deras_on – Deradikalisierung Antisemitismus Online“ des Jenaer Jugendhilfevereins Drudel 11 e.V. Dort ist sie vor allem für die wissenschaftliche Auswertung der generierten Daten verantwortlich. Sie studierte Geschichte, Soziologie und Politikwissenschaft an der Universidade Federal de Goiás (Brasilien), an der Universidad Nacional Mayor de San Marcos (Peru) sowie an der Katholischen Universität Eichstätt-Ingolstadt und der Friedrich-Schiller-Universität Jena. Derzeit promoviert sie im Fach Osteuropäische Geschichte an der Friedrich-Schiller-Universität Jena.