Redaktion InfoPool: Das Projekt „deras_on – Deradikalisierung Antisemitismus Online“ erprobt Online-Ansprachen zur Deradikalisierung von Personen, die im Internet rechtsextrem oder antisemitisch in Erscheinung treten. Wie äußert sich rechtsextremer Antisemitismus online konkret?
Sofía Hernández: Unser Projekt arbeitet vor allem auf TikTok und Instagram. Wir erproben Online-Ansprachen in den dortigen Kommentarspalten, um antisemitischen und rechtsextremen Aussagen in den Kommentaren zu begegnen.
Gerade auf Instagram gibt es viele rechte Meme-Pages
Tila Mendonça:
Sofía Hernández: Auch
Auffällig ist, dass rechtsextreme Inhalte auf Social-Media-Plattformen nah an den Rezeptionsgewohnheiten und der Lebenswelt der Nutzenden ausgerichtet sind. Dadurch sinken sowohl die Hemmschwellen, wenn Grenzen überschritten werden, als auch die Hürde, eine emotionale Verbindung zu diesen Inhalten aufzubauen. Rechte TikToker:innen gehen dabei sehr subtil vor. Sie orientieren sich an aktuellen Trends, singen, tanzen und vermitteln nebenher ihre Ideologie. Dabei präsentieren sie sich bewusst harmlos und nutzen die ganze Bandbreite an jugendaffinen Elementen der Social-Media Welt: GIFs, Memes, Hashtags, häufig gepaart mit einem humoristischen Ansatz, der schon länger als stilistisches Mittel gilt, um rechte Propaganda zu verdecken. Offensichtlich rechsextreme Symbole werden meist vermieden. Stattdessen werden Emojis verwendet, die zunächst harmlos wirken. Dazu zählen zum Beispiel zwei Blitze, die als Zeichen für die SS – die „Schutzstaffel“ im Nationalsozialismus – gelten, oder auch ein vermeintlich unverfängliches Emoji, das die Hand hebt – als Symbol für den Hitler-Gruß. Darüber hinaus werden auch Emojis in den Farben der Reichsflagge, Adler oder Deutschlandfahnen verwendet.
Als ebenfalls harmlos wird zum Beispiel die starke Heimatverbundenheit rechter Influencer:innen inszeniert: mit starken Bildern von Burgen oder grünen Wiesen, oftmals verbunden mit traditionellen Familienkonstellationen. Diese Accounts vermitteln eher positive Eindrücke – Stolz, Ehre, Zugehörigkeit –, anstelle von Hass und Hetze. Auch rechte TikTokerinnen,
Wie hat sich die Verbreitung von rechtsextremem Antisemitismus in den letzten Jahren verändert?
Sofía Hernández: Auf TikTok hat sich vor allem viel durch die voreingestellten Sounds verändert, auf die man immer wieder reagieren kann, sodass der Sound einen Wiedererkennungsfaktor hat und sich dadurch Peer-Groups im Netz bilden können. Ein Beispiel dafür ist das Lied „Es eskaliert“ von Schillah, ArniTheSavage und Justin Pollnik aus dem Jahr 2024. Der Text beginnt mit „Es Es-kaliert“, was phonetisch an „SS“ erinnert. Verbreitet wird das Lied vor allem von rechten TikTok-Nutzer:innen, erkennbar an Handzeichen, Flaggen im Hintergrund und weiteren Symbolen.
Tila Mendonça: Bei TikTok ist Teil des Algorithmus, welche Musik im Hintergrund zu hören ist. Das heißt, wenn jemand Videos mit einer bestimmten Musik „liked“, dann werden der Person auf der „For You“-Page öfter Sachen mit diesem Content vorgeschlagen.
Auch vermeintlich "aufklärerische" KI-Videos, die es vor einigen Jahren so noch nicht gab, sind mittlerweile ein häufiges Phänomen. Sie beinhalten viele visuelle Codes, nehmen Informationen und Fotos aus ihren Entstehungskontexten und vermischen häufig viele unterschiedliche Themen.
Gibt es bestimmte Plattformen oder digitale Räume, die besonders von rechtsextremen Inhalten betroffen sind?
Tila Mendonça: Unser Forschungsfokus liegt derzeit auf Instagram und TikTok. Aber grundsätzlich sind alle Plattformen betroffen – auch viele Online Games, wo sich Communities bilden können und es Platz für Chats gibt. Jede Plattform hat hier jedoch ein wenig eine andere Logik.
Sofía Hernández: Die Plattformen, auf denen wir arbeiten, TikTok und Instagram, bevorzugen visuelle Inhalte und sind algorithmisch getrieben, ihr emotionalisierender Content erhält eine höhere Reichweite. Auf TikTok wird Humor als Tarnung benutzt – unter anderem mit subtilen Memes und symbolischen Emojis. Instagram und TikTok sind bild- und videoorientierte Plattformen und nicht textbasiert. Insofern sind sie sich schon ähnlich. Aber zum Beispiel funktioniert TikTok besser über Videos, bei Instagram können es auch unbewegte Bilder sein. Deswegen unterscheidet sich, wie das Bildmaterial vermittelt wird. Bei Instagram reicht oft ein Meme, bei TikTok ist es in der Regel ein KI-Video. Das sind dann aber eher Nuancen. Auf X wiederum ist viel textbasiert.
Der
Welche präventiven Methoden oder Ansätze – besonders in der Digital Streetwork – gibt es, die Jugendliche für diese Art von Inhalten sensibilisieren?
Sofía Hernández: Es braucht ein gutes Maß zwischen Gegenrede und Zuhören, ohne den Leuten Raum zu geben, ihren rechtsextremen Antisemitismus weiterzuverbreiten. Es gibt allerdings mehrere Studien, denen zufolge reine Gegenrede
An Schulen ist
Tila Mendonça: Die Heransgehensweisen verändern sich mit den Plattformen selbst, denn sie sind keine statischen Räume. Zum einen hat jede Plattform ihre eigene Dynamik, zum anderen verändern sich innerhalb einer Plattform im Zeitverlauf die Formate, Inhalte und Algorithmen. Zum Beispiel gab es auf Instagram anfangs nur quadratische Bilder, inzwischen dominieren dort auch Videos, Reels und Karussells. Dadurch werden die Inhalte anders aufgearbeitet, sowohl sprachlich als auch visuell. Für uns heißt das, dass sich auch unsere Arbeit anpassen muss an neue Formate, Erzählweisen und Plattformmechanismen. In anderen Worten, wir müssen nicht nur inhaltlich reagieren, sondern auch methodisch flexibel arbeiten, um niedrigschwellige Zugänge zu schaffen.
Sofía Hernández: Bei Online-Präventionsarbeit muss man, wie bereits gesagt, immer bedenken, dass jeder Social-Media-Kanal anders funktioniert, rechtsextreme und antisemitische Codes auf jeder Plattform anders verwendet werden und sich weiterentwickeln. Das beeinflusst unsere präventiven Ansätze insofern, als dass wir sehr stark situationsbezogen und plattformspezifisch arbeiten müssen. Unsere Methoden orientieren sich an der Dynamik und dem Stil der jeweiligen Plattform, zum Beispiel durch den Einsatz von humorvollen, niedrigschwelligen Ansprachestrategien. Im Projekt analysieren wir daher auch, wie sich Interaktionsdynamiken entwickeln und inwieweit sie durch unsere Interventionen beeinflusst werden. Dabei interessiert uns besonders, welche Kommunikationsformen im Sinne einer Deradikalisierung erfolgreicher verlaufen als andere.
Was kann man selbst tun, wenn man im Netz auf antisemitische Inhalte stößt?
Sofía Hernández: Man kann das als Privatperson immer melden. Zuallererst auf den Plattformen selbst, diese überprüfen das dann und entfernen gegebenenfalls den Content. Es gibt aber auch allgemeine, zivilgesellschaftlich getragene Meldestellen, wie zum Beispiel bei HateAid, die Meldestelle REspect! oder die Internet-Beschwerdestelle, oder solche, die für eine bestimmte Art von Menschenfeindlichkeit zuständig sind – für Antisemitismus ist das RIAS. Wenn Vorfälle gemeldet werden, können sie dokumentiert und somit in die Statistiken aufgenommen werden. Darüber hinaus kann natürlich auch bei der Polizei Anzeige erstattet werden.
Wichtig ist dabei, einen rechtssicheren Screenshot zu machen, auf dem alle Daten sichtbar sind. Außerdem kann man – abhängig von den persönlichen Kapazitäten – auch versuchen, privat mit den Leuten in die Diskussion zu gehen. Darüber hinaus hoffe ich, dass sich die Algorithmen weiterentwickeln und rechtsextreme sowie antisemitische Inhalte zukünftig selbst entdecken.
Was bräuchte es an Maßnahmen der Plattformbetreibenden oder der Politik, um antisemitischen Inhalten effektiv entgegenzuwirken?
Tila Mendonça: Algorithmen müssen angepasst werden, weil oft einfach ein Buchstabe mit einer Zahl ausgetauscht wird und dann erkennt der Algorithmus das schon nicht mehr als antisemitischen Post. Zum Beispiel „Hit1er“ mit einer 1 statt einem L zu schreiben. Auch in der Rechtslage braucht es Veränderungen. Das Monitoring muss besser funktionieren. Es mangelt noch daran, dass bestimmte Richtlinien nicht ausreichend eingehalten werden.
Sofía Hernández: Es wäre wichtig, dass Richtlinien wie Altersbegrenzungen besser eingehalten werden. TikTok beispielsweise setzt das Mindestalter der Nutzer:innen auf 13 Jahre. Es wird aber nicht richtig geprüft, ob jemand wirklich 13 Jahre alt ist. Außerdem muss das Melden schneller funktionieren und auch, dass Algorithmen rechtsextreme oder antisemitische Codes schneller erkennen. Dafür ist es wichtig, dass die Plattformbetreiber:innen das auch wollen. Auch wäre es wünschenswert, wenn die Förderlandschaft in Deutschland langfristig pädagogische Modelle und Projekte fördern würde.
Tila Mendonça: Neben den technischen und rechtlichen Maßnahmen braucht es auch eine stärkere inhaltliche Präsenz von sozialer Arbeit auf den Plattformen selbst – eine Verstetigung wäre hier also sinnvoll. Aufklärungsinhalt und Gegenrede gegen Antisemitismus müssen sichtbar sein, wo sich junge Menschen aufhalten. Digitale soziale Arbeit muss präsent, niedrigschwellig und wiedererkennbar sein.
Die Schule, beispielsweise, kann diese Präventionsarbeit nicht alleine leisten. Schulische Partnerschaften mit pädagogischen Projekten, die Workshops anbieten, wären eine Möglichkeit. Eine andere wäre, Workshops im außerschulischen Kontext, etwa in Jugendzentren oder in digitalen Räumen zu etablieren. Wichtig ist, dass gemeinsam erarbeitet wird, wie Desinformation aussieht, antisemitische Codes verbreitet werden und wie man darauf reagieren kann.