Redaktion Infodienst: Worum geht es in Ihrem aktuellen Projekt AwareNet und was macht es besonders?
Kerem Açın-Akdeniz: Mit AwareNet erproben wir den Einsatz von KI in der Präventionslandschaft, speziell im Arbeitsfeld Islamismus. Wir konzentrieren uns dabei bewusst auf handelsübliche Tools wie ChatGPT von OpenAI oder Gemini von Google. Wir programmieren keine eigenen Systeme, sondern wollen herausfinden, was Sozialarbeitende, Streetworkerinnen und Streetworker oder Fachkräfte in der Deradikalisierung mit diesen Werkzeugen praktisch leisten können.
Ursprünglich ging es vor allem um Kontaktarbeit im Rahmen der Onlineprävention, angelehnt an unser Schwesterprojekt Streetwork@online aus Düsseldorf, das bundesweit aktiv ist. Inzwischen haben sich die Bedarfe aber weiterentwickelt – vor allem durch generative KI. Besonders an unserem Projekt ist, dass wir diese neuen Tools systematisch einsetzen und zugleich selbst Video-Content produzieren. Das passiert in dieser Form bisher kaum in anderen Präventionsprojekten.
Redaktion Infodienst: Wie genau sieht Ihre Arbeit mit KI-Tools im Bereich Online-Streetwork aus?
Kerem Açın-Akdeniz: Am Anfang stand die Frage: Wo sind relevante Personen eigentlich aktiv? Wir arbeiten also zunächst analytisch, suchen nach Videos, Influencerinnen und Influencern sowie digitalen Räumen im islamistischen Spektrum. Wir nutzen KI in der Projektplanung, Koordination und in der Videoproduktion – allerdings mit Maß. KI kann Denk- und Beziehungsarbeit nicht ersetzen. Für Videos ist sie aber sehr hilfreich, weil sie aus Bildern und Textschnipseln schnell Content erstellen kann. Diese Videos verstehen wir als attraktive Alternative zu stark emotionalisierten oder radikalen Narrativen, wie sie auf den Plattformen verbreitet sind. Sie dienen zugleich als Interaktionspunkt: Ziel ist es, nicht nur auf einzelne radikale Inhalte zu reagieren, sondern eigenständig Themen zu setzen und Distanzierungsarbeit zu leisten. Was wir aber bewusst nicht machen: KI direkt mit Klientinnen und Klienten sprechen lassen. Das wäre ethisch problematisch.
Eine besondere Rolle spielt bei uns „Onkel Tarik“ – ein Chatbot, den wir entwickelt und mit Fachliteratur zu Islam, Islamismus und Sozialarbeit trainiert haben. Aktuell nutzen wir ihn intern, um Aussagen von Gesprächspartnerinnen und -partnern einzuordnen oder Rückfragen zu klären: Stimmt das? Wie kann man das Gesagte theologisch oder sozialarbeiterisch bewerten? Langfristig soll dieser Bot Jugendlichen als ergänzendes Angebot zur Verfügung stehen, damit sie ihre Fragen nicht irgendeinem TikTok-Prediger stellen müssen. Für eine Veröffentlichung fehlt uns aktuell noch eine systematische Evaluation. Langfristig planen wir aber, den Chatbot nach einer positiven Bewertung für die Öffentlichkeit zugänglich zu machen. Dann sollen sowohl Jugendliche als auch andere Träger sowie Akteurinnen und Akteure das Tool nutzen können.
Redaktion Infodienst: Auf welchen Bedarf reagiert AwareNet?
Kerem Açın-Akdeniz: Der digitale Raum ist für Jugendliche extrem wichtig geworden, aber soziale Arbeit ist dort oft noch unterrepräsentiert. Wir wollen dort Präsenz zeigen, den digitalen Raum für Präventionsarbeit allgemein nutzbar machen und andere Projekte befähigen, dort aktiv zu werden, statt ihn problematischen Akteurinnen und Akteuren zu überlassen. KI hilft uns dabei, skalierbare Arbeitsweisen zu entwickeln. Die Präventionslandschaft hat nicht die Ressourcen, um überall gleichzeitig präsent zu sein. Gleichzeitig konsumieren Jugendliche sehr viel Video-Content, darunter auch KI-generierte Inhalte. KI und KI-generierte Videos können deshalb ein zeitgemäßer Anknüpfungspunkt sein, um überhaupt mit ihnen ins Gespräch zu kommen.
Redaktion Infodienst: Welche Zielgruppe haben Sie dabei besonders im Blick und wie entwickeln Sie für diese passende Inhalte?
Kerem Açın-Akdeniz: Wir richten uns an junge Musliminnen und Muslime zwischen 14 und 27 Jahren. Das ist eine sehr breite Gruppe – von Schülerinnen und Schülern bis zu Berufstätigen. Deshalb arbeiten wir mit Personas, das heißt fiktiven „Prototypen“, die sich an unserer Zielgruppe orientieren: Wie sieht ein „typischer“ muslimischer Jugendlicher zwischen 14 und 18 aus? Welche Inhalte konsumiert er? Wie unterscheiden sich ältere Zielgruppen von jüngeren? Was ist mit weiblichen Perspektiven? Aktuell erreichen wir vor allem junge muslimische Männer. Perspektivisch wollen wir aber auch stärker junge Musliminnen ansprechen.
Redaktion Infodienst: Im Rahmen des Projektes intervenieren Online-Streetworkerinnen und -Streetworker auch in Kommentarspalten und Chats. Auf welchen Plattformen sind Sie unterwegs und mit welcher Strategie gehen Sie dabei vor?
Kerem Açın-Akdeniz: Wir sind vor allem auf TikTok und Instagram aktiv, weil dort unsere Zielgruppen aktiv sind. Zusätzlich haben wir Accounts auf WhatsApp, Telegram und Discord. Die meisten Anfragen kommen aber über TikTok und Instagram.
Wir verfolgen einen Netzwerkansatz: Wir kennen die problematischen Akteurinnen und Akteure, ihre Narrative und ihre Emotionalisierungsstrategien. Wir sind in den Kommentarspalten der jeweiligen Akteurinnen und Akteure aktiv und führen dort „Mikrodiskussionen“ mit einzelnen Userinnen und Usern. Dabei fokussieren wir nicht die Gesinnung einzelner Personen, sondern intervenieren themenorientiert, indem wir unterschiedliche Perspektiven sichtbar machen und demokratische Denklogiken in laufende Debatten einbringen. Daraus entstehen oft Kontakte, die in private Chats übergehen.
Grundsätzlich gilt: Wir reagieren immer dann, wenn Feindbilder, Rassismus oder Hass reproduziert werden – aber ohne jemanden als „radikal“ zu labeln. Wir gehen davon aus, dass viele Kommentare aus emotionalen Situationen heraus entstehen. Ziel ist, über Direktnachrichten eine Beziehung aufzubauen. Es gibt aber auch subtilere Fälle. Bei religiösen Fragen – etwa zu Fasten oder Kopftuch – treten wir ebenfalls in Erscheinung. Wir antworten persönlich, ziehen aber intern unseren Chatbot „Onkel Tarik“ sowie unseren islamischen Seelsorger und einen Islamwissenschaftler aus dem Kollegium zu Rate.
Redaktion Infodienst: Wann geben Sie sich als Präventionsprojekt zu erkennen?
Kerem Açın-Akdeniz: Nicht im Erstkontakt in den öffentlichen Kommentarspalten. Das haben wir am Anfang ausprobiert und schnell gelernt, dass es zu Shitstorms und Blockierungen führt. Aus Selbstschutz sagen wir dort nicht offen, dass wir Streetworkerinnen und Streetworker sind. In privaten Chats dagegen schon. Gleichzeitig ist unser Profil klar als Online-Streetwork gekennzeichnet. Wer darauf klickt, sieht sofort, dass wir professionell arbeiten.
Redaktion Infodienst: KI drängt offenbar immer stärker in den Bereich der Präventionsarbeit und der politischen Bildung vor. Wie stehen Sie zu dieser generellen Entwicklung?
Kerem Açın-Akdeniz: KI ist eine interessante Innovation und kann – bei richtiger Anwendung – die Arbeit deutlich erleichtern. Gleichzeitig wird sie häufig überschätzt. Im Kern arbeitet KI statistisch. Ihr Potenzial lässt sich also nur dann sinnvoll nutzen, wenn man auch ihre Grenzen kennt – gerade in einem Land wie Deutschland, in dem digitale Kompetenzen nicht überall selbstverständlich sind.
Im Präventionsbereich kann KI insbesondere dazu beitragen, Menschen zu unterstützen, zu Teilhabe befähigen und in Bereichen aktiv zu werden, zu denen sie zuvor keinen Zugang hatten. Ein gutes Beispiel dafür ist „Onkel Tarik“, unser „KI-Imam“. Wenn etwa eine Sozialarbeiterin oder ein Sozialarbeiter ohne besondere Expertise zum Islam oder langjährige Erfahrung in muslimischen Communities mit einem muslimischen Jugendlichen arbeitet, kann sie oder er „Onkel Tarik“ zur Unterstützung heranziehen. So lassen sich Kompetenzen erweitern und niedrigschwellig neues Wissen aneignen.
Redaktion Infodienst: Wo sehen Sie konkret Entlastung durch KI im Alltag von Projekten wie Ihrem?
Kerem Açın-Akdeniz: In drei Bereichen. Zunächst im Onboarding neuer Mitarbeiterinnen und Mitarbeiter: Mithilfe von Bots können neue Mitarbeitende realistische Gesprächssituationen üben. Auch für die systematische und schnelle Nutzung von Wissensdatenbanken bietet sich KI an: Materialien lassen sich so etwa schnell durchsuchen. Und auch für die Content-Produktion kann KI nützlich sein, denn sie senkt technische Hürden und erleichtert etwa die Videoproduktion enorm.
Redaktion Infodienst: Sie haben vorhin schon kurz mögliche ethische Probleme im Zusammenhang mit KI angesprochen. Im Rahmen des Projekts haben Sie deshalb gemeinsam mit verschiedenen Trägern der Präventionsarbeit sowie verschiedenen Ethikfachleuten Leitlinien für eine verantwortliche und transparente Nutzung von KI erarbeitet. Wie sehen diese Leitlinien aus?
Kerem Açın-Akdeniz: Erstens: keine Täuschung. KI schreibt nicht in unserem Namen mit Klientinnen und Klienten. Zweitens: Datenschutz. Keine Namen, keine Identifizierbarkeit, möglichst europäische Lösungen. Und drittens: keine Abhängigkeit. KI soll unterstützen, aber nicht ersetzen.
Redaktion Infodienst: Sie bieten auch Fortbildungen für andere Kolleginnen und Kollegen aus der Radikalisierungsprävention an. Worum geht es da genau?
Kerem Açın-Akdeniz: Im vergangenen Jahr haben wir Fortbildungen mit zwei Schwerpunkten angeboten. Der erste lag auf Online-Streetwork und Netzwerkanalyse. Kolleginnen und Kollegen von uns aus Düsseldorf haben dafür einen Netzwerkansatz entwickelt, mit dem sich die Strukturen radikaler Influencerinnen und Influencer nachvollziehen lassen, um gezielt und plattform- sowie zielgruppenspezifisch aktiv zu werden. Eine Person beobachtet beispielsweise TikTok im Umfeld von Hizb ut-Tahrir, eine andere Instagram im salafistischen Spektrum, etwa rund um Abul Baraa oder Pierre Vogel. Wir haben versucht, diesen Netzwerkansatz in der Fortbildung weiterzuvermitteln, damit auch andere Projekte ihn in ihre Arbeit integrieren können.
Der zweite Workshop beschäftigte sich mit KI in der Content-Produktion. Die Teilnehmenden lernten, mithilfe von KI Videos zu sogenannten alternativen Narrativen zu erstellen. Wir sprechen bewusst nicht von Gegennarrativen: Diese bergen die Gefahr, zu stark zu emotionalisieren – genau das ist jedoch eine Strategie radikaler Influencerinnen und Influencer, um Reichweite zu erzeugen. Davon wollen wir weg. Statt gegen bestimmte Gruppen zu argumentieren, setzen wir auf alternative Lesarten, ohne zu moralisieren, anzugreifen oder abzuwerten. Dieser Ansatz hat sich im Projektverlauf bewährt.
Redaktion Infodienst: Gibt es jenseits Ihrer eigenen Erfahrungen und Best Practices auch eine wissenschaftliche Begleitung für das Projekt?
Kerem Açın-Akdeniz: Ja. Das Projekt wird durch das Thomasius Research Institute on Political Extremism (TPX) begleitet, das uns regelmäßig Feedback gibt, uns als Pilotprojekt aber auch viele Freiräume lässt. Wir analysieren zudem eigenständig, welche Inhalte gut ankommen und sich bewähren. Eine systematische, empirische Erfassung können wir derzeit jedoch noch nicht leisten.
Redaktion Infodienst: Wie zufrieden sind Sie bisher mit dem Projekt – und wie geht es weiter?
Kerem Açın-Akdeniz: Das Projekt ist sehr gut angelaufen, wir bekommen viel positive Rückmeldung. Eine Weiterförderung zeichnet sich ab. Zukünftig wollen wir unsere Inhalte weiter professionalisieren und eigene digitale Begegnungsräume schaffen – etwa über Gaming-Plattformen. Ziel ist es, Jugendliche dort abzuholen, wo sie sind.
Redaktion Infodienst: Herzlichen Dank für das Gespräch und die spannenden Einblicke in das Projekt!