Technologischer Wandel hat schon immer die Ausgestaltung von politischer Gewalt geprägt: Innovationen in Kommunikation, Mobilität und Waffen veränderten die Reichweite, die Strategien und die Symbolik von extremistischen Interner Link: Akteuren. Im späten 19. Jahrhundert ermöglichte die Verbreitung des Telegrafen und der Massenpresse etwa, dass Anschläge nahezu sofortige internationale Sichtbarkeit erlangten. Gleichzeitig erleichterte der Ausbau des Eisenbahnnetzes einen transnationalen Austausch von Ideologien.
Globalisierung von extremistischer GewaltEinfluss von Innovationen
Beispielhaft dafür steht die Ermordung des russischen Zaren Alexander II. im Jahr 1881 und des US-Präsidenten William McKinley im Jahr 1901, die über das Telegrafennetz und Massenmedien rasch publik und verbreitet wurde. So erreichte vormals lokale politische Gewalt ein internationales Publikum. Ein weiteres Beispiel liegt in der Luftfahrtinfrastruktur. Terroristen begannen, Flugzeugentführungen insbesondere zwischen den 1960er- bis 1980er-Jahren durchzuführen – wie die Entführung der Lufthansa-Maschine „Landshut" (Flug 181) im Jahr 1977 durch Militante mit Verbindungen zur linksextremistischen Volksfront für die Befreiung Palästinas (PFLP) und die Entführung der Air-France-Maschine Flug 139 nach Entebbe (Uganda) im Jahr 1976 durch die PFLP zusammen mit Mitgliedern der deutschen „Revolutionären Zellen“.
Fußnoten
Die aktuelle Phase des technologischen Wandels zeichnet sich besonders durch einen Faktor aus: Das ungewöhnlich hohe Tempo, in dem neue Technologien für Laien zugänglich und über Ländergrenzen hinweg verbreitet werden. Zuvor hing die Waffenfähigkeit oft an spezialisiertem Fachwissen oder an dem Zugang zu staatlich kontrollierten Ressourcen. Die gegenwärtige Bedrohungslandschaft dagegen ist zunehmend von Technologien geprägt, die Einzelpersonen unkompliziert und legal erwerben können. Infolgedessen sinken die Hürden für Rechtsextremisten, diese zu adaptieren. Gleichzeitig sind sie besonders schwer zu verfolgen, zu regulieren oder zu antizipieren.
Gegenwärtige Risiken
Dieser Artikel konzentriert sich auf die folgenden drei Technologien: 3D-Druck, handelsübliche Drohnen und generative künstliche Intelligenz (GenKI). Sie sind über experimentelle Stadien hinaus und derart zugänglich und zuverlässig, dass sie bereits durch Rechtsextreme eingesetzt wurden.
3D-Druck ermöglicht es, wesentliche Schusswaffenkomponenten zu Hause mithilfe digitaler Baupläne und weit verbreiteter Drucker herzustellen. Handelsübliche Drohnen können für Aufklärung, Propagandafilme oder den Transport kleiner Nutzlasten umfunktioniert werden. GenKI ist in der Lage, auf Abruf Text, Bilder, Audio oder Video zu erzeugen.
Die Technologien verändern die Dynamik Interner Link: rechtsextremer Gewalt auf drei Arten: Erstens senken sie Einstiegshürden und ermöglichen es Einzelpersonen, konventionelle Waffenmärkte und regulierte Lieferketten zu umgehen. Zweitens können sie es Einzeltätern und informellen Netzwerken ohne institutionelle Unterstützung oder logistische Infrastruktur erleichtern, sie einzusetzen oder weiterzuentwickeln. Drittens ermöglichen sie es, Strategien, Entwürfe und operatives Know-how unkompliziert zu teilen, indem sie diese über Open-Source-Plattformen und Peer-to-Peer-Netzwerke verbreiten.
Es handelt sich bei 3D-gedruckten Schusswaffen, Drohnen und GenKI nicht um zukünftige Risiken, sondern um gegenwärtige Herausforderungen mitsamt taktischen, rechtlichen und politischen Auswirkungen.
3D-gedruckte Schusswaffen
Ursprünglich sind europäische Rechtsextremisten vor allem durch legale Käufe über Sportschützenlizensen oder von Waffenimitaten, private Herstellung, Diebstahl sowie durch illegalen Waffenhandel an Schusswaffen gelangt. Zwar sind all diese Beschaffungswege nach wie vor im rechtsextremen Milieu verbreitet, allerdings begannen die Fortschritte im 3D-Druck der letzten zehn Jahre, diese Muster zu verändern. 3D-gedruckte Schusswaffen bieten sowohl zu traditionellen Schwarzmärkten eine Alternative als auch zu staatlich regulierter Herstellung und dem Handel.
KategorienWelche 3D-gedruckten Schusswaffen gibt es?
3D-gedruckte Schusswaffen lassen sich in drei Kategorien einteilen:
Vollständig gedruckte Modelle: Vollständig gedruckte Modelle sind aus Kunststoff und tendenziell weniger haltbar.
Hybridkonstruktionen: Hybridkonstruktionen kombinieren gedruckte Teile mit Metallkomponenten, um die Zuverlässigkeit zu verbessern. Das bekannteste Beispiel ist die FGC-9. Das halbautomatische Gewehr wurde von einem ehemaligen deutschen Soldaten aus der Incel-Gemeinschaft entwickelt, um die geltenden europäischen Waffengesetze zu umgehen.
Zusammenbau aus sogenannten Teile-Kits: Diese Art der Montage kombiniert gedruckte Waffenrahmen mit handelsüblichen Läufen und Schlitten. Diese sind am zuverlässigsten, in Europa treten sie jedoch wegen strengerer Kontrollen der kommerziellen Teile seltener auf.
Fußnoten
In 22 Ländern gab es bereits Vorfälle, in denen Rechtsextremisten Gebrauch von 3D-gedruckten Schusswaffen gemacht haben oder dies planten. In Europa wurden die meisten Fälle in Großbritannien gemeldet (18 bestätigte Fälle), gefolgt von Deutschland (4) sowie Belgien, Italien, den Niederlanden und Schweden (je 2). Mehrere Länder, darunter Finnland, Irland, Island, Kroatien, Litauen, Portugal, Rumänien, die Slowakei und Spanien, verzeichnete jeweils einen Fall. Diese Fälle stehen beispielhaft für die zunehmende Verbreitung der Technologie in rechtsextremen Milieus u.a. in Europa. Die Zahlen setzen sich aus gemeldeten Festnahmen, Beschlagnahmungen und vereitelten Anschlagsplänen zusammen.
Rechtsextremisten verwenden 3D-gedruckte Schusswaffen vor allem aus symbolischen, taktischen und praktischen Gründen. Allein das Drucken einer Schusswaffe kann im Rechtsextremismus als politischer Akt gedeutet werden: als Ablehnung staatlicher Kontrolle und als Demonstration radikaler Autonomie. Schusswaffen dienen als Symbole der Macht und Interner Link: Hypermaskulinität – häufig werden sie optisch mit Slogans oder ideologischen Codes versehen. 3D-gedruckte Schusswaffen können genutzt werden, um Regulierungen zu umgehen: Sie schaffen einen Zugang zu tödlichen Waffen, ohne dass sie durch Seriennummern, Hintergrundüberprüfungen oder Genehmigungsverfahren identifiziert werden. Besonders aussichtsvoll ist das in Staaten mit strengen Waffengesetzen oder für Einzelpersonen, die keine legal hergestellten Waffen kaufen dürfen. Anstatt konventionelle Waffen zu ersetzen, ergänzen 3D-gedruckte Schusswaffen häufig bestehende Arsenale. Viele Anschlagspläne zeigen, dass sie in Kombination mit Messern, fabrikgefertigten Schusswaffen und improvisierten Sprengkörpern eingesetzt werden. Teilweise werden Bauteile oder auch vollständige Waffen kommerziell produziert und über verschlüsselte Marktplätze verkauft. Geringe Materialkosten und hohe Margen machen 3D-gedruckte Schusswaffen ebenfalls für die Finanzierung extremistischer Netzwerke attraktiv.
Handelsübliche Drohnen
Ein besonders anschauliches Beispiel für die Verbreitung militärischer Technologien im Rechtsextremismus sind handelsübliche Drohnen – beispielsweise weithin verfügbare Drohnen wie Quadrokopter, die online oder in Elektronikgeschäften erworben werden können. Bekannt wurden bewaffnete Interner Link: Drohneneinsätze durch die islamistischen Angriffe des Interner Link: „Islamischen Staats“ im Irak und in Syrien und normalisiert durch den weit verbreiteten Einsatz im Interner Link: russischen Angriffskrieg auf die Ukraine. So wurden diese Technologien auch für nichtstaatliche Akteure unterschiedlicher Ideologien immer leichter zugänglich. Für rechtsextreme Gruppen sind handelsübliche Drohnen attraktiv, weil sie günstig, schwer nachweisbar und taktisch flexibel einsetzbar sind. Ähnlich wie bei 3D-gedruckten Schusswaffen liegen ihre Vorteile auch in der „demokratisierten Verfügbarkeit“: also in den niedrigen Kosten, den geringen Anforderungen an technisches Fachwissen sowie in dem einfachen Zugang zu Anleitungen und dem Austausch in Communitys. Aus strategischer Perspektive dienen Drohnen einer Reihe operativer Zwecke: Aufklärung, Propaganda, Belästigung und direkten Angriffen.
Aufklärung
Zur Aufklärung setzte auch der Rechtsterrorist Brenton Tarrant in Interner Link: Christchurch eine Hobbydrohne über der Al-Noor-Moschee ein. So erkundete er Ein- und Ausgänge, bevor er 2019 in einem rechtsterroristischen Anschlag 51 Menschen tötete. Zudem versuchten Mitglieder der rechtsextremen US-amerikanischen Gruppierung „Oath Keepers“ erfolglos, während des Interner Link: Angriffs auf das Kapitol am 6. Januar 2021 eine Überwachungsdrohne einzusetzen.
Propaganda
Auch zur Propaganda werden Drohnen genutzt. Die rechtsextremistische Organisation „Atomwaffen Division“ verwendete Luftaufnahmen, um hochauflösende Videos zu produzieren, in denen die Verbrennung eines Tanach, eines Korans, eines Buchs über Kritische Theorie und einer LGBT-Pride-Flagge gezeigt wurde – in einem Stil, der dschihadistische Produktionen nachahmte. Im Jahr 2022 setzte NatSoc Florida eine Drohne ein, um neonazistische Flugblätter über einem Wohngebiet abzuwerfen. Medienberichten zufolge verbreiten Neonazis in mehreren akzelerationistischen Foren routinemäßig Anleitungen zum Filmen symbolischer Aktionen und paramilitärischer Übungen mit Drohnen.
Belästigung
Unter die Taktik der Belästigung fällt beispielsweise der Einsatz von Drohnen durch migrationsfeindliche Bürgerwehrgruppen in Europa, insbesondere bei zivilen Patrouillen und informellen Überwachungsaktivitäten entlang von Migrationsrouten und Grenzregionen. Einige neonazistische und akzelerationistische Netzwerke haben den Einsatz von Drohnen zur Überwachung vermeintlicher Feinde in die Diskussion gebracht, um Bildmaterial von Journalisten, religiöse Stätten und Minderheitengemeinschaften zu beschaffen. So sollen die Voraussetzungen zum Doxing von politischen Gegnern geschaffen werden. Doxing ist die Veröffentlichung persönlicher Informationen, die Belästigung, Drohungen und Angriffe auf die Betroffenen im realen Leben zur Folge haben kann.
Angriffe
Es gab bereits Fälle, in denen Rechtsextreme konkrete Anschläge mit bewaffneten Drohnen geplant haben. Im Jahr 2013 versuchten Neonazis in Baden-Württemberg, Modellflugzeuge mit einem Sprengsatz zu bewaffnen, um politische Gegner anzugreifen. In den USA wurde 2020 erstmalig gezielt ein Kraftwerk mit einer modifizierten DJI-Drohne angegriffen, um die Stromversorgung zu stören. In Nashville plante ein Anhänger der „White Supremacy“-Ideologie 2024 ebenfalls die Energieinfrastruktur mit einem drohnenmontierten Sprengkörper zu attackieren. Obwohl diese Pläne vor der Durchführung vereitelt wurden, zeigen sie, dass Drohnen zunehmend von extremistischen Gruppen genutzt werden. Im rechtsextremen Milieu, etwa in den Interner Link: neonazistischen Organisationen „Atomwaffen Division“ und „The Base“, wurden Drohnen bereits als „Kraftmultiplikatoren" diskutiert, die die operative Reichweite erweitern und gleichzeitig verdeckt agieren können.
Generative Künstliche Intelligenz
Keine der diskutierten Technologien hat sich so schnell verbreitet wie Interner Link: Künstliche Intelligenz (KI), insbesondere die generative KI. Sie durchdringt nahezu jeden Bereich des persönlichen und beruflichen Lebens. Dass ihre leicht zugänglichen Sprachmodelle und Bildgeneratoren auch für Rechtsextreme interessant sind, überrascht kaum: Sie versprechen Reichweite ohne technisches Fachwissen, während die digitale Herkunft schwer nachzuvollziehen ist. Wie schon bei 3D-gedruckten Waffen und Drohnen geraten damit Fähigkeiten, die einst Spezialisten vorbehalten waren, in die Hände lose vernetzter Akteure.
Rechtsextremisten nutzen GenKI gegenwärtig auf vier Arten: die Konstruktion von Bedrohungsnarrativen, die automatisierte Produktion ideologischer Inhalte, Imitation und Desinformation sowie die gezielte Umgehung von Moderation. Noch bewegt sich vieles im Bereich von Propaganda und digitaler Einflussnahme. Doch Forschende beobachten zunehmend, dass generative KI auch strategisch eingesetzt werden könnte – etwa zur Verbesserung von Einflussnarrativen, zur Untersuchung von Rekrutierungsbotschaften oder zur Simulation möglicher Einsatzszenarien. Systematische Belege für diese Anwendungen fehlen bislang allerdings.
Bedrohungsnarrative
Besonders effektiv ist GenKI in der Erstellung von Bild- und Videomaterial. So wurde sie beispielsweise genutzt, um emotionalisierende migrationskritische bis -feindliche Interner Link: Verschwörungstheorien zu erstellen. In Deutschland veröffentlichte die Interner Link: Alternative für Deutschland (AfD) 2024 ein KI-generiertes Wahlvideo, das Migranten als Bedrohungen inszenierte. Ein vielfach geteiltes Video, das die ehemalige AfD-Jugendorganisation verbreitet hat, verbindet etwa den Remix eines populären deutschen Lieds mit KI-generierten Bildern, die Migranten beim Betreten von Abschiebeflügen zeigten. Auch in Großbritannien kursierten nach den Messerangriffen von Southport KI-generierte Bilder, die fälschlicherweise muslimische Täter suggerierten und islamfeindliche Narrative reproduzierten. Ebenfalls in Großbritannien starteten Rechtsaußen-Akteure eine Meme-Kampagne von einer KI-generierten britischen Schülerin namens „Amelia", die sich teils rassistischer, antisemitischer und rechtsextremer Sprache bediente. Dabei erreichten sie ein großes Publikum: Eins der Postings wurde allein über 1,4 Millionen Mal auf X aufgerufen, während die täglichen Beiträge Anfang 2026 innerhalb einer einzigen Woche von 500 auf über 11.000 anstiegen.
Automatisierung
Durch Automatisierung ist auch die Anzahl extremistischer Botschaften online gestiegen. In Deutschland wurden mehr als hundert KI-generierte rechtsextreme Musikvideos auf Interner Link: TikTok und YouTube identifiziert, die nationalistische Inhalte mit emotionalisierendem Bild- und Videomaterial verbinden. Die Zahl dürfte deutlich höher sein, da sie mit den aktuellen Möglichkeiten zur Identifizierung von KI-Material nicht vollumfänglich erfasst werden können. Häufig wird in den Inhalten auf die Ästhetik der sogenannten Interner Link: „Fashwave“ (zu Deutsch „Faschismus-Welle“) zurückgegriffen – charakteristisch dafür ist die Kombination visueller Elemente wie Bildstörungen, Neonfarben, Verpixelung und Retro-Digitalästhetik mit Bildern, die auf faschistische Symbolik, Wehrmacht-Soldaten oder nationalsozialistische Ikonografie verweisen. Bildgeneratoren vereinfachen die (Re-)produktion extremistischer Inhalte weiter. Auch Sprachmodelle werden eingesetzt, etwa um ideologische Texte zusammenzufassen oder rechtsextreme Narrative zu produzieren, anhand derer mehrsprachig Anhänger rekrutiert werden sollen. So kann es auch kleinen Gruppen oder Einzelpersonen gelingen, einen konstanten Strom an Inhalten aufrechtzuhalten, der zuvor größere und spezialisierte Teams erforderte.
Imitation
KI-Personas wie „Larissa Wagner" und „Sophia's World" wurden eingesetzt, um parasoziale Beziehungen zu Anhängern aufzubauen und gleichzeitig nationalistische Botschaften zu verbreiten. Diese künstlichen Influencer treten häufig in Deepfake-Interviews oder politischen Kommentaren auf und erscheinen zunächst authentisch, wodurch die Grenzen zwischen authentischen politischen Botschaften und der automatisierten Produktion solcher Narrative verschwimmen. Dieses Spannungsfeld wird auch in der politischen Arena deutlich: Im Jahr 2025 reichten italienische Oppositionsparteien eine formelle Beschwerde gegen die rechtsextreme Lega ein, weil diese während eines Wahlkampfs Dutzende offensichtlich KI-generierter rassistischer und fremdenfeindlicher Bilder verbreitet haben soll.
Moderation
Schließlich wird GenKI zunehmend zur Vermeidung der Plattformen-Moderation eingesetzt. Interner Link: Rechtsextreme Netzwerke teilen Strategien zur Umgehung von Plattformfiltern, darunter Prompt-Engineering zur Generierung codierter Sprache, Manipulation von unsichtbaren digitalen Signaturen von KI-Inhalten (oft mittels Metadaten) und „Jailbreaking" großer Sprachmodelle – also das gezielte Formulieren von Prompts zur Umgehung von Sicherheitsbeschränkungen und zur Generierung ansonsten verbotener Inhalte. Studien zur Plattformüberwachung zufolge wird nur ein Bruchteil extremistischer GenKI-generierter Inhalte konsequent gekennzeichnet oder entfernt. Diese Strategien werden häufig über verschlüsselte Messaging-Apps, Pastebin-Plattformen (auf denen anonym Texte veröffentlicht und geteilt werden können) oder extremistischen KI-Foren zugänglich gemacht, in denen Nutzer aktualisierte Prompt-Vorlagen und Jailbreak-Techniken austauschen. Während sich die meisten Aktivitäten auf die Ausnutzung bestehender Systeme konzentrieren, warnen Experten gleichzeitig, dass Open-Source-Sprachmodelle gezielt mit ideologischen Datensätzen trainiert oder feinabgestimmt werden könnten. So könnten KI-generierte Inhalte Verschwörungstheorien, extremistische Weltanschauungen oder sogar die Ermutigung zu politischer Gewalt fördern.
Maßnahmen und Diskussion
Die Nutzung von 3D-gedruckten Schusswaffen, Drohnen und GenKI durch rechtsextreme Akteure deutet auf einen grundlegenden Wandel in der Bedrohungslage von politischer Gewalt hin. Diese Technologien sind weder fern noch hypothetisch – sie sind bereits in rechtsextremen Milieus verankert. Die Vorteile sind vor allem Autonomie, Dezentralisierung und Innovation. Ihre Verbreitung verläuft zwar nicht linear, doch verändert sie bereits jetzt das operative Umfeld, in dem extremistische Akteure und Netzwerken agieren. Sie ermöglichen es, außerhalb der staatlichen Kontrolle zu handeln und generieren eine erhöhte Handlungsfähigkeit.
Gesetzgebung
In Europa wird die Gefahr eines Missbrauchs dieser Technologien durch uneinheitliche Gesetzgebung verschärft. Während die europäische Schusswaffen- und Digitalgesetzgebung zu den strengsten der Welt gehört, variiert ihre nationale Umsetzung und schafft Lücken, die missbraucht werden können. Unterschiede in der Rechtsprechung zwischen Ländern, Plattformen und in der entsprechenden Kontrolle ermöglicht es Extremisten, sich schnell anzupassen. So werden beispielsweise neue Designs für 3D-gedruckte Schusswaffen routinemäßig modifiziert, um im nationalen Recht regulierte Komponenten zu umgehen. Dies ermöglicht es auch Einzelpersonen, ihre Herstellung entsprechend der lokalen rechtlichen Vorgaben anpassen.
Prävention
Die oben genannten Entwicklungen stellen die Terrorismusbekämpfung vor neue Herausforderungen. In Politik, Forschung und Strafverfolgungsbehörden werden daher neue Ansätze diskutiert. So hält beispielsweise das Büro der Vereinten Nationen für Terrorismusbekämpfung fest, dass sich der technologische Wandel schneller entwickelt als viele nationale Maßnahmen zur Terrorismusbekämpfung. Eine Antizipation und die damit einhergehende Regulierung von neu aufkommenden Bedrohungen wird so erschwert. Klassische Modelle der Gefahrenabwehr – ausgerichtet auf nachverfolgbare Waffen, zentral organisierte Strukturen und klar erkennbare Gruppen – greifen daher zunehmend zu kurz. Vor diesem Hintergrund sehen Fachleute einerseits die Notwendigkeit, Ermittlungsfähigkeiten auszubauen, etwa in den Bereichen digitale Forensik, Plattformanalyse und Open-Source-Recherche. Andererseits werden auch antizipatorischer Ansätze diskutiert, einschließlich Horizon-Scanning-Tools (ein Instrument zur strategischen Früherkennung neuer Entwicklungen), sektorübergreifender Bedrohungsmodellierung (Ansatz zur Erkennung von Sicherheitsrisiken in der Cybersicherheit) und Zusammenarbeit mit Experten, ethischen Hackern und Forschern zu Zivilgesellschaft.
Um den Gefahren dieser Technologien wirksam begegnen zu können, kann eine bereichsübergreifende Zusammenarbeit vielversprechende Potenziale bieten. Diese schließt zum Beispiel IT-Akteure wie Plattformbetreiber, Komponentenhersteller in der Waffenindustrie und Entwicklergruppen ein. Erfahrungen einer solchen Zusammenarbeit gibt es bereits in Bereichen wie der Pharmaindustrie, der Sprengstoffindustrie, Währungssystemen und chemischen Vorläuferstoffen (chemische Stoffe, die zur Herstellung z.B. von explosionsfähigen Stoffen genutzt werden können). Ebendiese zeigen, dass Missbrauchsprävention in das Design integriert werden kann, etwa durch Rückverfolgbarkeit, Manipulationssicherheit, Kaufobergrenzen und Lizenzkontrollen. Aus dem Grund haben Experten angeregt, solche Sicherheiten auch in 3D-Druckern, handelsübliche Drohnen und generative KI-Systeme zu integrieren, um so proaktiv die Gefahr einer illegalen Nutzung zu reduzieren.
Lückenhafte Daten
Gleichzeitig fehlen belastbare Daten über das Ausmaß der Nutzung solcher Technologien, das technische Know-how und die Verbreitungswege im Rechtsextremismus. Zwar wird eine wachsende Zahl an beschlagnahmten 3D-gedruckten Schusswaffen verzeichnet, die mit Rechtsextremismus in Verbindung gebracht wurden – dennoch sind die Daten noch fragmentiert und unvollständig.
Für Drohnen und GenKI ist die Datenbasis noch dünner und beschränkt sich bislang häufig auf Einzelfälle. Ohne ein klareres Lagebild besteht die Gefahr, dass politische und operative Maßnahmen zu spät greifen oder ungenau ausfallen.
Der Text wurde von der bpb aus dem Englischen ins Deutsche übersetzt.