Meine Merkliste Geteilte Merkliste PDF oder EPUB erstellen

Automatisierte und autonome Systeme in der Militär- und Waffentechnik | Moderne Kriegführung | bpb.de

Moderne Kriegführung Editorial Alte und neue Kriege. Gewaltkonflikte und Völkerrecht seit dem 19. Jahrhundert Der neue unsichtbare Krieg? Zum Begriff der "hybriden" Kriegführung Propaganda und Desinformation. Ein Element "hybrider" Kriegführung am Beispiel Russland Cyberspace als Kriegsschauplatz? Herausforderungen für Völkerrecht und Sicherheitspolitik Automatisierte und autonome Systeme in der Militär- und Waffentechnik Gezielte Tötungen. Auf dem Weg zu einer globalen Norm? Privatisierung von Krieg? Problemfelder des Einsatzes Privater Militär- und Sicherheitsfirmen in der modernen Kriegführung

Automatisierte und autonome Systeme in der Militär- und Waffentechnik

Ulrike Esther Franke

/ 13 Minuten zu lesen

Der Trend zu immer größerer Automatisierung bis hin zur Autonomie in der Militär- und Waffentechnik ist ein Selbstläufer. Die Entwicklung hin zu einer Situation, in der Roboter über das Leben von Menschen entscheiden, kann nur durch aktives Eingreifen verhindert werden.

"Krieg ist ein zu ernstes Geschäft, als dass man ihn den Computern überlassen dürfte." Mit diesem von Georges Clemenceau inspirierten Zitat endete 2014 ein Beitrag zur automatisierten Kriegführung des Politikwissenschaftlers Niklas Schörnig. Wie er zeigen sich weltweit viele Expertinnen und Experten besorgt angesichts der zunehmenden Automatisierung von Militär- und Waffentechnik. Schlafwandeln wir in eine Welt, in der autonome Waffensysteme gegen Menschen eingesetzt werden und ein globaler Rüstungswettlauf um "Killerroboter" droht?

In diesem Artikel werden die aktuellen Entwicklungen im Bereich der automatisierten Kriegführung besprochen. Welche Formen der Automatisierung und Autonomie von Militärtechnik und Waffensystemen werden schon heutzutage in der Kriegführung eingesetzt? Welche Erklärungen gibt es für den Trend zu immer größerer Automatisierung bis hin zur Autonomie? Es wird gezeigt, dass bereits diejenigen Systeme, die heute oder in naher Zukunft verwendet werden, Probleme aufwerfen. Die Gefahr besteht, dass ohne eine breite öffentliche Diskussion und ein Verbot bestimmter Systeme und Funktionen die Entwicklung hin zu einer Situation, in der Roboter selbst entscheiden, Menschen zu töten, kaum aufzuhalten ist.

Automatisierung und Autonomie

Der Übergang zwischen Automatisierung und Autonomie ist fließend. Ein Verständnis der Unterschiede ist jedoch wichtig, da automatisierte und autonome Systeme in der Militär- und Waffentechnik teils unterschiedliche Problemstellungen aufwerfen. Eine Möglichkeit ist, zwischen nichtautonomen beziehungsweise semiautonomen Systemen auf der einen und operationell autonomen Systemen auf der anderen Seite zu unterscheiden.

Die Systeme der ersten Kategorie zeichnen sich dadurch aus, dass sie von Menschen bedient werden – sei es durch direktes Eingreifen über eine Fernsteuerung (human in the loop) oder durch eine Überwachung während des Einsatzes (human on the loop). Die aktuell eingesetzten Systeme fallen größtenteils in diese erste Kategorie. Sie weisen unterschiedliche Level von Automatisierung auf, sind aber letztendlich auf menschliches Zutun angewiesen. So wird beispielsweise die von der Bundeswehr in Afghanistan eingesetzte Mikro-Aufklärungsdrohne Mikado mithilfe einer Handkonsole durch einen Piloten am Boden gesteuert. Sie verfügt nur zu einem sehr geringen Grad über automatisierte Funktionen, etwa für das Ausbalancieren im Flug. Heron 1, eine andere von der Bundeswehr verwendete Aufklärungsdrohne, ist deutlich automatisierter und kann im vorprogrammierten Modus eigenständig starten und landen sowie im Autopilot vorgegebene Strecken abfliegen. Doch auch Heron 1 wird letztendlich von Menschen gesteuert: Die typische Crew für dieses System besteht aus drei Soldatinnen und Soldaten, die sich um das Flugzeug, seine Sensorik und die Mission kümmern.

Im Gegensatz zu nicht- oder semiautonomen Systemen können autonome Systeme Tätigkeiten selbst ausführen, ohne auf die direkte Steuerung oder Kontrolle durch den Anwender angewiesen zu sein (human out of the loop). Beides übernimmt ein Computer. In der Rechts-, Moral- und politischen Philosophie bedeutet Autonomie, dass ein Akteur aus eigenen Gründen, also nicht fremdbestimmt, handelt. Eine derart hochentwickelte künstliche Intelligenz, die dazu in der Lage wäre, gibt es bisher nicht. Daher sind auch hochgradig automatisierte Systeme höchstens operationell, nicht aber moralisch autonom: Sie sind von einem Menschen für eine bestimmte Tätigkeit programmiert, die sie selbstständig ausführen können; die Gründe für ihre Handlungen liegen jedoch in ihrer Bauweise und Programmierung und sind somit durch den Nutzer oder zumindest durch den Hersteller bestimmt und begrenzt.

Problematisch wird diese Abgrenzung zu moralischer Autonomie bei "lernfähigen" Systemen, deren künstliche Intelligenz über sogenannte learning algorithms verfügt, sodass sie sich neue, nicht programmierte Fähigkeiten aneignen können. Hier besteht die Möglichkeit, dass das System auf eine Art und Weise handelt, die seine Hersteller und Programmierer nicht mehr nachvollziehen können. Doch selbst ein solches System kann nur in dem ihm von der Programmierung zugewiesenen Bereich lernen.

Diese technischen und philosophischen Nuancen spielen in der öffentlichen Diskussion über die fortschreitende Automatisierung in der Kriegführung jedoch eine untergeordnete Rolle. Das Hauptaugenmerk richtet sich auf sogenannte lethal autonomous weapons systems (LAWS) – Waffensysteme, die hochgradig automatisiert bis autonom sind und ein Ziel selbstständig suchen, finden und ohne menschliches Zutun auch ausschalten können. Als problematisch wird also nicht Autonomie im Allgemeinen angesehen, sondern letale autonome Systeme im Speziellen – obwohl es diese bisher nur als Science-Fiction gibt. Intuitiv richten sich viele Menschen, Experten wie Laien, gegen die Möglichkeit, dass Maschinen Menschen töten dürfen, und gegen eine "entmenschlichte" Kriegführung.

Warum Autonomisierung?

Der Trend zu immer weiterer Automatisierung militärischer Systeme kann auf eine Reihe von Gründen zurückgeführt werden.

So kann mithilfe automatisierter und autonomer Systeme schneller reagiert werden. Das wird in Zukunft noch wichtiger werden: Die Kriegführung ist immer stärker technologisiert, immer mehr Informationen müssen ausgewertet werden, Abläufe sind deutlich beschleunigt. Bereits heutzutage erreichen Marschflugkörper oder Raketen ihr Ziel schneller, als ein Mensch reagieren kann, um sie abzufangen. Das Flugabwehrraketensystem Patriot, das die Bundeswehr derzeit in der Türkei einsetzt, ist bereits in der Lage, automatisch und ohne menschliche Intervention feindliche Flugzeuge, taktische ballistische Raketen und Marschflugkörper abzufangen. Während des Gaza-Konflikts im November 2012 konnte das israelische Raketenabwehrsystem Iron Dome über 90 Prozent der aus dem Gazastreifen abgefeuerten Raketen abfangen. Weder Patriot noch Iron Dome könnten funktionieren, wenn auf die Autorisierung des Abschusses durch einen Menschen gewartet werden müsste. Allerdings handelt es sich in beiden Fällen um defensive Systeme, die sich nicht gegen Menschen richten und deren Autonomie stark begrenzt ist.

Zudem sind autonome im Gegensatz zu ferngesteuerten Systemen schwerer zu entdecken und abzufangen. In ihrer derzeitigen Form müssen etwa Drohnen zu jedem Zeitpunkt den Kontakt zur Bodenkontrollstation halten, um Befehle zu empfangen und den Operateuren die gesammelten Daten wie Bilder und Videos zu übermitteln. Durch diese permanente Verbindung sind sie jedoch leicht von Radaranlagen zu entdecken und können abgefangen werden. Auch Manipulationen sind möglich: So verschwand im Dezember 2011 eine US-Drohne des zu diesem Zeitpunkt noch klassifizierten und technologisch höchst fortgeschrittenen Modells RQ-170 Sentinel in Iran. Die Vereinigten Staaten führten dies auf einen vermutlichen Absturz zurück. Kurz darauf präsentierte die iranische Regierung eine offenbar weitestgehend unbeschädigte Maschine und behauptete, iranische Cyberstreitkräfte hätten die Drohne gehackt, die Kontrolle übernommen und sie gelandet. Bereits 2008 hatten US-Truppen auf den Rechnern festgenommener irakischer Kämpfer Videos sichergestellt, die diese offenbar unbemerkt von US-Drohnen abgefangen hatten. Ähnliche Vorfälle sind auch aus Israel bekannt.

Ein ebenfalls häufig angeführtes Argument für eine weitere Automatisierung in der Militär- und Waffentechnik ist die damit verbundene Reduzierung der Gefahr, der Soldaten ausgesetzt sind. Allerdings erlauben es viele der heutigen ferngesteuerten Systeme bereits, sich bei einem Einsatz außerhalb des Schlachtfelds aufzuhalten. So müssen beispielsweise Drohnenpiloten nicht mehr alleine im Cockpit sitzen und den damit verbundenen Stress aushalten. Das mag die Wahrscheinlichkeit von Fehlern, die durch Unachtsamkeit, Zeitdruck, Stress und andere Emotionen entstehen, verringern. Jedoch kämpfen Drohnenpiloten mit einer anderen Art von Stress. Studien zeigen, dass US-amerikanische Drohnenpiloten häufiger an posttraumatischen Belastungsstörungen leiden als andere Piloten der US Air Force. Es wird vermutet, dass dies damit zusammenhängt, dass Drohnenoperateure ihre Ziele über längere Zeiträume überwachen. Eine Zielperson anzugreifen, nachdem man sie über mehrere Tage oder Wochen beobachtet hat, kann schwierig sein. Zudem bleiben Drohnenpiloten nach einem Angriff virtuell vor Ort: Die Drohne kreist noch einige Zeit über dem Angriffsort, um zu überprüfen, ob das Ziel tatsächlich getroffen wurde, und um ein damage assessment durchzuführen. Der ehemalige US-amerikanische Drohnenpilot Brandolf Bryant, der sich heute gegen die US-Drohnenkampagne in Pakistan, Jemen und Somalia einsetzt, beschreibt in diesem Zusammenhang schreckliche Szenen. Zugleich werden Drohnenpiloten zum Teil massiv kritisiert: Sie seien "Schreibtischtöter", die gleichsam feige Menschen umbringen, die sie nur als Pixel auf einem Bildschirm erkennen können. Der Wunsch nach einer weiteren Automatisierung könnte also auch durch den Wunsch bedingt sein, diese negativen Folgen ferngesteuerter Systeme zu vermeiden.

Eine stärkere Automatisierung würde ferner dazu beitragen, die Effizienz der Streitkräfte zu steigern: Ist ein System in der Lage, mehr Aufgaben selbstständig zu übernehmen, könnte ein Operateur möglicherweise mehrere Drohnen oder einen Schwarm kleinerer Systeme gleichzeitig steuern beziehungsweise kontrollieren. Das ist vor allem für Staaten mit kleineren Streitkräften interessant.

In Diskussionen über Zukunftsszenarien rund um autonome Systeme auch in ihrer letalen Konfiguration vertritt der Robotiker Ronald Arkin eine der ungewöhnlichsten Thesen. Ihm zufolge können Roboter die besseren Kämpfer sein: Da sie rationaler seien als Menschen, weil sie sich nicht selbst schützen müssen, keine Emotionen wie Trauer oder Wut empfinden und keine niederen Beweggründe haben, würden sie auf dem Schlachtfeld die ethischeren Entscheidungen treffen – die Kriegführung würde "humaner". Problematisch an dieser Argumentation ist natürlich, dass Roboter nur das tun, wozu sie programmiert wurden. Ferner ist angesichts der steigenden Kosten für militärische Systeme fraglich, ob Streitkräfte die Zerstörung ihrer Systeme einfach in Kauf nehmen würden. Arkins interessanteste Idee ist allerdings, Robotern ethische und moralische Regeln einzuprogrammieren, ähnlich der "Robotergesetze" des Biochemikers und Science-Fiction-Autors Isaac Asimov. Arkin möchte autonome Waffensysteme mit einer artificial consciousness ausstatten, die es dem Roboter erlaubt, das Völkerrecht sowie militärische Einsatzregeln (rules of engagement) zu erlernen. Ob dies möglich ist, wird kontrovers diskutiert.

Kontrolle und Verantwortung

Durch die zunehmende Automatisierung in der Militär- und Waffentechnik tun sich bereits jetzt Problemfelder einer "entmenschlichten" Kriegführung auf, die einer Klärung bedürfen.

Zum einen kann der Einsatz von automatisierten Systemen mit Blick auf politische Kontrollmechanismen Fragen aufwerfen. Die Haltung der Bundesregierung ist in diesem Zusammenhang eindeutig: "Die Bundeswehr [ist] eine Parlamentsarmee. (…) Es gibt keinen Einsatz der Bundeswehr ohne eindeutige Regularien zum Einsatz von Waffen. Damit ist auch der Einsatz von Drohnen durch die Bundeswehr nur möglich, wenn alle völkerrechtlichen und nationalen Regeln beachtet werden, und zwar nach Billigung durch den Deutschen Bundestag."

Doch gibt es auch andere Beispiele: So entschied etwa die US-Regierung 2011, für den Militäreinsatz in Libyen nicht die Zustimmung des US-Kongresses einzuholen. Da lediglich Drohnen im Einsatz seien, werde es "keine Kampfhandlungen und Feuergefechte" geben, in die US-Truppen eingebunden sein würden, sodass keine US-amerikanischen Opfer zu erwarten seien. Auch die britische Regierung setzte im August 2015 Drohnen ein, um zwei britische Staatsbürger in Syrien zu töten, die für den sogenannten Islamischen Staat kämpften und neue Anhänger rekrutierten, obwohl die Autorisierung des Parlaments den Einsatz von Waffen in Syrien klar verbot. Diese beiden Fälle zeugen von einer besorgniserregenden Nonchalance, politische Prozesse bei der Anordnung automatisierter Angriffe zu umgehen. Hinzu kommt, dass ein Einsatz, der nur wenige Soldaten beansprucht, die ferner nicht in akute Gefahr geraten, tendenziell wenig öffentliche Aufmerksamkeit erregt.

Zum anderen ist insbesondere mit Blick auf letale Systeme über die grundsätzliche Frage hinaus, ob ein Computer über Leben und Tod eines Menschen selbstständig entscheiden können soll, aus ethischer und juristischer Perspektive die Verantwortung für das Agieren eines autonomen Systems zu klären: Wer kann zur Rechenschaft gezogen werden, wenn ein autonomes System das falsche Ziel angreift oder gar Zivilisten tötet? Ist der Ingenieur dafür verantwortlich, dass der Sensor eines autonomen Systems falsche Informationen übermittelt und der Algorithmus Kinder mit Wasserpistolen für bewaffnete Soldaten hält? Oder ist vielmehr derjenige, der das System einsetzt und andere damit dem Risiko aussetzt, dass es fehlerhaft handelt, im Schadensfall zur Verantwortung zu ziehen?

Die Menschenrechtsorganisation Human Rights Watch beklagte 2015 in einem Bericht die Verantwortungslücke, die dadurch entstehe, dass die existierenden legalen Instrumente nicht auf vollständig autonome Waffensysteme angewandt werden können. Es gebe gravierende straf- und zivilrechtliche Hürden, um Individuen für die Handlungen autonomer Waffen zur Verantwortung zu ziehen. "Diese Waffen können Straftaten begehen – illegale Handlungen, die eine Straftat darstellen würden, wenn sie mit Vorsatz ausgeführt werden – für die niemand zur Verantwortung gezogen werden könnte."

Diese Fragestellungen sind im Übrigen auch im zivilen Kontext relevant. So starb etwa im Mai 2016 in Florida ein Mann am Steuer eines teilweise selbstfahrenden Autos, da der Autopilot einen herannahenden LKW nicht wahrgenommen hatte. Noch ist unklar, wer für den tödlichen Unfall zur Verantwortung gezogen werden wird.

Ächtung letaler Autonomie?

In diesem Zusammenhang finden auch auf internationaler politischer Ebene Diskussionen statt. Wie weit darf der Trend zu immer größerer Automatisierung gehen? Für die Entwicklung und den Einsatz von letalen autonomen Systemen tritt bislang kein Staat offen und aktiv ein.

Auf einem informellen Expertentreffen im Rahmen des UN-Übereinkommens über das Verbot oder die Beschränkung des Einsatzes bestimmter konventioneller Waffen (CCW) wurden im Mai 2014 die Gefahren und Risiken von letalen autonomen Waffensystemen diskutiert, mit dem Ziel, eine Ächtung im Rahmen des CCW anzustoßen. Von 117 Staaten unterstrichen lediglich Israel und die Tschechische Republik, dass autonome Waffensysteme möglicherweise Vorteile bringen könnten. Fünf Parteien – Ägypten, Ecuador, Kuba, Pakistan und der Heilige Stuhl – sprachen sich explizit für ein Verbot solcher Systeme aus.

Deutschland trat bei dieser Gelegenheit als Kritiker letaler autonomer Waffensysteme auf. Im Koalitionsvertrag der schwarz-roten Bundesregierung ist festgelegt: "Deutschland wird für die Einbeziehung bewaffneter unbemannter Luftfahrzeuge in internationale Abrüstungs- und Rüstungskontrollregime eintreten und sich für eine völkerrechtliche Ächtung vollautomatisierter Waffensysteme einsetzen, die dem Menschen die Entscheidung über den Waffeneinsatz entziehen." Auch in der neuen Militärischen Luftfahrtstrategie heißt es: "Für unbemannte Luftfahrzeuge ist das Prinzip des human in the loop und damit die verzugslose Möglichkeit zum Bedienereingriff jederzeit sicherzustellen. Es ist und bleibt die Linie der Bundesregierung, dass ein Waffeneinsatz von unbemannten Luftfahrzeugen ausschließlich unter Kontrolle des Menschen und nur in dafür durch den Bundestag mandatierten Einsätzen erfolgt."

Dem Politologen Frank Sauer zufolge muss die scheinbare internationale Einigkeit aber nicht zwangsläufig bedeuten, dass die Staaten die Ächtung solcher Systeme tatsächlich vorantreiben wollen. Das CCW habe den Ruf, extrem langsam zu arbeiten. Es sei möglich, dass "insbesondere solche Staaten, die Interesse an Entwicklung und Einsatz von LAWS haben könnten (aus militärtechnologischer Sicht in Frage kommen hier primär die USA, Israel, China, Russland, Großbritannien), den CCW-Prozess nutzen, um die LAWS-GegnerInnen dort in den kommenden Jahren auflaufen zu lassen".

In der Tat wird in den Vereinigten Staaten lauter über die Möglichkeiten von autonomen Systemen nachgedacht, und US-Präsident Barack Obama räumt ein, manchmal gerne Ironman schicken zu wollen. Zugleich hält das Pentagon zumindest offiziell an der Position fest, Robotern keine Entscheidungen über Leben und Tod überlassen zu wollen. Großbritannien verfolgt eine ähnliche Strategie, doch klingt die britische Absage an letale autonome Waffensysteme nicht ganz so absolut: "Wir müssen technische, legale und ethische Fragen klären, bevor hochautomatisierte oder autonome Plattformen eingesetzt werden können" heißt es in der Britischen Luftfahrtstrategie von 2012. Der Kommandeur der Royal Air Force, Sir Andrew Pulford, ließ im September 2013 auf einer Rüstungsmesse keinen Zweifel an seinem Zukunftsszenario: "What is quite clear is remotely piloted, or autonomous in the longer time – you know, the Terminator 2 type world where machines can make decisions for themselves, we can trust them and send them off to make decisions that at the moment we like to be in thinking place of – that is undoubtedly coming."

Insofern mögen Absichtserklärungen nicht ausreichend sein. Nicht zuletzt, da die Entwicklung autonomer Systeme ein Selbstläufer ist: Robotik ist ein Dual-Use-Produkt, das in vielen Bereichen angewandt wird. Zivile Forschung im Bereich der Automatisierung und Autonomie kann zur Entstehung von letalen autonomen Waffensystemen beitragen, ohne dass aktiv an ihnen gearbeitet wird. Die Gefahr, ohne viel Zutun in eine Welt zu stolpern, in der Computer über das Leben und Sterben von Menschen entscheiden, ist größer, als oft angenommen wird.

ist Doktorandin im Fach Internationale Beziehungen an der Universität Oxford und wissenschaftliche Mitarbeiterin am European Council on Foreign Relations in London. E-Mail Link: ulrike.franke@politics.ox.ac.uk