Drohnenübung der Schweizer Armee auf dem Militärflugplatz Emmen.

26.8.2016 | Von:
Ulrike Esther Franke

Automatisierte und autonome Systeme in der Militär- und Waffentechnik

Ächtung letaler Autonomie?

In diesem Zusammenhang finden auch auf internationaler politischer Ebene Diskussionen statt. Wie weit darf der Trend zu immer größerer Automatisierung gehen? Für die Entwicklung und den Einsatz von letalen autonomen Systemen tritt bislang kein Staat offen und aktiv ein.

Auf einem informellen Expertentreffen im Rahmen des UN-Übereinkommens über das Verbot oder die Beschränkung des Einsatzes bestimmter konventioneller Waffen (CCW) wurden im Mai 2014 die Gefahren und Risiken von letalen autonomen Waffensystemen diskutiert, mit dem Ziel, eine Ächtung im Rahmen des CCW anzustoßen. Von 117 Staaten unterstrichen lediglich Israel und die Tschechische Republik, dass autonome Waffensysteme möglicherweise Vorteile bringen könnten. Fünf Parteien – Ägypten, Ecuador, Kuba, Pakistan und der Heilige Stuhl – sprachen sich explizit für ein Verbot solcher Systeme aus.[19]

Deutschland trat bei dieser Gelegenheit als Kritiker letaler autonomer Waffensysteme auf. Im Koalitionsvertrag der schwarz-roten Bundesregierung ist festgelegt: "Deutschland wird für die Einbeziehung bewaffneter unbemannter Luftfahrzeuge in internationale Abrüstungs- und Rüstungskontrollregime eintreten und sich für eine völkerrechtliche Ächtung vollautomatisierter Waffensysteme einsetzen, die dem Menschen die Entscheidung über den Waffeneinsatz entziehen."[20] Auch in der neuen Militärischen Luftfahrtstrategie heißt es: "Für unbemannte Luftfahrzeuge ist das Prinzip des human in the loop und damit die verzugslose Möglichkeit zum Bedienereingriff jederzeit sicherzustellen. Es ist und bleibt die Linie der Bundesregierung, dass ein Waffeneinsatz von unbemannten Luftfahrzeugen ausschließlich unter Kontrolle des Menschen und nur in dafür durch den Bundestag mandatierten Einsätzen erfolgt."[21]

Dem Politologen Frank Sauer zufolge muss die scheinbare internationale Einigkeit aber nicht zwangsläufig bedeuten, dass die Staaten die Ächtung solcher Systeme tatsächlich vorantreiben wollen. Das CCW habe den Ruf, extrem langsam zu arbeiten. Es sei möglich, dass "insbesondere solche Staaten, die Interesse an Entwicklung und Einsatz von LAWS haben könnten (aus militärtechnologischer Sicht in Frage kommen hier primär die USA, Israel, China, Russland, Großbritannien), den CCW-Prozess nutzen, um die LAWS-GegnerInnen dort in den kommenden Jahren auflaufen zu lassen".[22]

In der Tat wird in den Vereinigten Staaten lauter über die Möglichkeiten von autonomen Systemen nachgedacht, und US-Präsident Barack Obama räumt ein, manchmal gerne Ironman schicken zu wollen.[23] Zugleich hält das Pentagon zumindest offiziell an der Position fest, Robotern keine Entscheidungen über Leben und Tod überlassen zu wollen.[24] Großbritannien verfolgt eine ähnliche Strategie, doch klingt die britische Absage an letale autonome Waffensysteme nicht ganz so absolut: "Wir müssen technische, legale und ethische Fragen klären, bevor hochautomatisierte oder autonome Plattformen eingesetzt werden können" heißt es in der Britischen Luftfahrtstrategie von 2012.[25] Der Kommandeur der Royal Air Force, Sir Andrew Pulford, ließ im September 2013 auf einer Rüstungsmesse keinen Zweifel an seinem Zukunftsszenario: "What is quite clear is remotely piloted, or autonomous in the longer time – you know, the Terminator 2 type world where machines can make decisions for themselves, we can trust them and send them off to make decisions that at the moment we like to be in thinking place of – that is undoubtedly coming."[26]

Insofern mögen Absichtserklärungen nicht ausreichend sein. Nicht zuletzt, da die Entwicklung autonomer Systeme ein Selbstläufer ist: Robotik ist ein Dual-Use-Produkt, das in vielen Bereichen angewandt wird. Zivile Forschung im Bereich der Automatisierung und Autonomie kann zur Entstehung von letalen autonomen Waffensystemen beitragen, ohne dass aktiv an ihnen gearbeitet wird. Die Gefahr, ohne viel Zutun in eine Welt zu stolpern, in der Computer über das Leben und Sterben von Menschen entscheiden, ist größer, als oft angenommen wird.

Fußnoten

19.
Vgl. Frank Sauer, Autonomous Weapons Systems. Humanising or Dehumanising Warfare?, Stiftung Entwicklung und Frieden, Global Governance Spotlight 4/2014. Seither haben zwei weitere CCW-Expertentreffen stattgefunden, zuletzt im April 2016. Daraus hervorgegangen ist die (nicht bindende) Empfehlung, eine offizielle "group of governmental experts" zu berufen, die Vorschläge für mögliche Änderungen des CCW mit Blick auf neue Technologien und LAWS erarbeiten soll.
20.
Vgl. Deutschlands Zukunft gestalten. Koalitionsvertrag zwischen CDU, CSU und SPD. 18. Legislaturperiode, S. 124.
21.
Bundesministerium der Verteidigung, Militärische Luftfahrtstrategie 2016, Berlin 2015.
22.
Sauer (Anm. 19), S. 2.
23.
Dave Boyer, Obama Says He Wishes He Could Use "Iron Man" Instead of Drones, 7.4.2016, http://www.washingtontimes.com/news/2016/apr/7/obama-says-he-wishes-he-could-use-ironman-instead-/«-.
24.
Vgl. Thomas Wiegold, Autonome Waffensysteme: Keiner ist verantwortlich, 9.4.2015, http://augengeradeaus.net/2015/04/autonome-waffensysteme-keiner-ist-verantwortlich«.
25.
Ministry of Defence, Joint Concept Note 3/12. Future Air and Space Operating Concept, Shrivenham 2012, S. 3–4.
26.
Zit. nach World of Terminator Is Coming, Says RAF Chief, 13.9.2013, http://www.channel4.com/news/drones-autonomous-weapons-royal-air-force-terminator«.
Creative Commons License

Dieser Text ist unter der Creative Commons Lizenz "CC BY-NC-ND 3.0 DE - Namensnennung - Nicht-kommerziell - Keine Bearbeitung 3.0 Deutschland" veröffentlicht. Autor/-in: Ulrike Esther Franke für Aus Politik und Zeitgeschichte/bpb.de

Sie dürfen den Text unter Nennung der Lizenz CC BY-NC-ND 3.0 DE und des/der Autors/-in teilen.
Urheberrechtliche Angaben zu Bildern / Grafiken / Videos finden sich direkt bei den Abbildungen.