Drohnenübung der Schweizer Armee auf dem Militärflugplatz Emmen.

26.8.2016 | Von:
Ulrike Esther Franke

Automatisierte und autonome Systeme in der Militär- und Waffentechnik

Kontrolle und Verantwortung

Durch die zunehmende Automatisierung in der Militär- und Waffentechnik tun sich bereits jetzt Problemfelder einer "entmenschlichten" Kriegführung auf, die einer Klärung bedürfen.

Zum einen kann der Einsatz von automatisierten Systemen mit Blick auf politische Kontrollmechanismen Fragen aufwerfen. Die Haltung der Bundesregierung ist in diesem Zusammenhang eindeutig: "Die Bundeswehr [ist] eine Parlamentsarmee. (…) Es gibt keinen Einsatz der Bundeswehr ohne eindeutige Regularien zum Einsatz von Waffen. Damit ist auch der Einsatz von Drohnen durch die Bundeswehr nur möglich, wenn alle völkerrechtlichen und nationalen Regeln beachtet werden, und zwar nach Billigung durch den Deutschen Bundestag."[13]

Doch gibt es auch andere Beispiele: So entschied etwa die US-Regierung 2011, für den Militäreinsatz in Libyen nicht die Zustimmung des US-Kongresses einzuholen. Da lediglich Drohnen im Einsatz seien, werde es "keine Kampfhandlungen und Feuergefechte" geben, in die US-Truppen eingebunden sein würden, sodass keine US-amerikanischen Opfer zu erwarten seien.[14] Auch die britische Regierung setzte im August 2015 Drohnen ein, um zwei britische Staatsbürger in Syrien zu töten, die für den sogenannten Islamischen Staat kämpften und neue Anhänger rekrutierten, obwohl die Autorisierung des Parlaments den Einsatz von Waffen in Syrien klar verbot.[15] Diese beiden Fälle zeugen von einer besorgniserregenden Nonchalance, politische Prozesse bei der Anordnung automatisierter Angriffe zu umgehen.[16] Hinzu kommt, dass ein Einsatz, der nur wenige Soldaten beansprucht, die ferner nicht in akute Gefahr geraten, tendenziell wenig öffentliche Aufmerksamkeit erregt.

Zum anderen ist insbesondere mit Blick auf letale Systeme über die grundsätzliche Frage hinaus, ob ein Computer über Leben und Tod eines Menschen selbstständig entscheiden können soll, aus ethischer und juristischer Perspektive die Verantwortung für das Agieren eines autonomen Systems zu klären: Wer kann zur Rechenschaft gezogen werden, wenn ein autonomes System das falsche Ziel angreift oder gar Zivilisten tötet? Ist der Ingenieur dafür verantwortlich, dass der Sensor eines autonomen Systems falsche Informationen übermittelt und der Algorithmus Kinder mit Wasserpistolen für bewaffnete Soldaten hält? Oder ist vielmehr derjenige, der das System einsetzt und andere damit dem Risiko aussetzt, dass es fehlerhaft handelt, im Schadensfall zur Verantwortung zu ziehen?[17]

Die Menschenrechtsorganisation Human Rights Watch beklagte 2015 in einem Bericht die Verantwortungslücke, die dadurch entstehe, dass die existierenden legalen Instrumente nicht auf vollständig autonome Waffensysteme angewandt werden können. Es gebe gravierende straf- und zivilrechtliche Hürden, um Individuen für die Handlungen autonomer Waffen zur Verantwortung zu ziehen. "Diese Waffen können Straftaten begehen – illegale Handlungen, die eine Straftat darstellen würden, wenn sie mit Vorsatz ausgeführt werden – für die niemand zur Verantwortung gezogen werden könnte."[18]

Diese Fragestellungen sind im Übrigen auch im zivilen Kontext relevant. So starb etwa im Mai 2016 in Florida ein Mann am Steuer eines teilweise selbstfahrenden Autos, da der Autopilot einen herannahenden LKW nicht wahrgenommen hatte. Noch ist unklar, wer für den tödlichen Unfall zur Verantwortung gezogen werden wird.

Fußnoten

13.
Bundesverteidigungsministerin Ursula von der Leyen, zit. nach Deutscher Bundestag, Stenografischer Bericht vom 2.7.2014, S. 4055, http://dip21.bundestag.de/dip21/btp/18/18045.pdf«. Vgl. auch Simon Gauseweg, Der konstitutive Parlamentsvorbehalt beim Einsatz bewaffneter Drohnen, in: Robert Frau (Hrsg.), Drohnen und das Recht, Tübingen 2014, S. 177–191.
14.
Zit. nach William Saletan, Koh Is My God Pilot, 30.6.2011, http://www.slate.com/articles/health_and_science/human_nature/2011/06/koh_is_my_god_pilot.html«.
15.
Vgl. Tara McCormack, The Emerging Parliamentary Convention on British Military Action and Warfare by Remote Control, in: The RUSI Journal 2/2016, S. 22–29.
16.
Vgl. John Kaag/Sarah Kreps, Drone Warfare, Cambridge 2014.
17.
Für eine detaillierte Untersuchung der Frage der "Verantwortungslücke" vgl. Alexander Leveringhaus, Ethics and Autonomous Weapons, Basingstoke 2016, insb. S. 59–88.
18.
Vgl. Human Rights Watch, Mind the Gap. The Lack of Accountability for Killer Robots, 9.4.2015, http://www.hrw.org/report/2015/04/09/mind-gap/lack-accountability-killer-robots«.
Creative Commons License

Dieser Text ist unter der Creative Commons Lizenz "CC BY-NC-ND 3.0 DE - Namensnennung - Nicht-kommerziell - Keine Bearbeitung 3.0 Deutschland" veröffentlicht. Autor/-in: Ulrike Esther Franke für Aus Politik und Zeitgeschichte/bpb.de

Sie dürfen den Text unter Nennung der Lizenz CC BY-NC-ND 3.0 DE und des/der Autors/-in teilen.
Urheberrechtliche Angaben zu Bildern / Grafiken / Videos finden sich direkt bei den Abbildungen.