Automatisierte und autonome Systeme in der Militär- und Waffentechnik
Kontrolle und Verantwortung
Durch die zunehmende Automatisierung in der Militär- und Waffentechnik tun sich bereits jetzt Problemfelder einer "entmenschlichten" Kriegführung auf, die einer Klärung bedürfen.Zum einen kann der Einsatz von automatisierten Systemen mit Blick auf politische Kontrollmechanismen Fragen aufwerfen. Die Haltung der Bundesregierung ist in diesem Zusammenhang eindeutig: "Die Bundeswehr [ist] eine Parlamentsarmee. (…) Es gibt keinen Einsatz der Bundeswehr ohne eindeutige Regularien zum Einsatz von Waffen. Damit ist auch der Einsatz von Drohnen durch die Bundeswehr nur möglich, wenn alle völkerrechtlichen und nationalen Regeln beachtet werden, und zwar nach Billigung durch den Deutschen Bundestag."[13]
Doch gibt es auch andere Beispiele: So entschied etwa die US-Regierung 2011, für den Militäreinsatz in Libyen nicht die Zustimmung des US-Kongresses einzuholen. Da lediglich Drohnen im Einsatz seien, werde es "keine Kampfhandlungen und Feuergefechte" geben, in die US-Truppen eingebunden sein würden, sodass keine US-amerikanischen Opfer zu erwarten seien.[14] Auch die britische Regierung setzte im August 2015 Drohnen ein, um zwei britische Staatsbürger in Syrien zu töten, die für den sogenannten Islamischen Staat kämpften und neue Anhänger rekrutierten, obwohl die Autorisierung des Parlaments den Einsatz von Waffen in Syrien klar verbot.[15] Diese beiden Fälle zeugen von einer besorgniserregenden Nonchalance, politische Prozesse bei der Anordnung automatisierter Angriffe zu umgehen.[16] Hinzu kommt, dass ein Einsatz, der nur wenige Soldaten beansprucht, die ferner nicht in akute Gefahr geraten, tendenziell wenig öffentliche Aufmerksamkeit erregt.
Zum anderen ist insbesondere mit Blick auf letale Systeme über die grundsätzliche Frage hinaus, ob ein Computer über Leben und Tod eines Menschen selbstständig entscheiden können soll, aus ethischer und juristischer Perspektive die Verantwortung für das Agieren eines autonomen Systems zu klären: Wer kann zur Rechenschaft gezogen werden, wenn ein autonomes System das falsche Ziel angreift oder gar Zivilisten tötet? Ist der Ingenieur dafür verantwortlich, dass der Sensor eines autonomen Systems falsche Informationen übermittelt und der Algorithmus Kinder mit Wasserpistolen für bewaffnete Soldaten hält? Oder ist vielmehr derjenige, der das System einsetzt und andere damit dem Risiko aussetzt, dass es fehlerhaft handelt, im Schadensfall zur Verantwortung zu ziehen?[17]
Die Menschenrechtsorganisation Human Rights Watch beklagte 2015 in einem Bericht die Verantwortungslücke, die dadurch entstehe, dass die existierenden legalen Instrumente nicht auf vollständig autonome Waffensysteme angewandt werden können. Es gebe gravierende straf- und zivilrechtliche Hürden, um Individuen für die Handlungen autonomer Waffen zur Verantwortung zu ziehen. "Diese Waffen können Straftaten begehen – illegale Handlungen, die eine Straftat darstellen würden, wenn sie mit Vorsatz ausgeführt werden – für die niemand zur Verantwortung gezogen werden könnte."[18]
Diese Fragestellungen sind im Übrigen auch im zivilen Kontext relevant. So starb etwa im Mai 2016 in Florida ein Mann am Steuer eines teilweise selbstfahrenden Autos, da der Autopilot einen herannahenden LKW nicht wahrgenommen hatte. Noch ist unklar, wer für den tödlichen Unfall zur Verantwortung gezogen werden wird.