Patronen des Kalibers 5,56 mm, wie sie auch im Sturmgewehr G36 der Bundeswehr verwendet werden, laufen am 20.02.2014 in einer Produktionshalle des Munitionsherstellers Metallwerke Eisenhütte Nassau MEN in Nassau (Rheinland-Pfalz) durch die Endkontrolle
Pfeil links 1 | 2 | 3

Automatisierte Kriegsführung – Wie viel Entscheidungsraum bleibt dem Menschen?

18.8.2014

"Race to the bottom" letaler Autonomie



In der Summe spricht also viel dafür, dass der bereits bestehende Trend zu immer größerer Automatisierung vor der Entscheidung über Waffengewalt gegen Menschen – also "letaler Autonomie" – nicht von alleine stoppen wird, da die militärischen Vorteile zu groß sind. Wer argumentiert, niemand habe ein Interesse an solchen Systemen, verkennt die Natur von Rüstungswettläufen, nämlich, dass nicht eine bewusste Intention der treibenden Akteure den Wettlauf befeuert, sondern die Angst vor der möglichen Überlegenheit des (potenziellen) Gegners.

Schon 2010 argumentierte der Chief Scientist der US Air Force in seiner Technologievision "Technology Horizons", im Zeitraum "2010–2030 and beyond" benötige die Air Force für ein breiteres Missionsspektrum "fully unattended systems with reliable levels of autonomous functionality far greater than is possible today, as well as systems that can reliably make wide-ranging autonomous decisions at cyber speeds to allow reactions in time-critical roles far exceeding what humans can possibly achieve".[24] Fehlverhalten sei durch geeignete "verification and validation (V&V)"-Maßnahmen auszuschließen. Man kann in diesem Zusammenhang auch an den von dem amerikanischen Robotiker Ron Arkin vorgeschlagenen "ethical governor" denken. Arkin möchte Robotern eine Ethik, basierend auf dem Völkerrecht, einprogrammieren, die den Roboter zu einer "humaneren Kriegsführung" befähigt als Menschen selbst – beispielsweise weil sie keinen Stress empfinden und deshalb keine Übersprungshandlungen begehen.[25] Völkerrechtler bezweifeln allerdings, dass sich zentrale Prinzipien des humanitären Völkerrechts wie beispielsweise "Proportionalität" tatsächlich in Softwarecode fassen lassen.[26] Andere Kritiker sind skeptisch, dass es auf absehbare Zeit technisch möglich sein wird, Kriterien der Diskriminierung verlässlich umzusetzen.[27]

Das größte Fragezeichen hinter einer "ethischen Programmierung" setzt aber die Logik des Rüstungswettlaufs. So argumentiert wiederum der Chief Scientist der US Air Force: "Note that potential adversaries may be willing to field highly autonomous systems without any demand for prior certifiable V&V. In so doing they may gain potential capability advantages that we deny ourselves by requiring a high level of V&V".[28] Entsprechend könnte also schon das Gerücht ausreichen, der Gegner verzichte auf zusätzliche Schutzmaßnahmen und verschaffe sich so einen (noch so kleinen) Vorteil, um die eigenen Anstrengungen zu unterlaufen – das berühmte race to the bottom wäre in vollem Gang. Kritiker, wie die im Sommer 2013 unter der Federführung von Human Rights Watch gegründete Campaign to Stop Killer Robots, verweisen deshalb darauf, man müsse mittels einer Ächtung den aktuellen Trend politisch unterbrechen. Autonome letale Waffensysteme sind aus ihrer Sicht sowohl ethisch als auch rechtlich abzulehnen. Völkerrechtler kommen zwar zu dem Schluss, unbemannte beziehungsweise automatisierte Waffensysteme stünden nicht im Widerspruch zum herrschenden humanitären Völkerrecht, solange ein bewaffneter Konflikt vorliegt und ein Mensch den Waffeneinsatz per Fernsteuerung befiehlt,[29] erkennen aber an, dass autonome letale Systeme mindestens rechtliche Fragen aufwerfen.[30]

Aus ethischer Sicht stellt sich zusätzlich die ganz grundsätzliche Frage, ob Computeralgorithmen über Leben und Tod entscheiden sollten, ohne dass ein Mensch diese Entscheidung zumindest mitträgt und auf sein Gewissen lädt.[31] Dass solche Überlegungen nicht nur theoretischer Natur sind, zeigt das Beispiel einer (ferngesteuerten) US-Aufklärungsdrohne, die – nach amerikanischen Angaben – in internationalem Luftraum von einem (bemannten) irakischen Kampfjet beschossen, aber verfehlt wurde.[32] Hätte der Drohne, wäre sie dazu in der Lage gewesen, das Recht auf "Selbstverteidigung" zugestanden? Ist es ethisch vertretbar, wenn zukünftige Drohnen, die immerhin mehrere zehn Millionen US-Dollar kosten werden, einen Menschen töten, nur um ihre maschinelle Existenz zu sichern? Ein weiteres Problem, vor dem Robotiker warnen, ist die Möglichkeit eines "Krieges aus Versehen", wenn autonome Kampfdrohnen verschiedener Staaten aufeinandertreffen. Interaktion zwischen zwei komplexen Systemen, die keine Kenntnis der Programmierung der jeweils anderen Seite haben, können zu unerwarteten und irrationalen Effekten führen. Das Beispiel zweier automatisierter Preissetzungsprogramme, die sich bei der Festlegung eines Buchpreises auf Amazon gegenseitig beeinflussten und ein Buch schließlich für mehr als 23 Millionen Dollar anboten, ist ein simples Beispiel hierfür.[33] Ein Mensch hätte die Absurdität der Interaktion sofort erkannt – die Software nicht.

Debatte über Ächtung autonomer letaler Systeme



Vor diesem Hintergrund kam es im Mai 2014 zu einem ersten informellen Expertentreffen im Rahmen der UN-Waffenkonvention, der Convention on Certain Conventional Weapons (CCW) in Genf. Dort diskutierten Vertreter von mehr als 100 Staaten und verschiedenen Nichtregierungsorganisationen über die Gefahren und Risiken autonomer letaler Waffensysteme. Alle anwesenden Staatenvertreter sahen das Problem als diskussionswürdig und relevant an. Zwar sprachen sich nur fünf Staaten für eine sofortige Ächtung aus. Aber "(k)ein Staat verteidigte oder befürwortete die Entwicklung und den Einsatz von LAWS", auch wenn Tschechien und Israel in ihren Statements "unterstrichen (…), dass autonome Waffensysteme Vorteile bieten könnten. Die USA argumentierten ähnlich" – so der Politikwissenschaftler Frank Sauer, Beobachter bei dem Expertentreffen.[34] Die große Mehrzahl der Staaten sieht also weiteren Diskussionsbedarf – vor allem bei Definitionsfragen. Allerdings unterstützten viele Staaten in Genf die von NGOs eingebrachte Formulierung einer meaningful human control als Minimalforderung an militärische Systeme, darunter auch viele europäische Staaten inklusive Deutschland, Frankreich oder Großbritannien.[35] Allerdings ist offen, wie die Formulierung meaningful konkret zu definieren sein wird. Welcher Grad an Datenfilterung und Bedienerinterface erlaubt überhaupt noch eine "bedeutsame menschliche Kontrolle"?[36] Und hat der Mensch an einigen Stellen nicht längst schon die Kontrolle über Waffengewalt gegen Menschen an Computer abgegeben?[37]

Kritiker werten die bisherigen Diskussionen in Genf trotzdem als großen Erfolg und hoffen auf eine Ächtung. Sie müssen aber auch eingestehen, dass "klassische" Konzepte der Rüstungskontrolle durch die mögliche Autonomisierung letaler Systeme vor erhebliche Schwierigkeiten gestellt werden. Ob ein System hochgradig automatisiert handelt, aber zentrale Entscheidungen einem Menschen überlässt, oder auch den Waffeneinsatz autonom beschließt, ist im Wesentlichen eine Frage des Softwarecodes und nicht des physischen Designs. Das aber stellt klassische Verifikationsmaßnahmen oder rein quantitative Ansätze vor erhebliche Probleme. Einige Experten sprechen sich deshalb für eine forensische Ex-post-Kontrolle aus, bei der Staaten zuvor einer Überwachungsorganisation in einer Black Box gespeicherte Telemetriedaten zur nachträglichen Überprüfung bereitstellen, sofern der Verdacht autonomen Handelns aufkommt.[38] Andere Experten verweisen auf die bindende Kraft einer starken Norm, die bei Anwendung durch eine kritische Masse von Staaten als normative Barriere fungiert und – wie beispielsweise im Bereich der Landminen zu erkennen – auch die Staaten in ihrem Handeln beeinflusst, die dem Abkommen nicht beigetreten sind.[39] Im November 2014 gehen die Beratungen in der CCW in eine neue Runde. Es bleibt zu hoffen, dass sich die Staaten von den konkreten Problemen nicht abschrecken lassen. Denn die CCW ist "gefürchtet als ein Ort, an dem gute Ideen einen leisen Tod sterben".[40] Nachdem sich inzwischen auch Verteidigungsministerin Ursula von der Leyen vor dem Deutschen Bundestag für eine Ächtung vollautonomer letaler Systeme ausgesprochen hat,[41] besteht Hoffnung, dass sich das Engagement der Bundesregierung in der nächsten CCW-Runde noch einmal intensiviert.

Insgesamt kommt die Debatte über die letalen autonomen Systeme keine Sekunde zu früh. Die Automatisierung des Militärs geht mit enormen Schritten voran, und der Mensch wird immer stärker aus den Interpretations- und Entscheidungsprozessen herausgedrängt. Die Gefahren unbemannter letaler Systeme führen die aktuelle Entwicklung einer immer "entmenschlichteren" Kriegsführung plastisch vor Augen. Eine Debatte hierzu ist längst überfällig. In diesem Sinn muss das berühmte Zitat von Georges Clemenceau abgewandelt werden: "Krieg ist ein zu ernstes Geschäft, als dass man ihn den Computern überlassen dürfte."


Fußnoten

24.
United States Air Force Chief Scientist (AF/ST), Report on Technology Horizons. A Vision for Air Force Science & Technology During 2010–2030. Volume 1, Washington DC 2010, S. 42.
25.
Vgl. Ronald Arkin, Governing Lethal Behavior in Autonomous Robots, Boca Raton 2009.
26.
Privates Gespräch mit einem Völkerrechtsprofessors.
27.
Vgl. Human Rights Watch, Loosing Humanity, 19.11.2012, http://www.hrw.org/reports/2012/11/19/losing-humanity-0« (17.7.2014).
28.
United States Air Force Chief Scientist (Anm. 24), S. 42.
29.
Vgl. beispielsweise Robert Frau, Unbemannte Luftfahrzeuge im internationalen bewaffneten Konflikt; in: Humanitäres Völkerrecht – Informationsschriften, 24 (2011) 2, S. 60–72; Phillip Stroh, Der Einsatz von Drohnen im nicht-internationalen bewaffneten Konflikt, in: Humanitäres Völkerrecht – Informationsschriften, 24 (2011) 2, S. 73–77.
30.
Vgl. Markus Wagner, Autonomy in the Battlespace: Independently Operating Weapon Systems and the Law of Armed Conflict. International Humanitarian Law and the Changing Technology of War, 12.11.2012, http://ssrn.com/abstract=2211036« (23.7.2014).
31.
Vgl. beispielsweise Robert Sparrow, Killer Robots, in: Journal of Applied Philosophy, 24 (2007) 1, S. 62–77.
32.
Vgl. Tyrone C. Marshall, Iranians Attacked U.S. Drone Over International Waters, 8.11.2012, http://www.defense.gov/news/newsarticle.aspx?id=118486« (23.7.2014).
33.
Vgl. Michael Eisen, Amazon’s $23,698,655.93 Book About Flies, 22.4.2011, http://www.michaeleisen.org/blog/?p=358« (23.7.2014).
34.
Frank Sauer, Autonome Waffensysteme. Humanisierung oder Entmenschlichung des Krieges?, Global Governance Spotlight 4/2014, S. 3.
35.
Vgl. ebd.
36.
Ebd.
37.
Vgl. beispielsweise P. Scharre (Anm. 12).
38.
Vgl. Marc Gubrud/Jürgen Altmann, Compliance Measures for an Autonomous Weapons Convention, ICRAC Working Paper 2/2013, http://icrac.net/wp-content/uploads/2013/05/Gubrud-Altmann_Compliance-Measures-AWC_ICRAC-WP2.pdf« (17.7.2014).
39.
Vgl. Niklas Schörnig, Rüstung, Rüstungskontrolle und internationale Politik, in: Carlo Masala/Frank Sauer (Hrsg.), Handbuch Internationale Beziehungen, Wiesbaden 2014 (i.E.).
40.
F. Sauer (Anm. 34), S. 2.
41.
Der Redebeitrag von der Leyens kann beispielsweise auf http://augengeradeaus.net/2014/07/dronewatch-von-der-leyens-drohnen-position-im-bundestag/« (13.8.2014) nachgehört werden.
Creative Commons License Dieser Text ist unter der Creative Commons Lizenz veröffentlicht. by-nc-nd/3.0/
Der Name des Autors/Rechteinhabers soll wie folgt genannt werden: by-nc-nd/3.0/
Autor: Niklas Schörnig für Aus Politik und Zeitgeschichte/bpb.de
Urheberrechtliche Angaben zu Bildern / Grafiken / Videos finden sich direkt bei den Abbildungen.

 

Informationsportal Krieg und Frieden

Die weltweiten Militärausgaben sind 2013 leicht zurückgegangen - auf 1,7 Billionen US-Dollar. Welches Land gibt wie viel für sein Militär aus? Und wer bezieht die meisten Waffen aus Deutschland? Das interaktive Portal liefert Antworten auf sicherheitspolitische Fragen. Weiter... 

Publikation zum Thema

Coverbild APuZ - Jahresband 2013

APuZ - Jahresband 2014

Der APuZ-Jahresband 2014: Sämtliche Ausgaben der Zeitschrift "Aus Politik und Zeitgeschichte" aus dem Jahr 2014.Weiter...

Zum Shop