Meine Merkliste Geteilte Merkliste PDF oder EPUB erstellen

Automatisierte Kriegsführung – Wie viel Entscheidungsraum bleibt dem Menschen? | Waffen und Rüstung | bpb.de

Waffen und Rüstung Editorial Kurswechsel? Deutsche Rüstungsexporte zwischen Transparenz und parlamentarischer Kontrolle Die Regulierung des internationalen Waffenhandels Nukleare Nichtverbreitung, Rüstungskontrolle und Abrüstung Automatisierte Kriegsführung – Wie viel Entscheidungsraum bleibt dem Menschen? Genderdimensionen des Waffengebrauchs Waffenkultur in Deutschland

Automatisierte Kriegsführung – Wie viel Entscheidungsraum bleibt dem Menschen?

Niklas Schörnig

/ 18 Minuten zu lesen

Im Militärbereich ist aktuell eine Revolution im Gange, der sich viele Menschen bislang nicht bewusst sind. Immer mehr Aufgaben werden, wie im zivilen Leben auch, von Computerprogrammen und unbemannten robotischen Systemen übernommen. Immer mehr wird automatisiert erledigt, der Mensch ist nicht mehr Akteur, sondern Überwacher – bestenfalls. In immer mehr Kontexten ist der Soldat oder die Soldatin auf die Zuarbeit von Computerprogrammen angewiesen, die Datenströme aus verschiedensten Sensoren filtern, bewerten und Handlungsoptionen vorschlagen. Bislang wird von Politik und Militär die Illusion aufrechterhalten, der Mensch sei am Ende doch der maßgebliche Entscheider, eine "Vollautonomie", bei der Computerprogramme über Waffengewalt gegen Menschen entscheiden, sei abzulehnen.

Dieser Beitrag geht der Frage nach, inwieweit der Mensch angesichts der immer stärkeren Automatisierung noch als relevanter Entscheider gelten kann oder ob dieser schleichende Prozess den Menschen nicht schon längst weitgehend entmündigt hat. Es wird die These vertreten, dass, selbst wenn der Mensch zumindest bislang noch Einfluss auf die computerisierte Entscheidungsschleife nehmen kann, die zunehmende Verbreitung unbemannter, das heißt robotischer Systeme den Menschen noch weiter aus der Kriegsführung herausdrängt, sofern aktuelle technologische Trends nicht aktiv politisch gestoppt werden. Es ist deshalb keinesfalls zu früh, vielleicht sogar eher schon zu spät, um die zentralen Fragen, wie "entmenschlicht" die Kriegsführung der Zukunft sein kann und vor allem sein soll, zu diskutieren.

Automatisierte Systeme zur Beherrschung der Datenflut

Im militärischen Bereich haben in den vergangenen Jahren immer stärker automatisierte beziehungsweise autonome Systeme unverkennbar an Bedeutung gewonnen. Dies liegt vor allem daran, dass zunehmend Sensoren verschiedenster Art eine bislang nicht gekannte Informationsfülle digital und in Echtzeit zur Verfügung stellen. Menschlichen Entscheidern ist es praktisch nicht mehr möglich, alle Informationen selbst zu bewerten und auf ihre Entscheidungsrelevanz hin zu prüfen – zumindest nicht im dafür zur Verfügung stehenden Zeitrahmen, der auch noch immer enger wird. 2011 stellte der Undersecretary of Defense for Intelligence, Michael G. Vickers, auf einem Symposium fest, in Afghanistan fielen 53 Terabyte an Aufklärungsdaten an – pro Tag. US-Generalleutnant Michael Oates beschreibt das Problem deshalb folgendermaßen: "There is no shortage of data. There is a dearth of analysis." Entsprechend geht der Trend, wie die Mitarbeiter am Fraunhofer-Institut für Kommunikation, Informationsverarbeitung und Ergonomie Oliver Witt, Emily Mihatsch und Heinz Küttelwesch jüngst feststellten, "zur effizienten Automatisierung des militärischen Informationsverarbeitungs- und Entscheidungsprozesses", der Sektor automatisierter Auswertungssoftware boomt also. Je nach System werden zum Teil mehrere hundert erfasste Parameter verarbeitet, korreliert und bewertet. Die auf komplexen Computeralgorithmen basierenden Systeme übernehmen also, erstens, eine Filterfunktion. Aus der dramatisch angestiegenen Informationsmenge werden als entscheidungsirrelevant klassifizierte Informationen ausgesiebt und dem Menschen nur die als relevant erachteten vorgelegt. Dies gilt vor allem für zeitkritische Situationen, wie der Abwehr eines vermeintlich gegnerischen Flugzeugs, wo auf Basis von Route, Geschwindigkeit, Radarecho und anderer Faktoren eine Identifikation in Freund und Feind erfolgt. Es kann sich auch um Computerprogramme handeln, die beispielsweise Videomaterial selbstständig auswerten und auf "verdächtige" oder ungewöhnliche Vorkommnisse hin scannen. Menschliche Analysten bekommen dann nur den entsprechenden Teil vorgelegt und können eine nähere Untersuchung vornehmen. Allerdings basiert die Analyse auf während der Entwicklung der Software festgelegten Parametern und Algorithmen. Die Systeme können nicht "überrascht" werden. Ihnen entgeht unter Umständen das entscheidende Detail, das einen Menschen aus einem Bauchgefühl heraus trotz seiner scheinbaren Banalität zu einer wertvollen Einschätzung gelangen lässt. Auch die Aufbereitung und Präsentation der verdichteten Daten kann unter Umständen zu Missverständnissen und Problemen führen oder weit übergeordnete Offiziere zu einem taktischen Mikromanagement verleiten, weil sie den – fehlerhaften – Eindruck haben, trotz hochgradig gefilterter und verdichteter Informationen einen Überblick bis hinunter zur taktischen Ebene zu besitzen.

Der zweite wichtige Aspekt von Assistenzsystemen ist neben der Filter- und Verdichtungsfunktion die Generierung einer überschaubaren Zahl an vorgeschlagenen Handlungsoptionen. So können Systeme mögliche Ziele gemäß der potenziellen Gefahr klassifizieren und bei mehreren Zielen Vorschläge unterbreiten, welches prioritär angegriffen werden soll. Ist ein menschlicher Entscheider aber überhaupt noch in der Lage, verschiedene vom System vorgeschlagene Handlungsoptionen gegeneinander abzuwägen, deren Entstehungsgrundlage er bestenfalls erahnen, aber nicht im Detail nachvollziehen kann? Studien zeigen, dass Menschen gegenüber Computervorschlägen geneigt sind, keine kritische Überprüfung mehr vorzunehmen und überschnell zuzustimmen, selbst wenn die vorgeschlagenen Lösungen nicht plausibel erscheinen. Man spricht in diesem Zusammenhang von "automation bias" beziehungsweise dem "automation paradox", ein Effekt, der mit steigender Belastung des Operateurs durch andere Aufgaben noch steigt. Systeme allein von der Bedienoberfläche schon so zu gestalten, dass der Operateur nicht einfach jeden Handlungsvorschlag der Maschine mit einem schnellen Klick bestätigt, sondern zumindest für einen Moment zum Nachdenken genötigt wird, ist eine Herausforderung. Auf der anderen Seite bleibt den Entscheidern angesichts schnellerer und schwerer zu ortender Gefahren immer weniger Zeit für eine kritische Prüfung – ein Dilemma.

Die Frage, wie in beschleunigten und komplexen Gefechtssituationen sichergestellt werden kann, dass Mensch und Maschine "effizient" interagieren und trotzdem ausreichend Kontrolle stattfindet, wird in Zukunft eine immer größere Rolle spielen. Stichworte sind hier human-robot interaction beziehungsweise manned-unmanned teaming (MUM-T). Das soll am Beispiel unbemannter Flugzeuge, also "Drohnen", deutlich gemacht werden. Bislang werden (Kampf)Drohnen noch durch einen oder gar zwei "Piloten" ferngesteuert und überwacht. Ziel ist es aber, den Menschen statt mit der Steuerung eines automatisierten Systems mit der Beaufsichtigung mehrerer unbemannter Systeme zu beauftragen. Im Bereich des manned-unmanned teamings entwickeln Experten aktuell etwa Assistenzsysteme, die es dem Piloten eines bemannten Kampfjets oder -hubschraubers erlauben sollen, zusätzlich eine oder mehrere Drohnen zu führen – Drohnen, die eigenständig zur Aufklärung vorausfliegen und vor möglichen Gefahren warnen und die mittels einfachster Befehle, beispielsweise "recce area" ("Gebiet erkunden"), zu "steuern" sind. Reagiert der Mensch nicht schnell genug auf Rückmeldungen, wählt das System eine "aufmerksamkeitslenkende Visualisierung" und schlägt eine "Bedienungsunterstützung zur Durchführung der Aufgabe" vor. Obwohl das hier skizzierte Beispiel bei der Information des Piloten endet, kann man es natürlich noch ein bis zwei Schritte weiter denken. Technologisch wäre es sicher nicht aufwändig, einer bewaffneten Unterstützungsdrohne nach der Identifikation eines potenziellen Gegners auch den simplen Befehl "engage" zu erteilen und einen selbstständigen Angriff auszulösen. Piloten aktueller Kampfjets verlassen sich bei der Klassifikation möglicher Gegner sowieso fast ausschließlich auf ihr Bordsystem, ehe sie selbstsuchende Luft-Luft-Raketen abschießen. Eine visuelle Bestätigung ist schlicht zu gefährlich. Wäre es – militärisch betrachtet – am Ende nicht effektiver, auf den Menschen ganz zu verzichten, wenn dieser sowieso keine andere Option hat, als den ihm zuarbeitenden Entscheidungsfindungs- und Assistenzsystemen zu vertrauen? Denkbar wären auch Systeme, die feststellen, ob der Pilot aktuell mit der Entscheidung überfordert ist, und die bei Bedarf einen Angriff selbstständig einleiten. Aber wozu bräuchte man dann noch den Menschen?

Der Computer als Letztentscheider? Autonomie statt Automatisierung

An dieser Stelle setzt meist die Unterscheidung zwischen automatisierten und autonomen Systemen an, auch wenn die Grenze zwischen automatischem, automatisiertem und autonomem Verhalten – technisch gesehen – fließend verläuft und nur unterschiedliche Grade der Komplexität des Verhaltens und der Anzahl der berücksichtigten Parameter widerspiegelt. Die wahrscheinlich sinnvollste Unterscheidung ist deshalb nicht technisch zu ziehen, sondern anhand der dem System gestellten Aufgabe beziehungsweise dem notwendigen externen Input und dem Grad menschlicher Kontrolle.

Während ein automatisiertes System zumindest formal noch menschlicher Kontrolle unterliegt und zwingend menschliche Unterstützung benötigt, um die (ebenfalls vom Menschen vorgegebenen) Aufgaben zu erfüllen, handelt das autonome System zumindest im Rahmen der Zielerfüllung selbstständig oder ist sogar in der Lage, sich Ziele zu setzen. Entsprechend definiert beispielsweise das Pentagon ein autonomes Waffensystem in seiner Direktive 3000.09 vom November 2012 als ein "weapon system that, once activated, can select and engage targets without further intervention by a human operator. This includes human-supervised autonomous weapon systems that are designed to allow human operators to override operation of the weapon system, but can select and engage targets without further human input after activation." Nach dieser Definition wäre also ein Waffensystem als autonom zu kategorisieren, wenn es nach der Aktivierung gemäß seiner Programmierung selbstständig und ohne weiteres menschliches Zutun in der Lage ist, Ziele auszuwählen und anzugreifen. Eine menschliche Kontrolle kann stattfinden, muss aber nicht. Es ist offensichtlich, dass sich der Grad der Notwendigkeit menschlicher Eingriffe umgekehrt proportional zum Grad der Automatisierung/Autonomie verhält. Anfangs ist der Mensch noch in der "Entscheidungsschleife" – in-the-loop. Überwacht er primär und gibt nur Ziele vor, ist er on-the-loop, um schließlich beim vollautonomen System out-of-the-loop zu sein.

Dass es aus technologischer Sicht schon heute relativ unkompliziert ist, autonome Waffensysteme herzustellen, machen vor allem neuere Selbstverteidigungssysteme gegen anfliegende Raketen, Geschosse oder Mörsergranaten deutlich, die schon jetzt im Einsatz sind. Bereits seit den späten 1970er Jahren setzt die US Navy auf ihren Kampfschiffen das Phalanx-Nahbereichsverteidigungssystem ein. Phalanx ist in der Lage, anfliegende Raketen oder Flugzeuge zu identifizieren und durch das Verschießen von bis zu 4500 Schuss panzerbrechender 20-Millimeter-Munition pro Minute zu bekämpfen. Es ist offensichtlich, dass kein menschlicher Schütze im Stande wäre, eine eingehende Rakete zu erfassen und abzuschießen. Das von der Firma Rheinmetall Defence hergestellte Luftnahbereichsflugabwehrsystem MANTIS, das eigentlich zum Schutz deutscher Feldlager in Afghanistan angeschafft werden sollte, dient "der Abwehr von Angriffen mit Raketen, Artilleriegeschossen und Mörsergranaten, wie auch der Bekämpfung von Flugzielen (so beispielsweise auch unbemannter Flugziele, wie Drohnen oder Cruise Missiles)". Noch im Lauf des Geschützes wird das Projektil programmiert, um im Idealfall in direkter Nähe zum bekämpften Ziel zu explodieren. Es ist möglich, das System in einen Modus zu schalten, bei dem auch die finale Schussfreigabe durch den Bediener entfällt. Auch das auf US Navy-Schiffen zu findende AEGIS-Luftabwehrsystem verfügt über einen autonomen Modus, in dem es ohne menschlichen Eingriff mögliche Gefahren identifiziert und abwehrt. Dabei kann es auch zu Fehlern kommen: 1988 klassifizierte ein AEGIS-System des Kreuzers USS Vincennes den Airbus des Fluges Iran-Air 655 als iranisches Kampfflugzeug vom Typ F-14 und damit als mögliche Bedrohung. Ob die Besatzung nach einigen fehlgeschlagenen Kommunikationsversuchen das System nicht an dem (autonomen) Abschuss hinderte oder den Vorschlag des Systems aktiv bestätigte (automatisiert), ist nicht genau bekannt. Bekannt ist das Ergebnis, das 290 Menschen das Leben kostete.

Militärisch verzichtbare Autonomie?

Spricht man aktuell mit Vertretern der Bundeswehr, aber auch mit Vertretern anderer Streitkräfte, wird man auf ein immer wiederkehrendes Mantra treffen: das Bekenntnis, dass auch in Zukunft immer ein Mensch die Entscheidung über den Einsatz tödlicher Waffengewalt treffen soll und wird. Der Mensch soll – wenn auch mit Unterstützung des Systems – die Befehle geben. Allerdings zeigt das Beispiel zukünftiger bewaffneter Drohnen, dass dieses Paradigma durch das Aufkommen robotischer, das heißt unbemannter Kampfsysteme zu Lande, im Wasser und in der Luft mit hoher Wahrscheinlichkeit nicht durchgehalten werden kann. Aktuelle Kampfdrohnen, wie beispielsweise die amerikanische MQ-9 Reaper oder die israelische Heron TP, sind im Wesentlichen ferngesteuert und für den – im Militärjargon – "unumkämpften Luftraum" ausgelegt, also auf "asymmetrische Konflikte", in denen das Entsendeland die Lufthoheit im Konfliktgebiet bereits besitzt. Dort unterstützen Drohnen dann Patrouillen durch Luftnahunterstützung oder ermöglichen gezielte Angriffe gegen Aufständische. Modelle der nächsten Generation weisen hingegen schon viele Merkmale auf, die weit über diese Szenarien hinausreichen. Ein Blick auf die aktuellen Entwicklungen verrät: Viele zukünftige größere Modelle der MALE-Klasse (Medium Altitude, Long Endurance, aktuell beispielsweise die Modelle Predator oder Reaper) sind dank Tarnkappentechnik (Stealth) besser gegen Radarentdeckung geschützt. Sie werden von Strahltriebwerken angetrieben und sind in der Lage, mehr und variablere Waffenlast zu transportieren. Da kein Mensch mehr im Cockpit sitzt, auf den man in der Planung oder im Einsatz Rücksicht nehmen muss, sind neue Designs möglich, die wesentlich belastendere Flugmanöver erlauben und bemannten Jets so deutlich überlegen sind.

Alle genannten Vorteile kommen aber nicht in asymmetrischen, sondern vor allem in symmetrischen Konflikten, im "umkämpften Luftraum", zum Tragen – also im klassischen Staatenkrieg, wenn der Gegner über eine Luftabwehr oder bemannte Kampfjets verfügt. Solche Modelle haben inzwischen die Zeichenbretter der Ingenieure verlassen und werden zum Teil schon intensiv getestet. Im Sommer 2013 landete beispielsweise das amerikanische Experimentalmodell X47B ohne menschliches Zutun zweimal hintereinander auf einem Flugzeugträger – auch für menschliche Piloten eine große Herausforderung. Beim dritten Versuch trat eine Anomalie auf und es war die Drohne selbst, die diese entdeckte und sich "entschied", den Vorgang abzubrechen. Solche Systeme, die man guten Gewissens als hochgradig automatisiert oder semi-autonom bezeichnen kann, werden nicht nur durch die USA und Israel entwickelt. Auch die europäische Rüstungsindustrie, die den aktuellen Zug ferngesteuerter Drohnen verpasst hat, versucht, bei der nächsten Generation wieder aufzuspringen. Während der britische Hersteller BAE Systems das ambitionierte Taranis-Programm forciert, arbeitet man in Frankreich an einem nEUROn genannten System, das laut Angaben der Entwicklerfirma Dassault in der Lage sein soll, eine "air-to-ground mission based on the detection, localization, and reconnaissance of ground targets in autonomous modes" zu vollführen.

Solche großen Systeme werden in der Regel über Satellit gesteuert oder überwacht, um nicht durch die gebietsabhängige Funkreichweite eingeschränkt zu sein. Satellitenkommunikation hat aber, je nach Standort der Steueranlage, eine Latenz von mindestens einer Viertel- bis halben Sekunde auf einfacher Strecke. Es vergeht also wertvolle Zeit, ehe eine ferngesteuerte Drohne auf unvorhergesehene Entwicklungen reagieren kann – die menschliche Reaktionszeit nicht mitgerechnet. Um die oben beschriebenen technologischen Fähigkeiten im umkämpften Luftraum voll ausnutzen, sind solche Zeitverzögerungen aus militärischer Sicht inakzeptabel, der Vorteil wird durch das Warten auf den Menschen wieder zunichte gemacht. Ein weiteres Problem ergibt sich, wenn die Kommunikationsverbindung vom Gegner gestört oder unterbrochen wird. Aktuelle Systeme leiten in diesem Fall eine automatische Rückkehr zur Basis ein. Damit ist die Mission abgebrochen und das Ziel nicht erfüllt. Es spricht also einiges dafür, dass volle Autonomie aus militärischer Sicht unverzichtbar ist, wenn die technologischen Möglichkeiten im umkämpften Luftraum ausgespielt werden sollen. Technisch ist es dank immer größerer Rechenleistung zukünftig kein Problem, die Assistenzsysteme in das unbemannte System zu verlagern. Auswertung, Lagebeurteilung und Handlungsanweisung – die Algorithmen wären die gleichen, nur der Mensch wäre nicht mehr als "Abnicker" in der Schleife.

Ein "Lösungsvorschlag", der in der Diskussion genannt wird, greift den oben beschriebenen Gedanken eines bemannten Führungssystems, also das manned-unmanned teaming zwischen bemanntem und unbemanntem System auf. Ein bemannter Helikopter oder ein Kampfflugzeug könnte beispielsweise, so wird argumentiert, eine oder mehrere bewaffnete Drohnen mit direkter Kommunikation ohne Umweg über Satellit führen. Es fällt aber schwer, dieses Szenario zu akzeptieren. Denn, erstens, kommen die oben beschriebenen Überforderungsprobleme des Menschen zum Tragen. Zweitens ist das Führungsflugzeug in Reichweite und Verweildauer gegenüber unbemannten Systemen deutlich eingeschränkt. Es wäre wiederum der limitierende Faktor. Drittens wäre auch diese Kommunikation störanfällig und damit gefährdet. Und, viertens, würde ein relativ nahes bemanntes Führungsflugzeug vermutlich die gegnerische Abwehr auf sich ziehen. Ginge aber das Führungsflugzeug verloren, würden sich die gleichen Probleme wie bei einem Kommunikationsabriss über Satellit ergeben.

"Race to the bottom" letaler Autonomie

In der Summe spricht also viel dafür, dass der bereits bestehende Trend zu immer größerer Automatisierung vor der Entscheidung über Waffengewalt gegen Menschen – also "letaler Autonomie" – nicht von alleine stoppen wird, da die militärischen Vorteile zu groß sind. Wer argumentiert, niemand habe ein Interesse an solchen Systemen, verkennt die Natur von Rüstungswettläufen, nämlich, dass nicht eine bewusste Intention der treibenden Akteure den Wettlauf befeuert, sondern die Angst vor der möglichen Überlegenheit des (potenziellen) Gegners.

Schon 2010 argumentierte der Chief Scientist der US Air Force in seiner Technologievision "Technology Horizons", im Zeitraum "2010–2030 and beyond" benötige die Air Force für ein breiteres Missionsspektrum "fully unattended systems with reliable levels of autonomous functionality far greater than is possible today, as well as systems that can reliably make wide-ranging autonomous decisions at cyber speeds to allow reactions in time-critical roles far exceeding what humans can possibly achieve". Fehlverhalten sei durch geeignete "verification and validation (V&V)"-Maßnahmen auszuschließen. Man kann in diesem Zusammenhang auch an den von dem amerikanischen Robotiker Ron Arkin vorgeschlagenen "ethical governor" denken. Arkin möchte Robotern eine Ethik, basierend auf dem Völkerrecht, einprogrammieren, die den Roboter zu einer "humaneren Kriegsführung" befähigt als Menschen selbst – beispielsweise weil sie keinen Stress empfinden und deshalb keine Übersprungshandlungen begehen. Völkerrechtler bezweifeln allerdings, dass sich zentrale Prinzipien des humanitären Völkerrechts wie beispielsweise "Proportionalität" tatsächlich in Softwarecode fassen lassen. Andere Kritiker sind skeptisch, dass es auf absehbare Zeit technisch möglich sein wird, Kriterien der Diskriminierung verlässlich umzusetzen.

Das größte Fragezeichen hinter einer "ethischen Programmierung" setzt aber die Logik des Rüstungswettlaufs. So argumentiert wiederum der Chief Scientist der US Air Force: "Note that potential adversaries may be willing to field highly autonomous systems without any demand for prior certifiable V&V. In so doing they may gain potential capability advantages that we deny ourselves by requiring a high level of V&V". Entsprechend könnte also schon das Gerücht ausreichen, der Gegner verzichte auf zusätzliche Schutzmaßnahmen und verschaffe sich so einen (noch so kleinen) Vorteil, um die eigenen Anstrengungen zu unterlaufen – das berühmte race to the bottom wäre in vollem Gang. Kritiker, wie die im Sommer 2013 unter der Federführung von Human Rights Watch gegründete Campaign to Stop Killer Robots, verweisen deshalb darauf, man müsse mittels einer Ächtung den aktuellen Trend politisch unterbrechen. Autonome letale Waffensysteme sind aus ihrer Sicht sowohl ethisch als auch rechtlich abzulehnen. Völkerrechtler kommen zwar zu dem Schluss, unbemannte beziehungsweise automatisierte Waffensysteme stünden nicht im Widerspruch zum herrschenden humanitären Völkerrecht, solange ein bewaffneter Konflikt vorliegt und ein Mensch den Waffeneinsatz per Fernsteuerung befiehlt, erkennen aber an, dass autonome letale Systeme mindestens rechtliche Fragen aufwerfen.

Aus ethischer Sicht stellt sich zusätzlich die ganz grundsätzliche Frage, ob Computeralgorithmen über Leben und Tod entscheiden sollten, ohne dass ein Mensch diese Entscheidung zumindest mitträgt und auf sein Gewissen lädt. Dass solche Überlegungen nicht nur theoretischer Natur sind, zeigt das Beispiel einer (ferngesteuerten) US-Aufklärungsdrohne, die – nach amerikanischen Angaben – in internationalem Luftraum von einem (bemannten) irakischen Kampfjet beschossen, aber verfehlt wurde. Hätte der Drohne, wäre sie dazu in der Lage gewesen, das Recht auf "Selbstverteidigung" zugestanden? Ist es ethisch vertretbar, wenn zukünftige Drohnen, die immerhin mehrere zehn Millionen US-Dollar kosten werden, einen Menschen töten, nur um ihre maschinelle Existenz zu sichern? Ein weiteres Problem, vor dem Robotiker warnen, ist die Möglichkeit eines "Krieges aus Versehen", wenn autonome Kampfdrohnen verschiedener Staaten aufeinandertreffen. Interaktion zwischen zwei komplexen Systemen, die keine Kenntnis der Programmierung der jeweils anderen Seite haben, können zu unerwarteten und irrationalen Effekten führen. Das Beispiel zweier automatisierter Preissetzungsprogramme, die sich bei der Festlegung eines Buchpreises auf Amazon gegenseitig beeinflussten und ein Buch schließlich für mehr als 23 Millionen Dollar anboten, ist ein simples Beispiel hierfür. Ein Mensch hätte die Absurdität der Interaktion sofort erkannt – die Software nicht.

Debatte über Ächtung autonomer letaler Systeme

Vor diesem Hintergrund kam es im Mai 2014 zu einem ersten informellen Expertentreffen im Rahmen der UN-Waffenkonvention, der Convention on Certain Conventional Weapons (CCW) in Genf. Dort diskutierten Vertreter von mehr als 100 Staaten und verschiedenen Nichtregierungsorganisationen über die Gefahren und Risiken autonomer letaler Waffensysteme. Alle anwesenden Staatenvertreter sahen das Problem als diskussionswürdig und relevant an. Zwar sprachen sich nur fünf Staaten für eine sofortige Ächtung aus. Aber "(k)ein Staat verteidigte oder befürwortete die Entwicklung und den Einsatz von LAWS", auch wenn Tschechien und Israel in ihren Statements "unterstrichen (…), dass autonome Waffensysteme Vorteile bieten könnten. Die USA argumentierten ähnlich" – so der Politikwissenschaftler Frank Sauer, Beobachter bei dem Expertentreffen. Die große Mehrzahl der Staaten sieht also weiteren Diskussionsbedarf – vor allem bei Definitionsfragen. Allerdings unterstützten viele Staaten in Genf die von NGOs eingebrachte Formulierung einer meaningful human control als Minimalforderung an militärische Systeme, darunter auch viele europäische Staaten inklusive Deutschland, Frankreich oder Großbritannien. Allerdings ist offen, wie die Formulierung meaningful konkret zu definieren sein wird. Welcher Grad an Datenfilterung und Bedienerinterface erlaubt überhaupt noch eine "bedeutsame menschliche Kontrolle"? Und hat der Mensch an einigen Stellen nicht längst schon die Kontrolle über Waffengewalt gegen Menschen an Computer abgegeben?

Kritiker werten die bisherigen Diskussionen in Genf trotzdem als großen Erfolg und hoffen auf eine Ächtung. Sie müssen aber auch eingestehen, dass "klassische" Konzepte der Rüstungskontrolle durch die mögliche Autonomisierung letaler Systeme vor erhebliche Schwierigkeiten gestellt werden. Ob ein System hochgradig automatisiert handelt, aber zentrale Entscheidungen einem Menschen überlässt, oder auch den Waffeneinsatz autonom beschließt, ist im Wesentlichen eine Frage des Softwarecodes und nicht des physischen Designs. Das aber stellt klassische Verifikationsmaßnahmen oder rein quantitative Ansätze vor erhebliche Probleme. Einige Experten sprechen sich deshalb für eine forensische Ex-post-Kontrolle aus, bei der Staaten zuvor einer Überwachungsorganisation in einer Black Box gespeicherte Telemetriedaten zur nachträglichen Überprüfung bereitstellen, sofern der Verdacht autonomen Handelns aufkommt. Andere Experten verweisen auf die bindende Kraft einer starken Norm, die bei Anwendung durch eine kritische Masse von Staaten als normative Barriere fungiert und – wie beispielsweise im Bereich der Landminen zu erkennen – auch die Staaten in ihrem Handeln beeinflusst, die dem Abkommen nicht beigetreten sind. Im November 2014 gehen die Beratungen in der CCW in eine neue Runde. Es bleibt zu hoffen, dass sich die Staaten von den konkreten Problemen nicht abschrecken lassen. Denn die CCW ist "gefürchtet als ein Ort, an dem gute Ideen einen leisen Tod sterben". Nachdem sich inzwischen auch Verteidigungsministerin Ursula von der Leyen vor dem Deutschen Bundestag für eine Ächtung vollautonomer letaler Systeme ausgesprochen hat, besteht Hoffnung, dass sich das Engagement der Bundesregierung in der nächsten CCW-Runde noch einmal intensiviert.

Insgesamt kommt die Debatte über die letalen autonomen Systeme keine Sekunde zu früh. Die Automatisierung des Militärs geht mit enormen Schritten voran, und der Mensch wird immer stärker aus den Interpretations- und Entscheidungsprozessen herausgedrängt. Die Gefahren unbemannter letaler Systeme führen die aktuelle Entwicklung einer immer "entmenschlichteren" Kriegsführung plastisch vor Augen. Eine Debatte hierzu ist längst überfällig. In diesem Sinn muss das berühmte Zitat von Georges Clemenceau abgewandelt werden: "Krieg ist ein zu ernstes Geschäft, als dass man ihn den Computern überlassen dürfte."

Dr. phil., geb. 1972; wissenschaftlicher Mitarbeiter des Leibniz-Instituts Hessische Stiftung Friedens- und Konfliktforschung (HSFK) und Lehrbeauftragter an der Goethe-Universität Frankfurt am Main; HSFK, Baseler Straße 27–31, 60329 Frankfurt/M.
E-Mail Link: schoernig@hsfk.de