Patronen des Kalibers 5,56 mm, wie sie auch im Sturmgewehr G36 der Bundeswehr verwendet werden, laufen am 20.02.2014 in einer Produktionshalle des Munitionsherstellers Metallwerke Eisenhütte Nassau MEN in Nassau (Rheinland-Pfalz) durch die Endkontrolle
1|2|3 Auf einer Seite lesen
18.8.2014 | Von:
Niklas Schörnig

Automatisierte Kriegsführung – Wie viel Entscheidungsraum bleibt dem Menschen?

Im Militärbereich ist aktuell eine Revolution im Gange, der sich viele Menschen bislang nicht bewusst sind. Immer mehr Aufgaben werden, wie im zivilen Leben auch, von Computerprogrammen und unbemannten robotischen Systemen übernommen. Immer mehr wird automatisiert erledigt, der Mensch ist nicht mehr Akteur, sondern Überwacher – bestenfalls. In immer mehr Kontexten ist der Soldat oder die Soldatin auf die Zuarbeit von Computerprogrammen angewiesen, die Datenströme aus verschiedensten Sensoren filtern, bewerten und Handlungsoptionen vorschlagen. Bislang wird von Politik und Militär die Illusion aufrechterhalten, der Mensch sei am Ende doch der maßgebliche Entscheider, eine "Vollautonomie", bei der Computerprogramme über Waffengewalt gegen Menschen entscheiden, sei abzulehnen.

Dieser Beitrag geht der Frage nach, inwieweit der Mensch angesichts der immer stärkeren Automatisierung noch als relevanter Entscheider gelten kann oder ob dieser schleichende Prozess den Menschen nicht schon längst weitgehend entmündigt hat. Es wird die These vertreten, dass, selbst wenn der Mensch zumindest bislang noch Einfluss auf die computerisierte Entscheidungsschleife nehmen kann, die zunehmende Verbreitung unbemannter, das heißt robotischer Systeme den Menschen noch weiter aus der Kriegsführung herausdrängt, sofern aktuelle technologische Trends nicht aktiv politisch gestoppt werden. Es ist deshalb keinesfalls zu früh, vielleicht sogar eher schon zu spät, um die zentralen Fragen, wie "entmenschlicht" die Kriegsführung der Zukunft sein kann und vor allem sein soll, zu diskutieren.

Automatisierte Systeme zur Beherrschung der Datenflut

Im militärischen Bereich haben in den vergangenen Jahren immer stärker automatisierte beziehungsweise autonome Systeme unverkennbar an Bedeutung gewonnen. Dies liegt vor allem daran, dass zunehmend Sensoren verschiedenster Art eine bislang nicht gekannte Informationsfülle digital und in Echtzeit zur Verfügung stellen. Menschlichen Entscheidern ist es praktisch nicht mehr möglich, alle Informationen selbst zu bewerten und auf ihre Entscheidungsrelevanz hin zu prüfen – zumindest nicht im dafür zur Verfügung stehenden Zeitrahmen, der auch noch immer enger wird. 2011 stellte der Undersecretary of Defense for Intelligence, Michael G. Vickers, auf einem Symposium fest, in Afghanistan fielen 53 Terabyte an Aufklärungsdaten an – pro Tag.[1] US-Generalleutnant Michael Oates beschreibt das Problem deshalb folgendermaßen: "There is no shortage of data. There is a dearth of analysis."[2] Entsprechend geht der Trend, wie die Mitarbeiter am Fraunhofer-Institut für Kommunikation, Informationsverarbeitung und Ergonomie Oliver Witt, Emily Mihatsch und Heinz Küttelwesch jüngst feststellten, "zur effizienten Automatisierung des militärischen Informationsverarbeitungs- und Entscheidungsprozesses",[3] der Sektor automatisierter Auswertungssoftware boomt also. Je nach System werden zum Teil mehrere hundert erfasste Parameter verarbeitet, korreliert und bewertet. Die auf komplexen Computeralgorithmen basierenden Systeme übernehmen also, erstens, eine Filterfunktion. Aus der dramatisch angestiegenen Informationsmenge werden als entscheidungsirrelevant klassifizierte Informationen ausgesiebt und dem Menschen nur die als relevant erachteten vorgelegt. Dies gilt vor allem für zeitkritische Situationen, wie der Abwehr eines vermeintlich gegnerischen Flugzeugs, wo auf Basis von Route, Geschwindigkeit, Radarecho und anderer Faktoren eine Identifikation in Freund und Feind erfolgt. Es kann sich auch um Computerprogramme handeln, die beispielsweise Videomaterial selbstständig auswerten und auf "verdächtige" oder ungewöhnliche Vorkommnisse hin scannen. Menschliche Analysten bekommen dann nur den entsprechenden Teil vorgelegt und können eine nähere Untersuchung vornehmen. Allerdings basiert die Analyse auf während der Entwicklung der Software festgelegten Parametern und Algorithmen. Die Systeme können nicht "überrascht" werden. Ihnen entgeht unter Umständen das entscheidende Detail, das einen Menschen aus einem Bauchgefühl heraus trotz seiner scheinbaren Banalität zu einer wertvollen Einschätzung gelangen lässt. Auch die Aufbereitung und Präsentation der verdichteten Daten kann unter Umständen zu Missverständnissen und Problemen führen oder weit übergeordnete Offiziere zu einem taktischen Mikromanagement verleiten, weil sie den – fehlerhaften – Eindruck haben, trotz hochgradig gefilterter und verdichteter Informationen einen Überblick bis hinunter zur taktischen Ebene zu besitzen.[4]

Der zweite wichtige Aspekt von Assistenzsystemen ist neben der Filter- und Verdichtungsfunktion die Generierung einer überschaubaren Zahl an vorgeschlagenen Handlungsoptionen. So können Systeme mögliche Ziele gemäß der potenziellen Gefahr klassifizieren und bei mehreren Zielen Vorschläge unterbreiten, welches prioritär angegriffen werden soll. Ist ein menschlicher Entscheider aber überhaupt noch in der Lage, verschiedene vom System vorgeschlagene Handlungsoptionen gegeneinander abzuwägen, deren Entstehungsgrundlage er bestenfalls erahnen, aber nicht im Detail nachvollziehen kann? Studien zeigen, dass Menschen gegenüber Computervorschlägen geneigt sind, keine kritische Überprüfung mehr vorzunehmen und überschnell zuzustimmen, selbst wenn die vorgeschlagenen Lösungen nicht plausibel erscheinen. Man spricht in diesem Zusammenhang von "automation bias"[5] beziehungsweise dem "automation paradox",[6] ein Effekt, der mit steigender Belastung des Operateurs durch andere Aufgaben noch steigt.[7] Systeme allein von der Bedienoberfläche schon so zu gestalten, dass der Operateur nicht einfach jeden Handlungsvorschlag der Maschine mit einem schnellen Klick bestätigt, sondern zumindest für einen Moment zum Nachdenken genötigt wird, ist eine Herausforderung. Auf der anderen Seite bleibt den Entscheidern angesichts schnellerer und schwerer zu ortender Gefahren immer weniger Zeit für eine kritische Prüfung – ein Dilemma.

Die Frage, wie in beschleunigten und komplexen Gefechtssituationen sichergestellt werden kann, dass Mensch und Maschine "effizient" interagieren und trotzdem ausreichend Kontrolle stattfindet, wird in Zukunft eine immer größere Rolle spielen. Stichworte sind hier human-robot interaction [8] beziehungsweise manned-unmanned teaming (MUM-T).[9] Das soll am Beispiel unbemannter Flugzeuge, also "Drohnen", deutlich gemacht werden. Bislang werden (Kampf)Drohnen noch durch einen oder gar zwei "Piloten" ferngesteuert und überwacht. Ziel ist es aber, den Menschen statt mit der Steuerung eines automatisierten Systems mit der Beaufsichtigung mehrerer unbemannter Systeme zu beauftragen. Im Bereich des manned-unmanned teamings entwickeln Experten aktuell etwa Assistenzsysteme, die es dem Piloten eines bemannten Kampfjets oder -hubschraubers erlauben sollen, zusätzlich eine oder mehrere Drohnen zu führen – Drohnen, die eigenständig zur Aufklärung vorausfliegen und vor möglichen Gefahren warnen und die mittels einfachster Befehle, beispielsweise "recce area" ("Gebiet erkunden"), zu "steuern" sind.[10] Reagiert der Mensch nicht schnell genug auf Rückmeldungen, wählt das System eine "aufmerksamkeitslenkende Visualisierung" und schlägt eine "Bedienungsunterstützung zur Durchführung der Aufgabe" vor.[11] Obwohl das hier skizzierte Beispiel bei der Information des Piloten endet, kann man es natürlich noch ein bis zwei Schritte weiter denken. Technologisch wäre es sicher nicht aufwändig, einer bewaffneten Unterstützungsdrohne nach der Identifikation eines potenziellen Gegners auch den simplen Befehl "engage" zu erteilen und einen selbstständigen Angriff auszulösen. Piloten aktueller Kampfjets verlassen sich bei der Klassifikation möglicher Gegner sowieso fast ausschließlich auf ihr Bordsystem, ehe sie selbstsuchende Luft-Luft-Raketen abschießen.[12] Eine visuelle Bestätigung ist schlicht zu gefährlich. Wäre es – militärisch betrachtet – am Ende nicht effektiver, auf den Menschen ganz zu verzichten, wenn dieser sowieso keine andere Option hat, als den ihm zuarbeitenden Entscheidungsfindungs- und Assistenzsystemen zu vertrauen? Denkbar wären auch Systeme, die feststellen, ob der Pilot aktuell mit der Entscheidung überfordert ist, und die bei Bedarf einen Angriff selbstständig einleiten. Aber wozu bräuchte man dann noch den Menschen?

Der Computer als Letztentscheider? Autonomie statt Automatisierung

An dieser Stelle setzt meist die Unterscheidung zwischen automatisierten und autonomen Systemen an, auch wenn die Grenze zwischen automatischem, automatisiertem und autonomem Verhalten – technisch gesehen – fließend verläuft und nur unterschiedliche Grade der Komplexität des Verhaltens und der Anzahl der berücksichtigten Parameter widerspiegelt.[13] Die wahrscheinlich sinnvollste Unterscheidung ist deshalb nicht technisch zu ziehen, sondern anhand der dem System gestellten Aufgabe beziehungsweise dem notwendigen externen Input und dem Grad menschlicher Kontrolle.

Während ein automatisiertes System zumindest formal noch menschlicher Kontrolle unterliegt und zwingend menschliche Unterstützung benötigt, um die (ebenfalls vom Menschen vorgegebenen) Aufgaben zu erfüllen, handelt das autonome System zumindest im Rahmen der Zielerfüllung selbstständig oder ist sogar in der Lage, sich Ziele zu setzen. Entsprechend definiert beispielsweise das Pentagon ein autonomes Waffensystem in seiner Direktive 3000.09 vom November 2012 als ein "weapon system that, once activated, can select and engage targets without further intervention by a human operator. This includes human-supervised autonomous weapon systems that are designed to allow human operators to override operation of the weapon system, but can select and engage targets without further human input after activation."[14] Nach dieser Definition wäre also ein Waffensystem als autonom zu kategorisieren, wenn es nach der Aktivierung gemäß seiner Programmierung selbstständig und ohne weiteres menschliches Zutun in der Lage ist, Ziele auszuwählen und anzugreifen. Eine menschliche Kontrolle kann stattfinden, muss aber nicht. Es ist offensichtlich, dass sich der Grad der Notwendigkeit menschlicher Eingriffe umgekehrt proportional zum Grad der Automatisierung/Autonomie verhält. Anfangs ist der Mensch noch in der "Entscheidungsschleife" – in-the-loop. Überwacht er primär und gibt nur Ziele vor, ist er on-the-loop, um schließlich beim vollautonomen System out-of-the-loop zu sein.

Dass es aus technologischer Sicht schon heute relativ unkompliziert ist, autonome Waffensysteme herzustellen, machen vor allem neuere Selbstverteidigungssysteme gegen anfliegende Raketen, Geschosse oder Mörsergranaten deutlich, die schon jetzt im Einsatz sind. Bereits seit den späten 1970er Jahren setzt die US Navy auf ihren Kampfschiffen das Phalanx-Nahbereichsverteidigungssystem ein. Phalanx ist in der Lage, anfliegende Raketen oder Flugzeuge zu identifizieren und durch das Verschießen von bis zu 4500 Schuss panzerbrechender 20-Millimeter-Munition pro Minute zu bekämpfen. Es ist offensichtlich, dass kein menschlicher Schütze im Stande wäre, eine eingehende Rakete zu erfassen und abzuschießen. Das von der Firma Rheinmetall Defence hergestellte Luftnahbereichsflugabwehrsystem MANTIS, das eigentlich zum Schutz deutscher Feldlager in Afghanistan angeschafft werden sollte, dient "der Abwehr von Angriffen mit Raketen, Artilleriegeschossen und Mörsergranaten, wie auch der Bekämpfung von Flugzielen (so beispielsweise auch unbemannter Flugziele, wie Drohnen oder Cruise Missiles)".[15] Noch im Lauf des Geschützes wird das Projektil programmiert, um im Idealfall in direkter Nähe zum bekämpften Ziel zu explodieren. Es ist möglich, das System in einen Modus zu schalten, bei dem auch die finale Schussfreigabe durch den Bediener entfällt. Auch das auf US Navy-Schiffen zu findende AEGIS-Luftabwehrsystem verfügt über einen autonomen Modus, in dem es ohne menschlichen Eingriff mögliche Gefahren identifiziert und abwehrt. Dabei kann es auch zu Fehlern kommen: 1988 klassifizierte ein AEGIS-System des Kreuzers USS Vincennes den Airbus des Fluges Iran-Air 655 als iranisches Kampfflugzeug vom Typ F-14 und damit als mögliche Bedrohung. Ob die Besatzung nach einigen fehlgeschlagenen Kommunikationsversuchen das System nicht an dem (autonomen) Abschuss hinderte oder den Vorschlag des Systems aktiv bestätigte (automatisiert), ist nicht genau bekannt. Bekannt ist das Ergebnis, das 290 Menschen das Leben kostete.[16]

Militärisch verzichtbare Autonomie?

Spricht man aktuell mit Vertretern der Bundeswehr, aber auch mit Vertretern anderer Streitkräfte, wird man auf ein immer wiederkehrendes Mantra treffen: das Bekenntnis, dass auch in Zukunft immer ein Mensch die Entscheidung über den Einsatz tödlicher Waffengewalt treffen soll und wird. Der Mensch soll – wenn auch mit Unterstützung des Systems – die Befehle geben. Allerdings zeigt das Beispiel zukünftiger bewaffneter Drohnen, dass dieses Paradigma durch das Aufkommen robotischer, das heißt unbemannter Kampfsysteme zu Lande, im Wasser und in der Luft mit hoher Wahrscheinlichkeit nicht durchgehalten werden kann. Aktuelle Kampfdrohnen, wie beispielsweise die amerikanische MQ-9 Reaper oder die israelische Heron TP, sind im Wesentlichen ferngesteuert und für den – im Militärjargon – "unumkämpften Luftraum" ausgelegt, also auf "asymmetrische Konflikte", in denen das Entsendeland die Lufthoheit im Konfliktgebiet bereits besitzt.[17] Dort unterstützen Drohnen dann Patrouillen durch Luftnahunterstützung oder ermöglichen gezielte Angriffe gegen Aufständische. Modelle der nächsten Generation weisen hingegen schon viele Merkmale auf, die weit über diese Szenarien hinausreichen. Ein Blick auf die aktuellen Entwicklungen verrät:[18] Viele zukünftige größere Modelle der MALE-Klasse (Medium Altitude, Long Endurance, aktuell beispielsweise die Modelle Predator oder Reaper) sind dank Tarnkappentechnik (Stealth) besser gegen Radarentdeckung geschützt. Sie werden von Strahltriebwerken angetrieben und sind in der Lage, mehr und variablere Waffenlast zu transportieren. Da kein Mensch mehr im Cockpit sitzt, auf den man in der Planung oder im Einsatz Rücksicht nehmen muss, sind neue Designs möglich, die wesentlich belastendere Flugmanöver erlauben und bemannten Jets so deutlich überlegen sind.

Alle genannten Vorteile kommen aber nicht in asymmetrischen, sondern vor allem in symmetrischen Konflikten, im "umkämpften Luftraum", zum Tragen – also im klassischen Staatenkrieg, wenn der Gegner über eine Luftabwehr oder bemannte Kampfjets verfügt. Solche Modelle haben inzwischen die Zeichenbretter der Ingenieure verlassen und werden zum Teil schon intensiv getestet. Im Sommer 2013 landete beispielsweise das amerikanische Experimentalmodell X47B ohne menschliches Zutun zweimal hintereinander auf einem Flugzeugträger – auch für menschliche Piloten eine große Herausforderung. Beim dritten Versuch trat eine Anomalie auf und es war die Drohne selbst, die diese entdeckte und sich "entschied", den Vorgang abzubrechen.[19] Solche Systeme, die man guten Gewissens als hochgradig automatisiert oder semi-autonom bezeichnen kann, werden nicht nur durch die USA und Israel entwickelt. Auch die europäische Rüstungsindustrie, die den aktuellen Zug ferngesteuerter Drohnen verpasst hat,[20] versucht, bei der nächsten Generation wieder aufzuspringen. Während der britische Hersteller BAE Systems das ambitionierte Taranis-Programm forciert, arbeitet man in Frankreich an einem nEUROn genannten System, das laut Angaben der Entwicklerfirma Dassault in der Lage sein soll, eine "air-to-ground mission based on the detection, localization, and reconnaissance of ground targets in autonomous modes" zu vollführen.[21]

Solche großen Systeme werden in der Regel über Satellit gesteuert oder überwacht, um nicht durch die gebietsabhängige Funkreichweite eingeschränkt zu sein. Satellitenkommunikation hat aber, je nach Standort der Steueranlage, eine Latenz von mindestens einer Viertel- bis halben Sekunde auf einfacher Strecke.[22] Es vergeht also wertvolle Zeit, ehe eine ferngesteuerte Drohne auf unvorhergesehene Entwicklungen reagieren kann – die menschliche Reaktionszeit nicht mitgerechnet. Um die oben beschriebenen technologischen Fähigkeiten im umkämpften Luftraum voll ausnutzen, sind solche Zeitverzögerungen aus militärischer Sicht inakzeptabel, der Vorteil wird durch das Warten auf den Menschen wieder zunichte gemacht. Ein weiteres Problem ergibt sich, wenn die Kommunikationsverbindung vom Gegner gestört oder unterbrochen wird. Aktuelle Systeme leiten in diesem Fall eine automatische Rückkehr zur Basis ein. Damit ist die Mission abgebrochen und das Ziel nicht erfüllt. Es spricht also einiges dafür, dass volle Autonomie aus militärischer Sicht unverzichtbar ist, wenn die technologischen Möglichkeiten im umkämpften Luftraum ausgespielt werden sollen. Technisch ist es dank immer größerer Rechenleistung zukünftig kein Problem, die Assistenzsysteme in das unbemannte System zu verlagern. Auswertung, Lagebeurteilung und Handlungsanweisung – die Algorithmen wären die gleichen, nur der Mensch wäre nicht mehr als "Abnicker" in der Schleife.

Ein "Lösungsvorschlag", der in der Diskussion genannt wird, greift den oben beschriebenen Gedanken eines bemannten Führungssystems, also das manned-unmanned teaming zwischen bemanntem und unbemanntem System auf.[23] Ein bemannter Helikopter oder ein Kampfflugzeug könnte beispielsweise, so wird argumentiert, eine oder mehrere bewaffnete Drohnen mit direkter Kommunikation ohne Umweg über Satellit führen. Es fällt aber schwer, dieses Szenario zu akzeptieren. Denn, erstens, kommen die oben beschriebenen Überforderungsprobleme des Menschen zum Tragen. Zweitens ist das Führungsflugzeug in Reichweite und Verweildauer gegenüber unbemannten Systemen deutlich eingeschränkt. Es wäre wiederum der limitierende Faktor. Drittens wäre auch diese Kommunikation störanfällig und damit gefährdet. Und, viertens, würde ein relativ nahes bemanntes Führungsflugzeug vermutlich die gegnerische Abwehr auf sich ziehen. Ginge aber das Führungsflugzeug verloren