Patronen des Kalibers 5,56 mm, wie sie auch im Sturmgewehr G36 der Bundeswehr verwendet werden, laufen am 20.02.2014 in einer Produktionshalle des Munitionsherstellers Metallwerke Eisenhütte Nassau MEN in Nassau (Rheinland-Pfalz) durch die Endkontrolle
1 | 2 | 3 Pfeil rechts

Automatisierte Kriegsführung – Wie viel Entscheidungsraum bleibt dem Menschen?


18.8.2014
Im Militärbereich ist aktuell eine Revolution im Gange, der sich viele Menschen bislang nicht bewusst sind. Immer mehr Aufgaben werden, wie im zivilen Leben auch, von Computerprogrammen und unbemannten robotischen Systemen übernommen. Immer mehr wird automatisiert erledigt, der Mensch ist nicht mehr Akteur, sondern Überwacher – bestenfalls. In immer mehr Kontexten ist der Soldat oder die Soldatin auf die Zuarbeit von Computerprogrammen angewiesen, die Datenströme aus verschiedensten Sensoren filtern, bewerten und Handlungsoptionen vorschlagen. Bislang wird von Politik und Militär die Illusion aufrechterhalten, der Mensch sei am Ende doch der maßgebliche Entscheider, eine "Vollautonomie", bei der Computerprogramme über Waffengewalt gegen Menschen entscheiden, sei abzulehnen.

Dieser Beitrag geht der Frage nach, inwieweit der Mensch angesichts der immer stärkeren Automatisierung noch als relevanter Entscheider gelten kann oder ob dieser schleichende Prozess den Menschen nicht schon längst weitgehend entmündigt hat. Es wird die These vertreten, dass, selbst wenn der Mensch zumindest bislang noch Einfluss auf die computerisierte Entscheidungsschleife nehmen kann, die zunehmende Verbreitung unbemannter, das heißt robotischer Systeme den Menschen noch weiter aus der Kriegsführung herausdrängt, sofern aktuelle technologische Trends nicht aktiv politisch gestoppt werden. Es ist deshalb keinesfalls zu früh, vielleicht sogar eher schon zu spät, um die zentralen Fragen, wie "entmenschlicht" die Kriegsführung der Zukunft sein kann und vor allem sein soll, zu diskutieren.

Automatisierte Systeme zur Beherrschung der Datenflut



Im militärischen Bereich haben in den vergangenen Jahren immer stärker automatisierte beziehungsweise autonome Systeme unverkennbar an Bedeutung gewonnen. Dies liegt vor allem daran, dass zunehmend Sensoren verschiedenster Art eine bislang nicht gekannte Informationsfülle digital und in Echtzeit zur Verfügung stellen. Menschlichen Entscheidern ist es praktisch nicht mehr möglich, alle Informationen selbst zu bewerten und auf ihre Entscheidungsrelevanz hin zu prüfen – zumindest nicht im dafür zur Verfügung stehenden Zeitrahmen, der auch noch immer enger wird. 2011 stellte der Undersecretary of Defense for Intelligence, Michael G. Vickers, auf einem Symposium fest, in Afghanistan fielen 53 Terabyte an Aufklärungsdaten an – pro Tag.[1] US-Generalleutnant Michael Oates beschreibt das Problem deshalb folgendermaßen: "There is no shortage of data. There is a dearth of analysis."[2] Entsprechend geht der Trend, wie die Mitarbeiter am Fraunhofer-Institut für Kommunikation, Informationsverarbeitung und Ergonomie Oliver Witt, Emily Mihatsch und Heinz Küttelwesch jüngst feststellten, "zur effizienten Automatisierung des militärischen Informationsverarbeitungs- und Entscheidungsprozesses",[3] der Sektor automatisierter Auswertungssoftware boomt also. Je nach System werden zum Teil mehrere hundert erfasste Parameter verarbeitet, korreliert und bewertet. Die auf komplexen Computeralgorithmen basierenden Systeme übernehmen also, erstens, eine Filterfunktion. Aus der dramatisch angestiegenen Informationsmenge werden als entscheidungsirrelevant klassifizierte Informationen ausgesiebt und dem Menschen nur die als relevant erachteten vorgelegt. Dies gilt vor allem für zeitkritische Situationen, wie der Abwehr eines vermeintlich gegnerischen Flugzeugs, wo auf Basis von Route, Geschwindigkeit, Radarecho und anderer Faktoren eine Identifikation in Freund und Feind erfolgt. Es kann sich auch um Computerprogramme handeln, die beispielsweise Videomaterial selbstständig auswerten und auf "verdächtige" oder ungewöhnliche Vorkommnisse hin scannen. Menschliche Analysten bekommen dann nur den entsprechenden Teil vorgelegt und können eine nähere Untersuchung vornehmen. Allerdings basiert die Analyse auf während der Entwicklung der Software festgelegten Parametern und Algorithmen. Die Systeme können nicht "überrascht" werden. Ihnen entgeht unter Umständen das entscheidende Detail, das einen Menschen aus einem Bauchgefühl heraus trotz seiner scheinbaren Banalität zu einer wertvollen Einschätzung gelangen lässt. Auch die Aufbereitung und Präsentation der verdichteten Daten kann unter Umständen zu Missverständnissen und Problemen führen oder weit übergeordnete Offiziere zu einem taktischen Mikromanagement verleiten, weil sie den – fehlerhaften – Eindruck haben, trotz hochgradig gefilterter und verdichteter Informationen einen Überblick bis hinunter zur taktischen Ebene zu besitzen.[4]

Der zweite wichtige Aspekt von Assistenzsystemen ist neben der Filter- und Verdichtungsfunktion die Generierung einer überschaubaren Zahl an vorgeschlagenen Handlungsoptionen. So können Systeme mögliche Ziele gemäß der potenziellen Gefahr klassifizieren und bei mehreren Zielen Vorschläge unterbreiten, welches prioritär angegriffen werden soll. Ist ein menschlicher Entscheider aber überhaupt noch in der Lage, verschiedene vom System vorgeschlagene Handlungsoptionen gegeneinander abzuwägen, deren Entstehungsgrundlage er bestenfalls erahnen, aber nicht im Detail nachvollziehen kann? Studien zeigen, dass Menschen gegenüber Computervorschlägen geneigt sind, keine kritische Überprüfung mehr vorzunehmen und überschnell zuzustimmen, selbst wenn die vorgeschlagenen Lösungen nicht plausibel erscheinen. Man spricht in diesem Zusammenhang von "automation bias"[5] beziehungsweise dem "automation paradox",[6] ein Effekt, der mit steigender Belastung des Operateurs durch andere Aufgaben noch steigt.[7] Systeme allein von der Bedienoberfläche schon so zu gestalten, dass der Operateur nicht einfach jeden Handlungsvorschlag der Maschine mit einem schnellen Klick bestätigt, sondern zumindest für einen Moment zum Nachdenken genötigt wird, ist eine Herausforderung. Auf der anderen Seite bleibt den Entscheidern angesichts schnellerer und schwerer zu ortender Gefahren immer weniger Zeit für eine kritische Prüfung – ein Dilemma.

Die Frage, wie in beschleunigten und komplexen Gefechtssituationen sichergestellt werden kann, dass Mensch und Maschine "effizient" interagieren und trotzdem ausreichend Kontrolle stattfindet, wird in Zukunft eine immer größere Rolle spielen. Stichworte sind hier human-robot interaction [8] beziehungsweise manned-unmanned teaming (MUM-T).[9] Das soll am Beispiel unbemannter Flugzeuge, also "Drohnen", deutlich gemacht werden. Bislang werden (Kampf)Drohnen noch durch einen oder gar zwei "Piloten" ferngesteuert und überwacht. Ziel ist es aber, den Menschen statt mit der Steuerung eines automatisierten Systems mit der Beaufsichtigung mehrerer unbemannter Systeme zu beauftragen. Im Bereich des manned-unmanned teamings entwickeln Experten aktuell etwa Assistenzsysteme, die es dem Piloten eines bemannten Kampfjets oder -hubschraubers erlauben sollen, zusätzlich eine oder mehrere Drohnen zu führen – Drohnen, die eigenständig zur Aufklärung vorausfliegen und vor möglichen Gefahren warnen und die mittels einfachster Befehle, beispielsweise "recce area" ("Gebiet erkunden"), zu "steuern" sind.[10] Reagiert der Mensch nicht schnell genug auf Rückmeldungen, wählt das System eine "aufmerksamkeitslenkende Visualisierung" und schlägt eine "Bedienungsunterstützung zur Durchführung der Aufgabe" vor.[11] Obwohl das hier skizzierte Beispiel bei der Information des Piloten endet, kann man es natürlich noch ein bis zwei Schritte weiter denken. Technologisch wäre es sicher nicht aufwändig, einer bewaffneten Unterstützungsdrohne nach der Identifikation eines potenziellen Gegners auch den simplen Befehl "engage" zu erteilen und einen selbstständigen Angriff auszulösen. Piloten aktueller Kampfjets verlassen sich bei der Klassifikation möglicher Gegner sowieso fast ausschließlich auf ihr Bordsystem, ehe sie selbstsuchende Luft-Luft-Raketen abschießen.[12] Eine visuelle Bestätigung ist schlicht zu gefährlich. Wäre es – militärisch betrachtet – am Ende nicht effektiver, auf den Menschen ganz zu verzichten, wenn dieser sowieso keine andere Option hat, als den ihm zuarbeitenden Entscheidungsfindungs- und Assistenzsystemen zu vertrauen? Denkbar wären auch Systeme, die feststellen, ob der Pilot aktuell mit der Entscheidung überfordert ist, und die bei Bedarf einen Angriff selbstständig einleiten. Aber wozu bräuchte man dann noch den Menschen?


Fußnoten

1.
Vgl. Peter B. de Selding, Pentagon Struggles with Avalanche of Data, 19.10.2011, http://www.spacenews.com/article/pentagon-struggles-avalanche-data« (23.7.2014).
2.
Vgl. beispielsweise Greg Gardner, Enabling Battlefield Big Data ‚On the Move‘, 13.3.2014, http://defensesystems.com/Articles/2014/03/13/Commentary-Gardner-battlefield-big-data.aspx?p=1« (23.7.2014).
3.
Oliver Witt/Emily Mihatsch/Heinz Küttelwelch, Komplexe Einsatzsysteme verstehen. Fregatte Klasse 214 und Korvette Klasse 130, in: Europäische Sicherheit und Technik, (2014) 2, S. 60f., hier: S. 60.
4.
Vgl. Peter Singer, Wired for War: The Robotic Revolution and Conflict in the 21st Century, New York 2009, S. 348–359.
5.
M.L. Cummings, Automation Bias in Intelligent Time Critical Decision Support Systems, September 2004, http://web.mit.edu/aeroastro/labs/halab/papers/CummingsAIAAbias.pdf« (17.7.2014).
6.
Michael Barnes/A. William Evans, Soldier-Robot Teams in Future Battlefields: An Overview, in: Michael Barnes/Florian Jentsch (Hrsg.), Human-Robot Interactions in Future Military Operations, Surrey 2010, S. 9–29, hier: S. 18.
7.
Vgl. ebd.
8.
Vgl. M. Barnes/F. Jentsch (Anm. 6).
9.
Vgl. Axel Schulte, Kognitive und kooperative Automation zur Führung unbemannter Luftfahrzeuge, in: Kognitive Systeme, (2013) 1, http://duepublico.uni-duisburg-essen.de/servlets/DerivateServlet/Derivate-33216/105_Schulte.pdf« (23.7.2014), S. 1.
10.
Vgl. ebd., insb. S. 6.
11.
Ebd.
12.
Vgl. Paul Scharre, Guest Post: Autonomy, "Killer Robots," and Human Control in the Use of Force – Part I, 9.7.2014, http://justsecurity.org/12708/autonomy-killer-robots-human-control-force-part/« (23.7.2014).
Creative Commons License Dieser Text ist unter der Creative Commons Lizenz veröffentlicht. by-nc-nd/3.0/
Der Name des Autors/Rechteinhabers soll wie folgt genannt werden: by-nc-nd/3.0/
Autor: Niklas Schörnig für Aus Politik und Zeitgeschichte/bpb.de
Urheberrechtliche Angaben zu Bildern / Grafiken / Videos finden sich direkt bei den Abbildungen.

 

Informationsportal Krieg und Frieden

Die weltweiten Militärausgaben sind 2013 leicht zurückgegangen - auf 1,7 Billionen US-Dollar. Welches Land gibt wie viel für sein Militär aus? Und wer bezieht die meisten Waffen aus Deutschland? Das interaktive Portal liefert Antworten auf sicherheitspolitische Fragen. Weiter... 

Publikation zum Thema

Coverbild APuZ - Jahresband 2013

APuZ - Jahresband 2014

Der APuZ-Jahresband 2014: Sämtliche Ausgaben der Zeitschrift "Aus Politik und Zeitgeschichte" aus dem Jahr 2014.Weiter...

Zum Shop