Drohnenübung der Schweizer Armee auf dem Militärflugplatz Emmen.
1 | 2 | 3 | 4 Pfeil rechts

Automatisierte und autonome Systeme in der Militär- und Waffentechnik


26.8.2016
"Krieg ist ein zu ernstes Geschäft, als dass man ihn den Computern überlassen dürfte." Mit diesem von Georges Clemenceau inspirierten Zitat endete 2014 ein Beitrag zur automatisierten Kriegführung des Politikwissenschaftlers Niklas Schörnig.[1] Wie er zeigen sich weltweit viele Expertinnen und Experten besorgt angesichts der zunehmenden Automatisierung von Militär- und Waffentechnik. Schlafwandeln wir in eine Welt, in der autonome Waffensysteme gegen Menschen eingesetzt werden und ein globaler Rüstungswettlauf um "Killerroboter" droht?

In diesem Artikel werden die aktuellen Entwicklungen im Bereich der automatisierten Kriegführung besprochen. Welche Formen der Automatisierung und Autonomie von Militärtechnik und Waffensystemen werden schon heutzutage in der Kriegführung eingesetzt? Welche Erklärungen gibt es für den Trend zu immer größerer Automatisierung bis hin zur Autonomie? Es wird gezeigt, dass bereits diejenigen Systeme, die heute oder in naher Zukunft verwendet werden, Probleme aufwerfen. Die Gefahr besteht, dass ohne eine breite öffentliche Diskussion und ein Verbot bestimmter Systeme und Funktionen die Entwicklung hin zu einer Situation, in der Roboter selbst entscheiden, Menschen zu töten, kaum aufzuhalten ist.

Automatisierung und Autonomie



Der Übergang zwischen Automatisierung und Autonomie ist fließend. Ein Verständnis der Unterschiede ist jedoch wichtig, da automatisierte und autonome Systeme in der Militär- und Waffentechnik teils unterschiedliche Problemstellungen aufwerfen. Eine Möglichkeit ist, zwischen nichtautonomen beziehungsweise semiautonomen Systemen auf der einen und operationell autonomen Systemen auf der anderen Seite zu unterscheiden.[2]

Die Systeme der ersten Kategorie zeichnen sich dadurch aus, dass sie von Menschen bedient werden – sei es durch direktes Eingreifen über eine Fernsteuerung (human in the loop) oder durch eine Überwachung während des Einsatzes (human on the loop). Die aktuell eingesetzten Systeme fallen größtenteils in diese erste Kategorie. Sie weisen unterschiedliche Level von Automatisierung auf, sind aber letztendlich auf menschliches Zutun angewiesen. So wird beispielsweise die von der Bundeswehr in Afghanistan eingesetzte Mikro-Aufklärungsdrohne Mikado mithilfe einer Handkonsole durch einen Piloten am Boden gesteuert. Sie verfügt nur zu einem sehr geringen Grad über automatisierte Funktionen, etwa für das Ausbalancieren im Flug. Heron 1, eine andere von der Bundeswehr verwendete Aufklärungsdrohne, ist deutlich automatisierter und kann im vorprogrammierten Modus eigenständig starten und landen sowie im Autopilot vorgegebene Strecken abfliegen. Doch auch Heron 1 wird letztendlich von Menschen gesteuert: Die typische Crew für dieses System besteht aus drei Soldatinnen und Soldaten, die sich um das Flugzeug, seine Sensorik und die Mission kümmern.

Im Gegensatz zu nicht- oder semiautonomen Systemen können autonome Systeme Tätigkeiten selbst ausführen, ohne auf die direkte Steuerung oder Kontrolle durch den Anwender angewiesen zu sein (human out of the loop). Beides übernimmt ein Computer. In der Rechts-, Moral- und politischen Philosophie bedeutet Autonomie, dass ein Akteur aus eigenen Gründen, also nicht fremdbestimmt, handelt.[3] Eine derart hochentwickelte künstliche Intelligenz, die dazu in der Lage wäre, gibt es bisher nicht. Daher sind auch hochgradig automatisierte Systeme höchstens operationell, nicht aber moralisch autonom: Sie sind von einem Menschen für eine bestimmte Tätigkeit programmiert, die sie selbstständig ausführen können; die Gründe für ihre Handlungen liegen jedoch in ihrer Bauweise und Programmierung und sind somit durch den Nutzer oder zumindest durch den Hersteller bestimmt und begrenzt.

Problematisch wird diese Abgrenzung zu moralischer Autonomie bei "lernfähigen" Systemen, deren künstliche Intelligenz über sogenannte learning algorithms verfügt, sodass sie sich neue, nicht programmierte Fähigkeiten aneignen können. Hier besteht die Möglichkeit, dass das System auf eine Art und Weise handelt, die seine Hersteller und Programmierer nicht mehr nachvollziehen können. Doch selbst ein solches System kann nur in dem ihm von der Programmierung zugewiesenen Bereich lernen.

Diese technischen und philosophischen Nuancen spielen in der öffentlichen Diskussion über die fortschreitende Automatisierung in der Kriegführung jedoch eine untergeordnete Rolle. Das Hauptaugenmerk richtet sich auf sogenannte lethal autonomous weapons systems (LAWS) – Waffensysteme, die hochgradig automatisiert bis autonom sind und ein Ziel selbstständig suchen, finden und ohne menschliches Zutun auch ausschalten können. Als problematisch wird also nicht Autonomie im Allgemeinen angesehen, sondern letale autonome Systeme im Speziellen – obwohl es diese bisher nur als Science-Fiction gibt. Intuitiv richten sich viele Menschen, Experten wie Laien, gegen die Möglichkeit, dass Maschinen Menschen töten dürfen, und gegen eine "entmenschlichte" Kriegführung.


Fußnoten

1.
Niklas Schörnig, Automatisierte Kriegsführung – Wie viel Entscheidungsraum bleibt dem Menschen?, in: APuZ 35–37/2014, S. 27–34, hier S. 34.
2.
Vgl. Ulrike Esther Franke/Alexander Leveringhaus, Militärische Robotik, in: Thomas Jäger (Hrsg.) Handbuch Sicherheitsgefahren, Wiesbaden 2015, S. 297–311.
3.
Vgl. bspw. Immanuel Kant, Groundwork of the Metaphysics of Morals. Revised Edition, Cambridge 2012.
Creative Commons License Dieser Text ist unter der Creative Commons Lizenz veröffentlicht. by-nc-nd/3.0/
Der Name des Autors/Rechteinhabers soll wie folgt genannt werden: by-nc-nd/3.0/
Autor: Ulrike Esther Franke für Aus Politik und Zeitgeschichte/bpb.de
Urheberrechtliche Angaben zu Bildern / Grafiken / Videos finden sich direkt bei den Abbildungen.