3D-Illustration von Gehirnzellen

2.2.2018 | Von:
Catrin Misselhorn

Maschinenethik und "Artificial Morality": Können und sollen Maschinen moralisch handeln?

Maschinenethik ist ein neues Forschungsgebiet an der Schnittstelle von Informatik und Philosophie, das die Entwicklung moralischer Maschinen zum Ziel hat. Es geht darum, auf der Grundlage von Computertechnologie Maschinen zu gestalten, die selbst moralische Entscheidungen treffen und umsetzen können. Beflügelt wird dieses Vorhaben von den jüngsten Entwicklungen der Künstlichen Intelligenz. Sollen im Rahmen der Maschinenethik Verfahren der Künstlichen Intelligenz eingesetzt werden, so spricht man analog zu "Artificial Intelligence" (AI) von "Artificial Morality" (AM).

Während AI zum Ziel hat, die kognitiven Fähigkeiten von Menschen zu modellieren oder zu simulieren, geht es bei der AM darum, künstliche Systeme mit der Fähigkeit zu moralischem Entscheiden und Handeln auszustatten. Dieses Vorhaben wird von einigen euphorisch begrüßt, während andere dadurch einen menschlichen Kernbereich bedroht sehen. Im Folgenden werden zunächst einige Anwendungsbereiche moralischer Maschinen vorgestellt. Sodann wird thematisiert, inwiefern man überhaupt davon sprechen kann, dass Maschinen moralisch handeln können. Zum Abschluss werden ausgewählte Argumente diskutiert, die dafür oder dagegen sprechen, Maschinen mit der Fähigkeit zum moralischen Handeln auszustatten.

Anwendungsgebiete moralischer Maschinen

Je komplexer und autonomer künstliche Systeme werden, desto eher müssen sie in der Lage sein, ihr Verhalten in einem gewissen Rahmen selbst zu regulieren. Das bringt es mit sich, dass sie auch in Situationen geraten, die moralische Entscheidungen verlangen. Die scheinbar einfachste Alternative zu Systemen, die diese Kontrolle selbst ausüben können, besteht darin, die permanente Überwachung und "Online"-Kontrolle durch einen menschlichen Benutzer zu fordern, der dann die moralisch relevanten Entscheidungen trifft. In vielen Bereichen wird dies allerdings kaum möglich sein, sollen Maschinen ihren Zweck optimal erfüllen – sei es aufgrund von Personalmangel, weil schnelle Entscheidungen von Nöten sind, weil die Einsatzsituationen zu gefährlich sind oder weil menschliches Eingreifen selbst einen Risikofaktor darstellt. Welcher Art die moralischen Entscheidungen sind, die ein System treffen muss, hängt vom Anwendungskontext ab.

Ein Anwendungsbereich für moralische Maschinen ist die Altenpflege. Aufgrund des demografischen Wandels wird der Anteil pflegebedürftiger Menschen in den nächsten Jahrzehnten stark zunehmen.[1] Künstliche Systeme werden immer wieder als eine Möglichkeit ins Spiel gebracht, um dem Pflegenotstand entgegenzutreten.[2] Doch Systeme, die in diesem Kontext eingesetzt werden sollen, stehen vor moralischen Entscheidungen, beispielsweise: Wie häufig und eindringlich soll ein Pflegesystem an Essen und Trinken sowie die Einnahme von Medikamenten erinnern? Wann sollte ein Pflegesystem die Angehörigen verständigen oder den medizinischen Dienst rufen, wenn jemand sich eine Zeitlang nicht rührt? Soll das System den Nutzer rund um die Uhr überwachen, und wie ist mit den dabei erhobenen Daten zu verfahren?

In all diesen Situationen muss ein künstliches System zwischen bestimmten moralischen Werten abwägen: im ersten Fall zwischen der Selbstbestimmung des Nutzers und bestimmten gesundheitlichen Risiken, die entstehen, wenn er seine Medikamente nicht wie vorgeschrieben einnimmt. Im zweiten Fall zwischen der Selbstbestimmung des Nutzers, der Sorge der Angehörigen, die vielleicht gerne sofort informiert würden, und erneut der Gesundheit. Im dritten Fall geht es wiederum um die Selbstbestimmung des Nutzers, Gesundheit, die Sorge der Angehörigen sowie um die Privatheit seiner Daten.

Ein zweites viel diskutiertes Beispiel für die Notwendigkeit moralischer Maschinen ist das autonome Fahren. Auch vollautomatisierte Fahrzeuge stehen vor moralischen Entscheidungen. So gilt es beispielsweise, diese so zu programmieren, dass in unvermeidlichen Gefahrensituationen der Schutz menschlichen Lebens Vorrang vor Sach- und Tierschäden besitzt.[3] Doch auch Tiere sollten nach Möglichkeit verschont werden. Eine besondere Schwierigkeit stellen die in diesem Anwendungsbereich unter Umständen auftretenden moralischen Dilemmata dar, bei denen beispielsweise eine Entscheidung darüber getroffen werden muss, ob eine geringe Zahl an Menschenleben aufs Spiel gesetzt werden darf, um eine größere Zahl zu retten, wenn dies unvermeidbar ist.

Nicht zu vergessen sind schließlich die militärischen Anwendungen. Der Traum besteht darin, dass keine Soldaten mehr auf dem Schlachtfeld ihr Leben aufs Spiel setzen müssen, sondern an ihrer Stelle autonome Maschinen in den Kampf geschickt werden. Diese sollen mit dem Kriegsvölkerrecht und kontextspezifischen Einsatzregeln ausgestattet werden, die ihren Handlungsspielraum begrenzen und sicherstellen, dass sie sich rechtlich und moralisch einwandfrei verhalten.[4] So müssen sie entscheiden, wann eine Aktion militärisch notwendig und angemessen ist und wie sich Kombattanten von Zivilisten unterscheiden lassen.

Man könnte allerdings argumentieren, dass es nicht das Pflegesystem, das autonome Auto oder der Kampfroboter ist, die in diesen Fällen eine moralische Entscheidung treffen, sondern die Programmierer dieser Geräte. Doch je größer die Fortschritte der Künstlichen Intelligenz werden, desto weniger können die Entwickler planen und vorhersagen, welche Entscheidungen ein System in einer spezifischen Situation treffen wird. So spielt schon ein Schachprogramm weit besser als seine Programmierer, die nicht jeden einzelnen Zug des Systems vorhersagen können. Das gilt umso mehr für ein so komplexes System wie AlphaGo Zero, das zunächst nur die Grundregeln des Spiels Go kennt und dann anhand des Durchspielens einer Vielzahl von Partien gegen sich selbst zu den optimalen Entscheidungsstrategien findet. In kürzester Zeit gelang es diesem System, seinen Vorgänger AlphaGo zu schlagen, der als erstes künstliches System einige der weltbesten menschlichen Go-Spieler besiegte.

Doch selbst wenn man zugesteht, dass es in vielen Anwendungsbereichen sinnvoll wäre, wenn Maschinen moralisch handeln könnten, ist damit noch nicht geklärt, ob sie dazu auch in der Lage sind. Die erste Frage ist, ob autonome Systeme überhaupt handeln können. Die zweite ist, ob die Handlungen künstlicher Akteure als moralisch gelten können.

Fußnoten

1.
Vgl. Heinz Rothgang et al., Bertelsmann-Stiftung Themenreport "Pflege 2030", Gütersloh 2012.
2.
Vgl. Deutschlands Zukunft gestalten. Koalitionsvertrag zwischen CDU, CSU und SPD, 2013, S. 60, https://www.bundesregierung.de/Content/DE/_Anlagen/2013/2013-12-17-koalitionsvertrag.pdf?__blob=publicationFile«.
3.
Vgl. Ethik-Kommission Automatisiertes und Vernetztes Fahren, Bericht Juni 2017, S. 17, https://www.bmvi.de/SharedDocs/DE/Publikationen/G/bericht-der-ethik-kommission.html«.
4.
Vgl. Ronald Arkin, Governing Lethal Behavior in Autonomous Robots, Boca Raton u.a. 2009.
Creative Commons License

Dieser Text ist unter der Creative Commons Lizenz veröffentlicht. by-nc-nd/3.0/ Der Name des Autors/Rechteinhabers soll wie folgt genannt werden: by-nc-nd/3.0/
Autor: Catrin Misselhorn für Aus Politik und Zeitgeschichte/bpb.de
Urheberrechtliche Angaben zu Bildern / Grafiken / Videos finden sich direkt bei den Abbildungen.