Meine Merkliste Geteilte Merkliste PDF oder EPUB erstellen

Maschinenethik und "Artificial Morality" | Künstliche Intelligenz | bpb.de

Künstliche Intelligenz Editorial Die können was! Aber können Roboter auch fühlen? Ein Gespräch über Künstliche Intelligenz Was ist Künstliche Intelligenz – was kann sie leisten? Mensch fragt, Maschine antwortet. Wie Künstliche Intelligenz Wirtschaft, Arbeit und unser Leben verändert Entgrenzungen zwischen Mensch und Maschine, oder: Können Roboter zu guter Pflege beitragen? Maschinenethik und "Artificial Morality": Können und sollen Maschinen moralisch handeln? Überlegungen zur Disziplin der Maschinenethik Zwischen Menschwerdung und Weltherrschaft: Künstliche Intelligenz im Film

Maschinenethik und "Artificial Morality" Können und sollen Maschinen moralisch handeln?

Catrin Misselhorn

/ 13 Minuten zu lesen

Das Vorhaben, künstliche Systeme nicht nur mit kognitiven Fähigkeiten, sondern auch mit der Fähigkeit zu moralischem Entscheiden und Handeln auszustatten, wird in diesem Beitrag erläutert und kontrovers diskutiert.

Maschinenethik ist ein neues Forschungsgebiet an der Schnittstelle von Informatik und Philosophie, das die Entwicklung moralischer Maschinen zum Ziel hat. Es geht darum, auf der Grundlage von Computertechnologie Maschinen zu gestalten, die selbst moralische Entscheidungen treffen und umsetzen können. Beflügelt wird dieses Vorhaben von den jüngsten Entwicklungen der Künstlichen Intelligenz. Sollen im Rahmen der Maschinenethik Verfahren der Künstlichen Intelligenz eingesetzt werden, so spricht man analog zu "Artificial Intelligence" (AI) von "Artificial Morality" (AM).

Während AI zum Ziel hat, die kognitiven Fähigkeiten von Menschen zu modellieren oder zu simulieren, geht es bei der AM darum, künstliche Systeme mit der Fähigkeit zu moralischem Entscheiden und Handeln auszustatten. Dieses Vorhaben wird von einigen euphorisch begrüßt, während andere dadurch einen menschlichen Kernbereich bedroht sehen. Im Folgenden werden zunächst einige Anwendungsbereiche moralischer Maschinen vorgestellt. Sodann wird thematisiert, inwiefern man überhaupt davon sprechen kann, dass Maschinen moralisch handeln können. Zum Abschluss werden ausgewählte Argumente diskutiert, die dafür oder dagegen sprechen, Maschinen mit der Fähigkeit zum moralischen Handeln auszustatten.

Anwendungsgebiete moralischer Maschinen

Je komplexer und autonomer künstliche Systeme werden, desto eher müssen sie in der Lage sein, ihr Verhalten in einem gewissen Rahmen selbst zu regulieren. Das bringt es mit sich, dass sie auch in Situationen geraten, die moralische Entscheidungen verlangen. Die scheinbar einfachste Alternative zu Systemen, die diese Kontrolle selbst ausüben können, besteht darin, die permanente Überwachung und "Online"-Kontrolle durch einen menschlichen Benutzer zu fordern, der dann die moralisch relevanten Entscheidungen trifft. In vielen Bereichen wird dies allerdings kaum möglich sein, sollen Maschinen ihren Zweck optimal erfüllen – sei es aufgrund von Personalmangel, weil schnelle Entscheidungen von Nöten sind, weil die Einsatzsituationen zu gefährlich sind oder weil menschliches Eingreifen selbst einen Risikofaktor darstellt. Welcher Art die moralischen Entscheidungen sind, die ein System treffen muss, hängt vom Anwendungskontext ab.

Ein Anwendungsbereich für moralische Maschinen ist die Altenpflege. Aufgrund des demografischen Wandels wird der Anteil pflegebedürftiger Menschen in den nächsten Jahrzehnten stark zunehmen. Künstliche Systeme werden immer wieder als eine Möglichkeit ins Spiel gebracht, um dem Pflegenotstand entgegenzutreten. Doch Systeme, die in diesem Kontext eingesetzt werden sollen, stehen vor moralischen Entscheidungen, beispielsweise: Wie häufig und eindringlich soll ein Pflegesystem an Essen und Trinken sowie die Einnahme von Medikamenten erinnern? Wann sollte ein Pflegesystem die Angehörigen verständigen oder den medizinischen Dienst rufen, wenn jemand sich eine Zeitlang nicht rührt? Soll das System den Nutzer rund um die Uhr überwachen, und wie ist mit den dabei erhobenen Daten zu verfahren?

In all diesen Situationen muss ein künstliches System zwischen bestimmten moralischen Werten abwägen: im ersten Fall zwischen der Selbstbestimmung des Nutzers und bestimmten gesundheitlichen Risiken, die entstehen, wenn er seine Medikamente nicht wie vorgeschrieben einnimmt. Im zweiten Fall zwischen der Selbstbestimmung des Nutzers, der Sorge der Angehörigen, die vielleicht gerne sofort informiert würden, und erneut der Gesundheit. Im dritten Fall geht es wiederum um die Selbstbestimmung des Nutzers, Gesundheit, die Sorge der Angehörigen sowie um die Privatheit seiner Daten.

Ein zweites viel diskutiertes Beispiel für die Notwendigkeit moralischer Maschinen ist das autonome Fahren. Auch vollautomatisierte Fahrzeuge stehen vor moralischen Entscheidungen. So gilt es beispielsweise, diese so zu programmieren, dass in unvermeidlichen Gefahrensituationen der Schutz menschlichen Lebens Vorrang vor Sach- und Tierschäden besitzt. Doch auch Tiere sollten nach Möglichkeit verschont werden. Eine besondere Schwierigkeit stellen die in diesem Anwendungsbereich unter Umständen auftretenden moralischen Dilemmata dar, bei denen beispielsweise eine Entscheidung darüber getroffen werden muss, ob eine geringe Zahl an Menschenleben aufs Spiel gesetzt werden darf, um eine größere Zahl zu retten, wenn dies unvermeidbar ist.

Nicht zu vergessen sind schließlich die militärischen Anwendungen. Der Traum besteht darin, dass keine Soldaten mehr auf dem Schlachtfeld ihr Leben aufs Spiel setzen müssen, sondern an ihrer Stelle autonome Maschinen in den Kampf geschickt werden. Diese sollen mit dem Kriegsvölkerrecht und kontextspezifischen Einsatzregeln ausgestattet werden, die ihren Handlungsspielraum begrenzen und sicherstellen, dass sie sich rechtlich und moralisch einwandfrei verhalten. So müssen sie entscheiden, wann eine Aktion militärisch notwendig und angemessen ist und wie sich Kombattanten von Zivilisten unterscheiden lassen.

Man könnte allerdings argumentieren, dass es nicht das Pflegesystem, das autonome Auto oder der Kampfroboter ist, die in diesen Fällen eine moralische Entscheidung treffen, sondern die Programmierer dieser Geräte. Doch je größer die Fortschritte der Künstlichen Intelligenz werden, desto weniger können die Entwickler planen und vorhersagen, welche Entscheidungen ein System in einer spezifischen Situation treffen wird. So spielt schon ein Schachprogramm weit besser als seine Programmierer, die nicht jeden einzelnen Zug des Systems vorhersagen können. Das gilt umso mehr für ein so komplexes System wie AlphaGo Zero, das zunächst nur die Grundregeln des Spiels Go kennt und dann anhand des Durchspielens einer Vielzahl von Partien gegen sich selbst zu den optimalen Entscheidungsstrategien findet. In kürzester Zeit gelang es diesem System, seinen Vorgänger AlphaGo zu schlagen, der als erstes künstliches System einige der weltbesten menschlichen Go-Spieler besiegte.

Doch selbst wenn man zugesteht, dass es in vielen Anwendungsbereichen sinnvoll wäre, wenn Maschinen moralisch handeln könnten, ist damit noch nicht geklärt, ob sie dazu auch in der Lage sind. Die erste Frage ist, ob autonome Systeme überhaupt handeln können. Die zweite ist, ob die Handlungen künstlicher Akteure als moralisch gelten können.

Können künstliche Systeme moralisch handeln?

Die Problematik der grundsätzlichen Handlungsfähigkeit lässt sich innerhalb der philosophischen Handlungstheorie entlang zweier Achsen beschreiben: der Fähigkeit, als selbstursprüngliche Quelle des eigenen Tuns zu fungieren, sowie der Fähigkeit, sich an Gründen zu orientieren. Beide Fähigkeiten müssen als graduelle Attribute begriffen werden, das heißt, sie kommen verschiedenen Arten von Akteuren in unterschiedlichem Maße zu.

Der Begriff der Selbstursprünglichkeit wurde von der philosophischen Tradition teilweise im Sinn der Akteurskausalität verstanden, das heißt, dass eine Handlung von einem Akteur ohne vorhergehende Ursache initiiert wird. Ein metaphysisch so anspruchsvoller und umstrittener Begriff der Selbstursprünglichkeit ist jedoch nicht zwingend. Man kann eine einfache Form der Selbstursprünglichkeit auch dann als gegeben sehen, wenn ein System mit der Umwelt interagiert (Interaktivität), dabei eine gewisse Anpassungsfähigkeit an sich ändernde Bedingungen aufweist (Adaptivität) und in der Lage ist, eine Aktivität ohne direkte menschliche Intervention aufzunehmen (basale Autonomie).

Über eine solche primitive Form der Selbstursprünglichkeit können auch Maschinen verfügen, insbesondere solche, die von Computern gesteuert werden. Zwar gibt ein Programm vor, wie sich eine Maschine zu verhalten hat, aber im Einzelfall agiert sie, ohne dass ein Mensch eigens eingreift. Werden Verfahren der KI, beispielsweise Maschinelles Lernen, eingesetzt, so ist es sogar die Aufgabe der Maschine, das moralisch angemessene Verhalten selbst aus den Daten zu erschließen.

Die zweite Achse, die Fähigkeit, sich an Gründen zu orientieren, hängt eng mit der Möglichkeit zusammen, Informationen zu verarbeiten. Dem klassischen Humeschen Modell der Handlungsfähigkeit zufolge besteht der Grund einer Handlung in der Kopplung einer Überzeugung mit einer Pro-Einstellung, beispielsweise einem Wunsch: Ich gehe in die Bibliothek, weil ich ein bestimmtes Buch ausleihen will und der Überzeugung bin, dass es in der Bibliothek vorhanden ist. Hinzu kommt nach manchen Ansätzen eine Intention, die dafür verantwortlich ist, dass der Wunsch auch mithilfe eines Plans in die Tat umgesetzt wird.

Einige Autoren sind der Auffassung, dass ein Handeln aus Gründen lediglich erfordert, dass das Verhalten eines Systems auf diese Art und Weise interpretiert werden kann. Andere erachten dies nicht als hinreichend, sondern gehen davon aus, dass ein künstliches System auch über gewisse innere Zustände verfügen muss, die den Gründen entsprechen. Doch selbst dann ist das Humesche Modell übertragbar auf künstliche Systeme, sofern diese über die entsprechenden Repräsentationen verfügen.

Ein künstliches System kann als funktional äquivalent zu einem menschlichen Akteur verstanden werden, wenn es über Zustände verfügt, denen eine analoge Funktion zukommt, wie Meinungen, Wünschen und Intentionen beim Menschen. Insbesondere Systeme die auf dem sogenannten BDI-Software-Modell (Belief–Desire–Intention) beruhen, operieren mit symbolischen Repräsentationen, die als funktional äquivalent mit Meinungen, Wünschen und Intentionen gelten können. Das ist ausreichend, um ihnen in einem funktionalen Sinn die Fähigkeit zuzuschreiben, aus Gründen zu handeln. Künstliche Systeme, die zu selbstursprünglichem Handeln aus Gründen in der Lage sind, können als Akteure gelten.

Moralische Handlungsfähigkeit wiederum liegt in einfacher Form vor, wenn die Gründe, nach denen ein System handelt, moralischer Natur sind. Dies ist auf einer rudimentären Ebene schon dann gegeben, wenn ein System über Repräsentationen moralischer Werte verfügt, die die zuvor angegebenen basalen Bedingungen für das Handeln aus Gründen erfüllen (das heißt, es gibt funktionale Äquivalente zu moralischen Überzeugungen, moralischen Pro-Einstellungen und Intentionen). Wenn ein System beispielsweise den Wert der Patientenautonomie als Pro-Einstellung besitzt und zu der Überzeugung kommt, dass dieser Wert in einer bestimmten Situation verletzt wird, dann wird es versuchen, so auf die Situation einzuwirken, dass dieser Wert wieder realisiert wird.

Vollumfängliche moralische Handlungsfähigkeit, wie sie Menschen typischerweise besitzen, kommt künstlichen Systemen allerdings nicht zu. Zum einen ist der Einsatzbereich von Maschinen mit Moral normalerweise auf einen bestimmten Anwendungskontext beschränkt, die menschliche Moralfähigkeit umfasst jedoch potenziell jeden beliebigen Bereich des Lebens.

Zudem verfügen künstliche Systeme bislang nicht wirklich über Bewusstsein und Willensfreiheit. Bewusstsein im Sinn des subjektiven Erlebens wäre beispielsweise erforderlich, um moralische Emotionen wie Mitgefühl oder auch Schuldgefühle empfinden zu können. Willensfreiheit eröffnet die Möglichkeit, sich auch gegen eine als moralisch erkannte Handlungsoption zu entscheiden und unmoralisch zu handeln. Auch diese Fähigkeit besitzen künstliche Systeme bislang nicht und sollten sie zum Schutz des Nutzers auch nicht haben.

Außerdem können künstliche Systeme anders als Menschen ihre moralischen Entscheidungen und die ihnen zugrundeliegenden Werte nicht reflektieren, diese begründen oder gar selbstständig verändern. Aus diesem Grund können sie auch keine moralische Verantwortung übernehmen. Maschinen stellen demnach einen Sonderfall dar, in dem moralisches Handeln ohne moralische Verantwortung gegeben ist. Nicht zuletzt stellt sich die Frage, ob wir Maschinen gegenüber, die über Bewusstsein, Willensfreiheit oder die Fähigkeit zur moralischen Reflexion verfügen, nicht auch moralische Verpflichtungen haben. Das brächte Komplikationen für ihren praktischen Einsatz mit sich. Damit ist nicht gesagt, dass es unmöglich ist, Systeme zu konstruieren, die auch diese Eigenschaften besitzen. Sie sind jedoch nicht notwendig und auch nicht wünschenswert für Systeme mit moralischer Handlungsfähigkeit in einem grundlegenden und für die Anwendungspraxis geeigneten Sinn.

Sollen künstliche Systeme moralisch handeln?

Ein Argument, das zugunsten moralischer Maschinen vorgebracht werden kann, ist ihre schiere Unvermeidbarkeit. Die Entwicklung zunehmend intelligenter und autonomer Technologien führt demnach zwangsläufig dazu, dass diese mit moralisch problematischen Situationen konfrontiert sind. Deshalb ist es erforderlich, Maschinen zu entwickeln, die über ein gewisses Maß an eigenständiger moralischer Entscheidungsfähigkeit verfügen. Wenn das stimmt, ergibt sich die Notwendigkeit der Maschinenethik aus dem technologischen Fortschritt.

Zudem könnten moralische Maschinen möglicherweise schlicht bessere Maschinen sein. Technologien sollen das menschliche Leben erleichtern. Moralische Maschinen dienen diesem Ziel besser, so könnte man argumentieren, weil sie menschlichen Bedürfnissen und Werten besser entsprechen. Während neue Technologien häufig ins Fadenkreuz der Kritik geraten, weil sie moralische Probleme aufwerfen, ist die Moral in diesem Fall im Design der Maschine verankert.

Als Vorteil künstlicher moralischer Akteure wird weiterhin angeführt, dass sie moralisch besser handeln als Menschen, weil sie keinen irrationalen Impulsen oder emotionalem Stress unterliegen. Sie sind nicht verführbar und werden auch nicht durch Eigeninteresse vom Pfad der Moral abgebracht. Nicht zuletzt können sie in Sekundenbruchteilen Entscheidungen treffen, in denen ein Mensch gar nicht mehr zu bewusstem Entscheiden in der Lage ist. Das spricht für manche Autoren dafür, ihnen moralische Entscheidungen in besonders prekären Situationen zu überlassen, beispielsweise im Krieg.

Neben ihrem praktischen Nutzen verspricht die Entwicklung der Maschinenethik auch eine Verbesserung der Moral selbst. Die menschliche Moral ist fragmentiert und teilweise widersprüchlich. Die Entwicklung künstlicher Systeme mit moralischen Fähigkeiten macht es erforderlich, die menschliche Moral (zumindest in den Anwendungsbereichen) zu vereinheitlichen und konsistent zu machen, weil künstliche Systeme nur auf dieser Grundlage operieren können. Insofern Einheitlichkeit und Widerspruchsfreiheit generell theoretische Tugenden darstellen, wäre das auch ein Fortschritt der Ethik als Theorie der Moral.

Zudem besteht die Hoffnung, dass der Versuch, künstliche Systeme mit moralischen Fähigkeiten zu konstruieren, auch Rückschlüsse darüber zulässt, wie moralische Fähigkeiten bei Menschen funktionieren. Im besten Fall gibt es grundlegende funktionale Strukturen moralischer Fähigkeiten, die sowohl in natürlichen als auch in künstlichen Systemen realisiert werden können. Scheitern gewisse Erklärungsansätze moralischer Fähigkeiten an der Implementation, so ist auch das zumindest im negativen Sinn aufschlussreich im Hinblick darauf, wie menschliche Moralfähigkeiten nicht funktionieren. Maschinenethik besitzt also einen Wert als Instrument wissenschaftlicher Erkenntnis.

Diesen Pluspunkten steht jedoch eine Reihe von Einwänden gegenüber. So stellt sich die Frage, ob die Vereinheitlichung und Auflösung von Widersprüchen in unserer Alltagsmoral stets zu begrüßen ist. Möglicherweise werden dadurch Problemlagen eliminiert, ohne dass dies der Komplexität und existenziellen Bedeutung moralischer Situationen im Alltag gerecht wird. So ist beispielsweise nicht klar, wie sich ein autonomes Fahrzeug entscheiden sollte, wenn es ausschließlich die beiden Handlungsalternativen hat, das Leben seiner Insassen aufs Spiel zu setzen oder dasjenige von auf der Straße spielenden Kindern. Der Zwang zu einer Entscheidung ex ante erscheint in einem solchen Fall als problematisch.

Ein Mensch hätte die Freiheit, dies situativ zu entscheiden. Doch das Verhalten eines autonomen Systems ist im Vorhinein festgelegt. Eine solche Normierung führt zu einer bedeutenden Einschränkung der Entscheidungsfreiheit des Einzelnen, der in einer derartig existenziellen Situation nicht mehr selbst entscheiden könnte, ob er sein Leben für die Kinder aufs Spiel setzt oder nicht.

Ein anderer Einwand befürchtet die Entstehung von Verantwortungslücken. An der Entwicklung, dem Vertrieb und der Nutzung moralischer Maschinen sind viele Menschen beteiligt. Die Softwareentwicklung umfasst Teams, sie baut auf bereits vorhandene Module auf, und nicht immer gibt es eine Person, die den Überblick über den gesamten Programmierprozess besitzt. Weitere Einflussfaktoren bilden Marketing und Vertrieb sowie schließlich die Nutzer. So ist zu befürchten, dass sich moralisch problematische Vorfälle häufig nicht auf eine einzige Handlung oder Entscheidung zurückführen lassen, sondern Ergebnis vieler ineinandergreifender Handlungen und Entscheidungen sein werden, an denen unterschiedliche Akteure beteiligt sind.

Dieses Problem der "vielen Hände" tritt auch im Fall anderer Technologien auf. Es verschärft sich jedoch, je autonomer Maschinen agieren. Dadurch erhöht sich das Risiko, dass die Maschinen zu Entscheidungen kommen, die niemand beabsichtigt oder vorhergesehen hat und über die niemand direkte Kontrolle besitzt. Das könnte systematisch dazu führen, dass niemand für die moralisch desaströse Entscheidung eines künstlichen Systems verantwortlich gemacht werden kann. Die Frage ist, wie sich das auf unsere moralische Praxis auswirken würde. Die schlimmste Befürchtung wäre, dass wir den moralischen Verdikten einer Technologie ausgeliefert wären, die wir letztlich nicht mehr durchschauen und kontrollieren könnten.

Wie diese Argumente gegen moralische Maschinen zu bewerten sind, hängt auch vom Anwendungsbereich ab. So entsteht das Problem der Verantwortungslücke möglicherweise verstärkt bei sehr komplexen und vernetzten Anwendungsbereichen wie dem autonomen Fahren und weniger ausgeprägt im Pflegebereich. Auch das Problem der Entmündigung könnte im Pflegebereicht dadurch entschärft werden, dass sich ein häusliches Pflegesystem an den Moralvorstellungen des Nutzers orientieren kann und in der Lage ist, sich flexibel an diese anzupassen. Zudem müsste sichergestellt sein, dass niemand gezwungen wird, ein solches System zu nutzen, der dies nicht möchte.

Die letzten beiden Optionen bestehen im Hinblick auf das autonome Fahren und militärische Anwendungen hingegen nicht. In diesen Bereichen muss es allgemeinverbindliche Regelungen geben. Schließlich kann sich niemand dem Einfluss dieser Technologien entziehen, wenn er in irgendeiner Form am Verkehr teilnimmt oder zufällig als Zivilist in einem Kriegsgebiet lebt. Im Gegenzug müssen auch anwendungsspezifische Vorteile in die Abwägung mit eingehen. So wird zugunsten des autonomen Fahrens beispielsweise der Gewinn an Sicherheit angeführt. Autonome Waffensysteme hingegen sollen der humaneren Kriegsführung dienen, insofern sie eine bessere Einhaltung des Kriegsvölkerrechts gewährleisten und sich auf diese Art und Weise beispielsweise positiv auf den Schutz von Zivilisten auswirken. Pflegesysteme hingegen können die Lebensqualität alter Menschen steigern, die möglichst lange zu Hause leben möchten. Offen bleibt, auf welcher ethischen Grundlage künstliche Systeme entscheiden sollten. Auch das hängt vom Anwendungsbereich ab und sollte Gegenstand eines gesellschaftlichen Diskurses sein, insbesondere in denjenigen Anwendungsbereichen, die allgemeinverbindliche Regelungen erfordern.

Fussnoten

Fußnoten

  1. Vgl. Heinz Rothgang et al., Bertelsmann-Stiftung Themenreport "Pflege 2030", Gütersloh 2012.

  2. Vgl. Deutschlands Zukunft gestalten. Koalitionsvertrag zwischen CDU, CSU und SPD, 2013, S. 60, Externer Link: https://www.bundesregierung.de/Content/DE/_Anlagen/2013/2013-12-17-koalitionsvertrag.pdf?__blob=publicationFile.

  3. Vgl. Ethik-Kommission Automatisiertes und Vernetztes Fahren, Bericht Juni 2017, S. 17, Externer Link: https://www.bmvi.de/SharedDocs/DE/Publikationen/G/bericht-der-ethik-kommission.html.

  4. Vgl. Ronald Arkin, Governing Lethal Behavior in Autonomous Robots, Boca Raton u.a. 2009.

  5. Vgl. Catrin Misselhorn, Robots as Moral Agents, in: Frank Rövekamp/Friederike Bosse (Hrsg.), Ethics in Science and Society: German and Japanese Views, München 2013, S. 30–42.

  6. Vgl. Catrin Misselhorn, Collective Agency and Cooperation in Natural and Artificial Systems, in: Philosophical Studies Series 122/2015, S. 3–25.

  7. Die Konzeption der Akteurskausalität wird zumeist auf Aristoteles zurückgeführt. In jüngerer Zeit wurde sie beispielsweise einflussreich von Roderick Chisholm vertreten, Human Freedom and the Self. Lindley Lecture, Lawrence 1964.

  8. Vgl. Peter F. Strawson, Freedom and Resentment, in: Proceedings of the British Academy 48/1962, S. 1–25.

  9. Vgl. Luciano Floridi/J.W. Sanders, On the Morality of Artificial Agents, in: Minds and Machines 14/2004, S. 349–379.

  10. Vertreter dieser Standardauffassung sind z.B. Donald Davidson, Essays on Actions and Events, Oxford–New York 1980, sowie Fred Dretske, Explaining Behavior. Reasons in a World of Causes, Cambridge 19954.

  11. Vgl. Michael E. Bratman, Intention, Plans, and Practical Reason, Cambridge MA 1987.

  12. Vgl. Daniel C. Dennett, The Intentional Stance, Cambridge MA 1987.

  13. Vgl. Christian List/Philip Pettit, Group Agency: The Possibility, Design, and Status of Corporate Agents, Oxford 2011.

  14. Das BDI-Modell greift auf die Arbeiten zur praktischen Rationalität des Philosophen Michael E. Bratman zurück (Anm. 11).

  15. Einige Forscher vertreten jedoch auch die Annahme, dass es funktionale Äquivalente zu Emotionen auch ohne subjektive Erlebnisqualität geben kann. Vgl. beispielsweise Matthias Scheutz, Architectural Roles of Affect and How to Evaluate Them in Artificial Agents, in: International Journal of Synthetic Emotions 2/2011, S. 48–65.

  16. Vgl. Arkin (Anm. 4), S. 33.

  17. Vgl. Ethik-Kommission Automatisiertes und Vernetztes Fahren (Anm. 3), S. 17

  18. Vgl. Robert Sparrow, Killer Robots, in: Journal of Applied Philosophy 24/2007, S. 62–77.

  19. Vgl. Bataya Friedman, Moral Responsibility and Computer Technology, Paper Presented at the Annual Meeting of the American Educational Research Association, Boston 1990; Helen Nissenbaum, Computing and Accountability, in: Communications of the Association for Computing Machinery 37/1994, S. 72–80.

  20. Vgl. Catrin Misselhorn, Moralische Maschinen in der Pflege? Grundlagen und eine Roadmap für ein moralisch lernfähiges Altenpflegesystem, in: Christiane Woopen/Marc Jannes (Hrsg.), Roboter in der Gesellschaft: Technische Möglichkeiten und menschliche Verantwortung, Wiesbaden 2018 (i.E.).

Lizenz

Dieser Text ist unter der Creative Commons Lizenz "CC BY-NC-ND 3.0 DE - Namensnennung - Nicht-kommerziell - Keine Bearbeitung 3.0 Deutschland" veröffentlicht. Autor/-in: Catrin Misselhorn für Aus Politik und Zeitgeschichte/bpb.de

Sie dürfen den Text unter Nennung der Lizenz CC BY-NC-ND 3.0 DE und des/der Autors/-in teilen.
Urheberrechtliche Angaben zu Bildern / Grafiken / Videos finden sich direkt bei den Abbildungen.
Sie wollen einen Inhalt von bpb.de nutzen?

ist Direktorin des Instituts für Philosophie der Universität Stuttgart und hat den Lehrstuhl für Wissenschaftstheorie und Technikphilosophie inne. E-Mail Link: catrin.misselhorn@philo.uni-stuttgart.de