Meine Merkliste

Brauchen Motoren eine Moral?

Internet der Dinge Spezial: Smart City Glossar: Internet der Dinge Quiz: Smart Cars Quiz: Industrie 4.0 Quiz: Smart City

Brauchen Motoren eine Moral?

Adrian Lobe

/ 3 Minuten zu lesen

Selbstfahrende Autos stellen uns vor gravierende ethische Dilemmata. Wer ist Schuld, wenn in Zukunft niemand mehr am Steuer sitzt? Auf welcher Grundlage sollen Fahrzeuge künftig Entschlüsse fassen, die möglicherweise über Leben und Tod entscheiden? Wie, und vor allem wer soll die Autos programmieren?

Ein Vorreiter des automatisierten Fahrens ist der Internetkonzern Google. Hier im Bild die "Google Self-Driving Car". (CC, smoothgroover22) Lizenz: cc by/2.0/de

Man stelle sich vor, man sitzt in einem selbstfahrenden Auto. Einem, wie Google es gerade testet. Links fährt ein Porsche Cayenne, rechts ein Smart. Plötzlich rennt ein Kind unvermittelt auf die Straße. Die Abstandsmesser stellen fest, dass ein Bremsvorgang bei dieser Geschwindigkeit zu spät kommt und nur noch ein Ausweichmanöver möglich ist. Was soll der Fahrcomputer in dieser Situation tun? Nach links ausbrechen und den Porsche rammen? Oder nach rechts ausweichen und in den Smart hineinrasen? Physikalisch ist die Frage leicht beantwortet. Die Technik entscheidet sich für den Zusammenstoß mit dem schwereren Fahrzeug, das den Aufprall besser abfedern kann - in diesem Fall der Porsche auf der linken Seite. Allein, es geht hier nicht nur um Physik. Sondern um Ethik.

Software soll mehr Sicherheit bringen - aber wie?

Was kann der Fahrer eines Porsche Cayenne dafür, dass er ein robustes Auto fährt? Ist ein Geländewagen weniger schützenswert als ein Kleinwagen? Das klingt nach theoretischen Fragen. Doch in der Praxis sind derlei Erwägungen von großer Bedeutung. Während ein menschlicher Fahrer nur instinktiv in einer Notsituation reagieren kann, wird ein Roboterauto von einer Software gesteuert, die unablässig die Umwelt mit Sensoren erfasst und zahlreiche Berechnungen durchführt, bevor wir der Gefahr überhaupt gewahr werden. Jedes Jahr kommen laut der WHO 1,2 Millionen Menschen bei Autounfällen ums Leben - in den meisten Fällen wegen Unachtsamkeit oder Trunkenheit am Steuer. Roboterautos treten mit dem Versprechen an, das Fahren sicherer zu machen. Aber wie soll man sie programmieren?

Stanford-Professor Chris Gerdes, der im Auftrag der Daimler und Benz Stiftung gesellschaftsrelevante Fragestellungen rund um das automatisierte Fahren erforscht, sagt auf Anfrage: "Wir arbeiten an Rahmenbedingungen für die Programmierung ethischer Entscheidungen in automatisieren Autos. Im Moment haben wir noch nicht die richtige Lösung. Es ist einfacher als gedacht, ethische Regeln in autonomen Fahrzeugen zu programmieren. Viel schwerer ist jedoch die Frage, was angemessen ist."

Berechenbare Unberechenbarkeit

Eine Lösung bestünde darin, einen Zufallsgenerator ("deus ex machina") einzubauen, der in derlei Situationen eine Entscheidung trifft. Eine spontane, unkalkulierbare Reaktion ähnelt ja auch mehr dem menschlichen Verhalten in Gefahrensituationen. Gleichwohl: Selbstfahrende Autos werden ja gerade deshalb entwickelt, damit sie berechenbarer sind - sie sollen bessere Entscheidungen treffen. Man würde mit einem Zufallsgenerator die technische Errungenschaft um den Preis ethischer Korrektheit zurückdrehen. Ein Widerspruch in sich.

Eine andere Lösung wäre, dem Auto gewisse Informationen wie die Fahrzeuggröße vorzuenthalten, damit der Algorithmus erst gar nicht in die missliche Lage versetzt wird, zwischen beiden Varianten zu entscheiden. Idealtypisch würde ein solcher "Schleier der Unwissenheit" für mehr Gerechtigkeit sorgen. Das Problem ist nur, dass Automobilhersteller und Versicherer so viele Informationen wie möglich gewinnen wollen, um zum Beispiel während der Fahrt Werbung zu lancieren, oder um das Fahrverhalten der Versicherten nachvollziehen zu können. Ein "blindes Auge" der Technik ist also unwahrscheinlich. So ist davon auszugehen, dass Algorithmen über alle relevanten Informationen verfügen und im Extremfall brutale Entscheidungen treffen müssen.

Kein Ende in Sicht

Porsche oder Smart? Schulbus oder Rollstuhlfahrer? Die Frage der Haftung ist unheimlich kompliziert. Eine Person kann moralisch verantwortbar sein, aber nicht rechtlich - und umgekehrt. Eines steht fest: Automatisierung bedeutet kein Ende der Unsicherheit im Straßenverkehr.

Weitere Inhalte

Weitere Inhalte

Netzdebatte - Zukunft der Arbeit

Debatte bedingungsloses Grundeinkommen

Was wäre, wenn jede_r von uns jeden Monat vom Staat einen festen Betrag aufs Konto überwiesen bekäme - ohne etwas dafür tun zu müssen? Das ist, vereinfacht gesagt, die Idee eines Bedingungslosen…

Netzdebatte - Zukunft der Arbeit

Pro und Contra zur Robotersteuer

Machen uns Roboter in Zukunft überflüssig? Oder schaffen sie neue Freiräume? Gewiss ist, dass die Automatisierung der Arbeit, aktuell unter dem Schlagwort Industrie 4.0, unsere Arbeitswelt…

Debatte

Autonomes Fahren: Wie viele Räder hat die Zukunft?

Die Vorstellungen davon, wie wir uns in Zukunft - vor allem in den Städten - fortbewegen werden, sind sehr unterschiedlich. Während die einen die Zukunft im autonomen Fahren sehen, glauben andere,…

Über uns

70 Jahre BPB

Am 25. November 2022 feierte die Bundeszentrale für politische Bildung/bpb ihren 70. Geburtstag. Feiern Sie mit! Jetzt Newsletter abonnieren und über alle Aktionen informiert werden.

Artikel

Ritueller Gewürzturm aus Frankfurt

Ein jüdischer Kunde gab diesen Gewürzturm bei einem christlichen Silberschmied in Auftrag, was beweist, dass der starke Einfluss von Mode und Geschmack konfessionelle Grenzen überschritt - selbst…

Adrian Lobe studiert Politik- und Rechtswissenschaft an der Universität Heidelberg und ist nebenbei als freier Journalist für verschiedene Zeitungen im deutschsprachigen Raum tätig.