Einleitung und Begriffsklärungen
Angesichts der rasch voranschreitenden Digitalisierung wird von einem „Megatrend des 21. Jahrhunderts“, „Paradigmenwechsel“ und „tiefgreifenden Kulturwandel“ gesprochen. Die technischen Voraussetzungen des digitalen Wandels sind digitale Technologien, insbesondere Informations- und Kommunikationstechnologien (IKT), wobei immer mehr Künstliche Intelligenz (KI) zum Einsatz kommt. „Digitalisierung“ meint zunächst die Umwandlung von analogen Daten oder Vorgängen in digitale Formate mit binären Codes aus den Ziffern 0 und 1 („Digitization“). Diese Daten können dann verarbeitet werden, um z.B. digitale Abbilder zu erstellen und Menschen, Maschinen oder Institutionen in der realen Welt miteinander zu vernetzen („Digitalization“). Die Diskussion über Digitalisierung wurde in den 2010er Jahren zunächst unter dem Schlagwort „Industrie 4.0“ geführt und auf den ökonomischen Bereich verengt. Dabei geht es um die dritte und v.a. vierte industrielle Revolution, d.h. den Einsatz von IT- und Robotersystemen (3.) sowie die digitale Echtzeitvernetzung aller Maschinen und Prozesse einer Wertschöpfungskette (4.), die zu einer Effizienz- und Gewinnsteigerung führten. Die automatische Datenerfassung und -analyse in immer mehr menschlichen Arbeits- und Lebensbereichen sowie die zunehmende Präsenz und Machtfülle digitaler Medien verändern aber auch die Art und Weise, wie wir die Welt wahrnehmen, miteinander kommunizieren und umgehen. Die Digitalisierung muss daher als gesamtgesellschaftlicher Prozess reflektiert werden, der unsere Wertvorstellungen und Menschenbilder, unser individuelles und gesellschaftliches Leben grundlegend verändert.
Je schneller sich die technologischen Innovationsschübe ereignen und je weitreichender die teilweise noch schwer abschätzbaren Folgen werden, desto größer und dringender ist der Bedarf an ethischer Reflexion und vorausschauender Verantwortung aller Beteiligten. Orientierung bietet hier die Angewandte Ethik als interdisziplinäre akademische Disziplin, die auch über transakademische Beratertätigkeiten in Kommissionen und Gremien zur Lösung konkreter gesellschaftlicher Probleme beiträgt. Seit gut einem Jahrzehnt kristallisiert sich ein neuer Teilbereich der Angewandten Ethik heraus, im Schnittfeld bereits etablierter Bereichsethiken wie der Technik-, Informations- und Medienethik: Die Digitale Ethik (auch „Digitalethik“ oder „Ethik der Digitalisierung“) widmet sich den ethischen Problemen bei der Entwicklung und im Umgang mit digitalen Technologien und den Auswirkungen der Digitalisierung auf die verschiedenen menschlichen Lebensbereiche. Sie analysiert die Argumente für und gegen konkrete digitale Anwendungen genauso wie die tieferliegenden soziokulturellen Auswirkungen der Digitalisierung.
Als normative Grundlage dienen bekannte Leitideen, Werte oder Prinzipien der philosophischen Ethik wie Freiheit/Würde, Gerechtigkeit/Nichtdiskriminierung, gutes Leben/Glück, Sicherheit und Nachhaltigkeit. Da die Privatsphäre durch die zunehmende „Datafizierung“ der Lebenswelt bedroht wird, hat der Wert der Privatheit an Bedeutung gewonnen. Zum Schutz der informationellen Selbstbestimmung müssen die Individuen die Kontrolle über das Speichern, Verwenden und Veröffentlichen personenbezogener Daten behalten. Relativ neu sind die Forderungen nach Transparenz/Erklärbarkeit und menschlicher Aufsicht und Letztentscheidung, die angesichts immer komplexerer, undurchsichtigerer und autonomerer KI-Systeme erhoben werden („Black-Box-Problem“). Ethisch zu begrüßen ist der Forschungszweig der „Explainable AI“ (XAI), der mit technischen Mitteln automatische algorithmische Entscheidungsprozesse für Menschen erklärbar zu machen versucht.
Teilbereiche der Digitalen Ethik
1) Digitale Medienethik: Chancen und Risiken digitaler Medien
Ein wichtiger Teilbereich der Digitalen Ethik ist die Digitale Medienethik, die sich auf die ethischen Probleme im Zusammenhang mit neuen Kommunikationsformen der digitalen Medien konzentriert, insbesondere der internetbasierten Online-Kommunikation. In den 2000er Jahren veränderte sich mit dem Aufkommen digitaler Plattformen die mediale Infrastruktur grundlegend, sodass von einem „neuen“ oder „dritten Strukturwandel der Öffentlichkeit“ die Rede ist. Digitale Plattformen wie soziale Netzwerke oder Suchmaschinen bieten als unbeteiligte Dritte Informationen von Internetnutzern für andere Nutzer an. Dabei sind sie nicht an der Qualität der Inhalte oder der Kommunikation interessiert. Vielmehr möchten sie die Aufmerksamkeit der Nutzer möglichst oft und lange binden, weil sie sich mehrheitlich Werbeeinnahmen finanzieren. Die exponentiell wachsende Masse an Informationen im Internet führt zur „Aufmerksamkeitsökonomie“, d.h. einem immer schärferen Wettbewerb um das knappe Gut der Aufmerksamkeit. Ethisch problematisch sind dabei gezielt süchtig machende „Addictive Designs“ wie z.B. Autoplay-Funktionen, Belohnungs-, Punkte- oder Feedbacksysteme.
Das Internet löste aber auch eine Revolution des Journalismus aus, weil alle Internetnutzer ohne Qualitätsschranken alles Beliebige ins Internet stellen können. Es entfiel die „Gatekeeper“-Funktion professioneller Redakteure und Journalisten, die Informationen für eine größere Öffentlichkeit prüften, auswählten und einordneten. Die egalitäre und interaktive Struktur des Internets weckte v.a. in seiner Frühphase große Hoffnungen auf einen weltweiten Demokratisierungsschub. Die niedrige Schwelle im Internet ermöglicht einerseits einen leichteren Zugang zu Informationen, mehr Meinungspluralismus und Partizipationsmöglichkeiten der Bürger, die in einer Demokratie höchst willkommen sind. Der Bürger- oder Laienjournalismus bringt aber andererseits auch die Gefahr einer Erosion medienethischer Prinzipien wie Wahrheit, Unparteilichkeit, Relevanz, Achtung von Persönlichkeitsrechten oder Verzicht auf sensationalisierende Darstellung mit sich. Genauso wie professionelle Medienschaffende in ihrer Ausbildung mit diesen Richtlinien vertraut gemacht und durch berufsethische Regelwerke wie dem Pressekodex des Deutschen Presserats zur freiwilligen Selbstverpflichtung aufgerufen werden, sollten Internetnutzer bereits in Schulen entsprechende digitale Medienkompetenzen vermittelt bekommen.
Je mehr außerdem die Informationen auf den kommerziellen Plattformen automatisch durch Algorithmen und KI selektiert werden, desto mehr treten zahlreiche Herausforderungen für die Demokratie hervor: Es kommt zu einer Flut an falschen, dramatisierenden und skandalisierenden Beiträgen und Shitstorms, weil Aufmerksamkeit und lange Verweildauer nicht mit sachlichen, ausgewogenen Informationen, sondern mit großem Unterhaltungswert und Emotionen, insbesondere negativen Affekten erzielt werden. Die Desinformation hat ein ganz neues Ausmaß erlangt, weil falsche oder irreführende Informationen sich im Internet viel leichter, schneller und weitreichender verbreiten lassen. Täuschend echt wirkende Fake News oder mit KI erzeugte Deep Fakes verunglimpfen häufig Prominente wie z.B. Politiker und führen zu Unsicherheit, Orientierungsverlust und schwindendem Vertrauen, insbesondere gegenüber staatlichen Institutionen und öffentlich-rechtlichen Medien. Die enorme Geschwindigkeit der Kommunikationsflüsse und die Erwartung prompter Reaktionen erzeugen ein Klima ständiger Gereiztheit und Empörung. Eine algorithmenbasierte personalisierte Kuratierung der Informationen begünstigt auch eine Fragmentierung der Öffentlichkeit in „persönliche“ oder „Teilöffentlichkeiten“ durch Effekte wie Echokammern oder Filterblasen – wobei letztere wissenschaftlich umstritten sind. Eine Demokratie ist aber angewiesen auf wohlinformierte Bürger bezüglich öffentlicher Angelegenheiten, auf eine respektvolle, konsens- und vernunftorientierte Kommunikationskultur sowie viel Zeit und Geduld für langwierige Aushandlungsprozesse. Während sich Internetnutzer an den erwähnten medienethischen Prinzipien orientieren sollten (Mikroebene der Verantwortung), müssten auch die Plattformunternehmen mehr Verantwortung für Inhalte übernehmen und ihre Kurationskriterien transparent machen (Mesoebene, mittlere Ebene). Wünschenswert wäre letztlich ein gemeinwohlorientiertes, nichtkommerzielles Internet (Makroebene).
2) KI-Ethik: Chancen und Risiken Künstlicher Intelligenz
Der zweite wichtige Teilbereich der Digitalen Ethik ist die KI-Ethik: Sie klärt, was KI-Systeme tun dürfen und was nicht, oder ob und wie es Menschen gelingen kann, die Kontrolle über eine selbstlernende und immer autonomere KI-Technologie zu behalten. Während sich die Digitale Medienethik auf die Kommunikation zwischen Menschen konzentriert, geht es in der KI-Ethik um die Interaktionen von Menschen mit Maschinen. KI-Systeme werden nicht zur zwischenmenschlichen Verständigung eingesetzt, sondern als Instrumente oder Werkzeuge zur Lösung bestimmter Probleme, so z.B. für Verwaltungsaufgaben, individualisierte Therapievorschläge oder die Erfüllung persönlicher Wünsche. Die KI-Ethik lässt sich ihrerseits in zwei unterschiedliche Konfliktfelder untergliedern: Zum einen ergeben sich viele Probleme durch die „Datafizierung“, d.h. das Erheben, Speichern und Auswerten von Daten in digitaler Form (Daten- oder Big-Data-Ethik). Beim zweiten Themenfeld geht es hingegen um KI-basierte Roboter oder auch virtuelle Akteure wie Chatbots und virtuelle Assistenten; um ihren moralischen Status, ihre Moral- und Verantwortungsfähigkeit sowie ihre Rolle in der menschlichen Gemeinschaft (Roboter- und Maschinenethik). Letztere könnte sich in einer „historischen Revolution“ bald in eine „Robotergesellschaft“ verwandeln.
2a) Probleme der Datafizierung und Big-Data-Analysen
KI-gestützte Verfahren der Datenverarbeitung können riesige Datenmengen aus verschiedensten Quellen („Big Data“) erfassen und Zusammenhänge, Muster oder Trends erkennen, die Menschen meist verborgen bleiben. Dies bietet große Vorteile etwa beim Matching zwischen Anbietern und Nachfragern oder bei der medizinischen Diagnostik z.B. von Hautkrebs, worin KI-Systeme erfahrene Dermatologen bereits übertreffen. Groß sind allerdings die Gefahren von Verzerrungen, Vorurteilen („Biases“) und ungerechten Klassifizierungen z.B. durch zu kleine oder unausgewogene Datensätze, die leicht zu Diskriminierungen führen. So wurden Frauen bei der Bewerbung für technische Berufe etwa bei einer KI-Software von Amazon im Jahr 2014 allein deswegen nicht berücksichtigt, weil die KI beim Training anhand der Daten der Firmengeschichte „gelernt“ hatte, dass Männer für diese Berufe geeignet sind. Oder beim Credit-Scoring von Banken erhalten Personen keinen Kredit, nur weil sie in einer Gegend wohnen, in der statistisch häufig Rechnungen nicht bezahlt werden. Je mehr Menschen automatisch anhand bestimmter Kategorien in Gruppen klassifiziert und gerankt werden wie im Extremfall des chinesischen Sozialkredit-Systems („social scoring/credit system“), desto weniger werden sie als individuelle Persönlichkeiten betrachtet („Deindividualisierung“). Weil im Digitalzeitalter alles quantifiziert und operationalisiert, d.h. anhand beobachtbarer Merkmale messbar und in der universellen Sprache der Mathematik dargestellt werden muss, kommt es auch zu einer „Quantifizierung des Sozialen“. Quantitative Parameter sind aber stets vereinfachend, weil feine Unterschiede oder das Einzigartige eines Charakters oder einer spezifischen Lebenssituation unberücksichtigt bleiben.
Kritisch zu betrachten ist auch, dass z.B. über das Smartphone oder Kreditkarten immer mehr Daten bis in den Privatbereich hinein erhoben werden und Rückschlüsse auf eine Persönlichkeit und diskriminierungsrelevante Merkmale erlauben. Die permanente digitale „Überwachung“ durch große Internetkonzerne wie Meta, Amazon oder Google führt in den Augen ihrer Kritiker zu einem demokratiegefährdenden Meinungskonformismus und angepasstem Verhalten, allein weil sich die Menschen beobachtet fühlen („Panoptikumseffekt“; „chilling effect“). Wenn auf der Grundlage des bisherigen (Kauf)Verhaltens, Persönlichkeitsprofile angelegt und z.B. je nach Gefühlslage passende Kaufempfehlungen abgegeben werden („mikrotargeting“), steigt die Gefahr von Manipulationen. Besser geschützt werden müssen personenbezogene Daten (Datenschutz) sowie die Rechte auf Privatsphäre und freie Entfaltung der Persönlichkeit. Zumindest da, wo KI über Lebens- und Arbeitschancen von Menschen entscheidet wie z.B. bei Jobbewerbungen, Kreditvergabe oder dem Strafmaß von Häftlingen, braucht es eine sorgfältige Überprüfung auf mögliche „Biases“. Entwickler und Betreiber können sich hier nicht aus der Verantwortung ziehen mit einem bloßen Verweis auf die Intransparenz hochkomplexer selbstlernender Systeme.
2b) Probleme mit Robotern und virtuellen Akteuren
Als Teil der KI-Ethik beschäftigt sich die Roboterethik mit den ethischen Problemen bei der Entwicklung, Herstellung und Verwendung von KI-basierten Robotern. Kritisch zu sehen ist die Vermenschlichung von Maschinen, die sich bereits auf der Sprachebene bei der Zuschreibung von Intelligenz, Autonomie und Moralität zeigt. Bislang ist aber nur eine „schwache“ kognitive Intelligenz herstellbar, die in einzelnen KI-Systemen für die Lösung konkreter Probleme spezialisiert ist, wie z.B. Medikamententransport oder Kundenberatung. Beim ausdrücklichen Ziel der Technologieentwicklung, menschliche Eigenschaften und Fähigkeiten wie Intelligenz möglichst gut zu simulieren, werden diese nur äußerlich nachgeahmt: Obwohl sich in einem Chat kein Unterschied mehr zu einem menschlichen Gesprächsverhalten feststellen lässt, hat die KI kein Bewusstsein und „versteht“ nur in einem oberflächlichen, rein formal-syntaktischen Sinn, was sie sagt. Sie berechnet nämlich lediglich die statistische Wahrscheinlichkeit, mit der auf ein Wort in einem bestimmten Kontext gewöhnlich ein anderes folgt, ohne die Bedeutung der Worte zu erfassen. Es fehlt Robotern mit integriertem Chatbots ein Innenleben mit eigenen Erfahrungen, Gefühlen und darauf basierendem tiefem Verständnis der Bedeutung von Wörtern wie „Hunger“ oder „Verliebtsein“. Da sogenannte soziale Roboter wie z.B. Pflege- oder Sexroboter immer besser Gefühle ihrer Nutzer erkennen und adäquat darauf reagieren können, kommt es gleichwohl zum psychologischen Phänomen der Anthropomorphisierung, d.h. der Unterstellung menschlicher Eigenschaften wie Empathie, Verständnis und Wohlwollen. Es läge dann eine Täuschung vor, die zu negativen Konsequenzen wie emotionaler Abhängigkeit oder Verringerung der Sozialkontakte führen kann. Intensive und viel Zeit einnehmende emotionale Beziehungen zu KI-basierten „Companions“ könnten auch zu einem Verlust an sozialen und emotionalen Fähigkeiten wie Frustrationstoleranz, gegenseitige Rücksichtnahme und Konfliktlösungskompetenzen führen, die in den vergleichsweise „komplizierteren“ menschlichen Beziehungen unabdingbar sind („ethical deskilling“).
Roboter sind bislang nur in einem schwachen Sinn „autonom“ und „moralisch“. Die Maschinenethik befasst sich genauer mit der Frage, wie KI-Systemen moralische Fähigkeiten oder eine bestimmte Moral implementiert werden können. Insbesondere wo Leben und Tod von Menschen auf dem Spiel stehen wie z.B. bei autonomen Waffensystemen (Drohnen) oder bei autonomen Fahrzeugen in Dilemmasituationen wird diskutiert, welche moralischen Grundsätze sie befolgen sollen, etwa utilitaristische oder deontologische („Alignment Problem“). Da KI-Systeme zurzeit aber weder Normen reflektieren noch ändern können, erlangen sie bloß eine „funktionale Moral“. Auch haben sie bislang nur eine technische oder schwache Autonomie, insofern sie zwar selbständig ohne menschliche Einwirkungen agieren, aber sich nicht mit Blick auf persönliche Wertvorstellungen eigene Ziele setzen können. Aus ethischer Perspektive sollte es grundsätzlich untersagt werden, sogenannte „starke KI“ mit mentalen Zuständen wie Bewusstsein, Intentionalität und einem eigenen Willen herzustellen. Diese wären nämlich nicht mehr Diener der Menschen und würden nicht mehr die Wünsche der Nutzer erfüllen, sondern möglicherweise ihre eigenen Ziele verfolgen. Insbesondere eine sogenannte Superintelligenz, die Menschen in allen Bereichen an Intelligenz überträfe und sich selbst weiterentwickelte, würde die Gefahr eines Kontrollverlusts und einer existenziellen Bedrohung der Menschen stark erhöhen (Kontrollproblem). Verfügten sogenannte biohybride Roboter irgendwann über Empfindungs- und Leidensfähigkeit, müsste man ihnen konsequenterweise einen moralischen Status zusprechen und sie rücksichtsvoll behandeln. Erlangten KI-Systeme sogar Selbstbewusstsein, Personalität und einen eigenen Willen, ergäbe sich ein moralischer Konflikt wie bei der Sklavenhaltung, sodass man sie nicht mehr guten Gewissens als bloße Instrumente für beliebige Zwecke benutzen könnte.
Schluss: Menschenzentriertes statt technologiezentriertes Denken
Die Digitale Ethik pocht darauf, dass im Sinne eines menschenzentrierten Denkens der Mensch bzw. das menschliche Wohl der Orientierungspunkt der Technikentwicklung bilden muss. Statt das traditionelle Verhältnis von Mensch und Technik allmählich zugunsten einer Technik als Selbstzweck umzukehren, soll dieses Instrument oder Werkzeug im Dienst der Menschen bleiben. Da Menschen in immer mehr Lebens- und Arbeitsbereichen durch kognitiv leistungsfähigere und niemals ermüdende KI-Systeme oder Roboter ersetzt werden, scheint sich aber der „unterlegene Mensch“ selbst allmählich „wegzudigitalisieren“. Er gerät zunehmend in Konkurrenz und unter Rechtfertigungszwang, was mit einer Erschütterung traditioneller Menschenbilder einhergeht. Unerlässlich ist eine Diskussion darüber, was das spezifisch Menschliche ist und wo keine Substitution von menschlichen Arbeitskräften erwünscht ist: z.B. in pädagogischen, therapeutischen und pflegenden Berufen, in denen komplexe tragfähige Beziehungen aufzubauen sind; oder in kreativen oder intellektuellen Tätigkeiten im Kunst- und Medienbereich oder den Wissenschaften, die von den meisten Ausübenden als intrinsisch wertvoll und erfüllend erlebt werden. Typisch für das daten- und technologiezentrierte Denken ist die nachgewiesene Tendenz, Algorithmen und KI-Systemen mehr Vertrauen zu schenken als Menschen. Da diese anders als Menschen niemals aus Gefühlen oder „aus dem Bauch heraus“ agieren, treffen sie vermeintlich objektive, neutrale und unfehlbare rationale Entscheidungen. Dieser Objektivitätsglaube und das blinde Vertrauen in automatisierte Datenauswertungen stellen aber einen kritisch zu hinterfragenden „automation bias“ dar.
Reduktionistische digitale Menschenbilder
Genauso problematisch wie die oben unter 2b geschilderte Vermenschlichung der Maschinen ist die gegenläufige Tendenz zur Technisierung der Menschen: Technizistische digitale Menschenbilder reduzieren den Menschen auf das Wahrnehmbare und technisch Beeinflussbare, sodass der Mensch als unzulängliche Maschine oder Automat erscheint – und die Maschine „der bessere Mensch“ wäre. In den popularisierten Strömungen des Trans- und Posthumanismus gilt der Mensch mit seiner biologischen Vergänglichkeit und Verletzlichkeit als Mängelwesen, das sukzessive technisch aufgerüstet werden muss („Gehirn-Computer-Schnittstellen“, „Cyborgisierung“). Ziel der Zukunftsvision einer Auflösung der Grenzen zwischen Mensch und Maschine ist häufig das Hochladen des Menschen auf einem Computer („Mind Uploading“), das auf einem fragwürdigen Funktionalismus basiert: Anstelle einer individuellen Persönlichkeit mit praktischem Selbstverhältnis entstünde höchstens ein hohles Abbild. Auch gäbe es kein biologisches Wesen mehr, das Glück und Freude oder eine „Verbesserung“ seiner Lebenssituation empfinden könnte. Der Mensch ist mehr als sein Gehirn, und dieses ist kein Computer, der Daten sammelt und verarbeitet. Während KI im Bereich kognitiver, instrumentell-technischer Intelligenz mit ihrer Speicherkapazität, Rechenfähigkeit oder Mustererkenntnis längst überlegen ist, umfasst menschliche Intelligenz etwa auch eine emotionale, soziale und moralische Intelligenz, die in einen empfindungsfähigen biologischen Körper mit Sinnesorganen eingebettet ist. Bislang besitzt nur der Mensch eine moralische Urteilskraft oder praktische Vernunft, mit der er normative Kriterien und Ziele reflektieren und begründen kann. Unabdingbar ist daher eine kritische Auseinandersetzung mit Menschenbildern, welche immer auch Vorstellungen von einem guten menschlichen Leben enthalten.
Partizipative, ethisch reflektierte Techniksteuerung
Das im Digitalzeitalter dominierende technologiezentrierte Denken und die große Technikeuphorie von KI-Forschern und IT-Experten drängen zur Umsetzung des technisch Machbaren. Es wird versprochen, dass KI sämtliche Probleme der Welt lösen könne („Solutionismus“). Auf der Grundlage umfassender Daten über alle Fakten sowie Verhaltensweisen und Wünsche der Menschen soll sie auch zu politischen Fragen wie Migrations- oder Klimakrise das „Optimum“ für alle sekundenschnell errechnen können. Die Demokratie als Volksherrschaft würde dann durch eine „Algokratie“ ersetzt, Politik als normative Aufgabe durch automatische Datenanalysen. Dies stellte eine inakzeptable Entmündigung der Bürger dar, die das von der KI Errechnete letztlich nur noch umzusetzen bräuchten. Bei dieser technokratischen Utopie wird übersehen, dass nur Menschen im Austausch von Gründen und Argumenten ethische Werte wie Freiheit, Sicherheit, Gerechtigkeit oder Gemeinwohl gemeinsam konkretisieren und einzelfallbezogen gegeneinander abwägen können.
Erforderlich ist daher eine partizipative, ethisch reflektierte Techniksteuerung und rechtliche Regulierung, bei der alle Betroffenen frühzeitig über verschiedene Diskussionsforen einbezogen werden. Ethische Bildung, digitale (Medien)Kompetenzen und ethische Verantwortungsübernahme sind auf sämtlichen Ebenen vom Informatik- und Ingenieurstudium bis hin zur Weiterbildung für Anwendende zu fördern. Um eine Verantwortungsdiffusion zu verhindern, braucht es Konzepte einer geteilten und gestuften Verantwortung mit individuellen Verantwortungsträgern wie Entwicklern, Herstellern, Betreibern und Nutzern (Mikroebene), Einrichtungen freiwilliger Selbstkontrolle wie z.B. „Responsible Research and Innovation“ (RRI), partizipative Technikfolgenabschätzung (pTA) oder „Algorithm Watch“ (Mesoebene) sowie Politik und kritische Öffentlichkeit mit dem Ziel gesetzlicher Regelungen wie dem AI Act (Makroebene).