Meine Merkliste Geteilte Merkliste PDF oder EPUB erstellen

Handlungsspielräume und digitalethische Fragen | Digitalisierung | bpb.de

Digitalisierung Editorial Einführung und Überblick: Was bedeutet Digitalisierung? Zentrale Elemente der Digitalisierung Kommunikation, Medien und die öffentliche Debatte Gesellschaft, Kultur und Bildung Infrastruktur und Umwelt Wirtschaft und Arbeit Gesundheit und Krankheit Kriminalität, Sicherheit und Freiheit Politik, Recht und Verwaltung Handlungsspielräume und digitalethische Fragen Glossar Literaturhinweise und Online-Ressourcen Impressum

Handlungsspielräume und digitalethische Fragen

Jaana Müller-Brehm Philipp Otto Michael Puntschuh

/ 7 Minuten zu lesen

Der technologische Wandel verändert das menschliche Leben und Wirken nachhaltig und eröffnet damit zahlreiche ethische Fragen. Wie lässt sich die fortschreitende Digitalisierung zum Wohle der Gesellschaft und ihrer Mitglieder gestalten? An welchen Werten soll sie sich orientieren? Antworten darauf können Unternehmen und IT-Fachleute nicht alleine finden. Deshalb beschäftigen sich Politik und Gesellschaft zunehmend mit solchen Fragen.

Sophia ist ein von Hanson Robotics entwickelter Roboter. Er verfügt über eine menschenähnliche Gestik und Mimik, kann Fragen beantworten und einfache Gespräche führen, deren Themen vorgegeben sind. Hier begrüßt er die Besucherinnen und Besucher des Synergy Global Forums in Moskau, 2018. (© picture-alliance/dpa, Mikhail Tereshchenko)

Die digitale Transformation ist nicht abgeschlossen: Zahlreiche Technologien bergen bislang nicht ausgeschöpfte Potenziale. Auch deshalb sind künftige Entwicklungen schwer absehbar. Der Blick auf die Weiterentwicklung von Technologien ist häufig durch die Interner Link: technikdeterministische  Perspektive geprägt, die Digitalisierung habe einen unabänderlichen Einfluss auf unsere Gesellschaft, bei dem die Technik über uns Menschen bestimmt (siehe auch Kapitel Interner Link: Gesellschaft, Kultur und Bildung). Doch wir Menschen entscheiden darüber, wie wir Technologien entwickeln und einsetzen. Wir beeinflussen, wie sie auf das Leben Einzelner und auf das gesellschaftliche Miteinander wirken. Demnach existieren Handlungsspielräume, die wir wahrnehmen können und die durch gesellschaftliche, politische sowie rechtliche Prozesse geformt werden müssen. Ziel sollte sein, den technologischen Wandel so zu gestalten, dass er unseren Vorstellungen eines guten Lebens und Zusammenlebens entspricht.

Technologie ethisch einordnen

Der Begriff "Digitale Ethik" erfasst Fragestellungen, die sich damit auseinandersetzen, wie wir die fortschreitende Digitalisierung zum Wohle der Gesellschaft und ihrer Mitglieder gestalten können und was wir dabei beachten sollten. Sie geht unter anderem auf den Wirtschaftsinformatiker und Philosophen Rafael Capurro zurück. Digitalethische Diskurse beschäftigen sich damit, wie einzelne Personen und Organisationen digitale Medien und Technologien in verschiedenen gesellschaftlichen Kontexten einsetzen, zu welchen Problemen und Konflikten es dabei kommt und wie diese gelöst werden könnten. Das beinhaltet beispielweise folgende Fragen: An welchen Werten orientieren wir uns bei der Gestaltung von Technologien? Welche Chancen birgt eine technisch optimierte Assistenz für unsere Gesellschaft und unter welchen Bedingungen können wir diese nutzen? Wie sorgen wir dafür, dass auch automatisierte Entscheidungssysteme Regeln folgen, die wir an menschliches Handeln ansetzen? Wer übernimmt die Verantwortung für die Entscheidungen solcher Systeme?

Die "Digitale Ethik" hat ihre Wurzeln insbesondere in der Technik-, Informations- und Medienethik. Bereits Mitte des letzten Jahrhunderts beschäftigten sich Wissenschaftlerinnen und Wissenschaftler, die an Informationstechnologien arbeiteten, mit den ethisch-gesellschaftlichen Auswirkungen ihrer Arbeit. Erste tiefergehende Auseinandersetzungen mit dem Thema fanden zudem unter Interner Link: Hackerinnen und Hackern  in den 1980er-Jahren statt.

Ethische – und damit im Kern philosophische – Fragestellungen sind oft eng mit sozialen, kulturellen, rechtlichen, politischen, ökonomischen und ökologischen Aspekten verknüpft. Denn sind ethisch-gesellschaftliche Ziele einmal gesetzt, stellt sich die Frage, wie sich diese verwirklichen lassen: durch wirtschaftliche Förderung, einen breit angelegten gesellschaftlichen Diskurs, Selbstverpflichtungen oder neue Gesetze. Findet diese Verknüpfung nicht statt, besteht die Gefahr, dass wir ethische Fragen auf einer sehr allgemeinen Ebene diskutieren und gesellschaftliche sowie politische Handlungsspielräume nicht wahrnehmen.

Perspektiven und Ebenen ethischer Fragestellungen (© bpb)

Große Digitalunternehmen prägen währenddessen die Ausgestaltung von Technologien. Sie orientieren sich dabei hauptsächlich an wirtschaftlichen Kriterien und weniger an ethischen Fragestellungen, wie etwa die italienische Politikwissenschaftlerin Maria Luisa Stasi am Beispiel erfolgreicher Anbieter sozialer Netzwerke darlegt: Deren automatisierte Moderationspraktiken sind nicht in erster Linie daran orientiert, Vielfalt und Meinungspluralismus zu fördern, sondern eigene wirtschaftliche Einkünfte zu erzielen. Um auch anderen Maßstäben Geltung zu verschaffen, könnte der gesellschaftlich-politische Raum Kriterien vorgeben, die in die Gestaltung der algorithmischen Moderationssysteme einfließen sollten. Diese Kriterien sollten sich etwa am Gemeinwohl und an grundlegenden gesellschaftlichen Werten orientieren, darunter die Bewahrung von Vielfalt in der öffentlichen Debatte. Dafür müsste wiederum ein breit angelegter gesellschaftlicher Diskurs stattfinden, der viele unterschiedliche Meinungen berücksichtige.

Gegenwärtig verstetigt sich der Diskurs zu digitalethischen Fragen auch in der Politik und der Gesellschaft. Es entstehen neue Diskussionsforen und Gremien, die etwa Kodifizierungen der Ethik, ethische Richtlinien oder Kataloge mit Werten, Prinzipien und Gütekriterien erarbeiten. Erste konkrete Definitionen digitalethischer Normen auf weltweiter Ebene entstanden beim "World Summit on the Information Society" 2003 in Genf. Das Ziel dieser an die Vereinten Nationen angegliederten Konferenz ist es, eine Informationsgesellschaft zu schaffen, die gleichsam entwicklungsorientiert und inklusiv ist sowie die allgemeine Erklärung der Menschenrechte in vollem Umfang achtet.

In diesem Zusammenhang setzte die Bundesregierung beispielsweise im Sommer 2018 die Datenethikkommission ein. Sie erarbeitete ein Gutachten zu ethischen Leitlinien, die insbesondere bei algorithmischen Systemen und ihrer Regulierung zu beachten sind. Ende 2019 veröffentlichte sie ein umfangreiches Papier, indem sie unter anderem empfiehlt, ethische Kriterien auf europäischer Ebene auszuhandeln und zu etablieren.

In den diversen Diskursen und Vorhaben werden immer wieder grundlegende Werte genannt, an denen sich Digitalisierung orientieren soll. Das sind unter anderem Offenheit, Transparenz, Gerechtigkeit, Toleranz, Gleichheit, Sicherheit, Freiheit, Verantwortung und Pluralismus. Diese breit geteilten gesellschaftlichen Werte spielen nicht nur in Bezug auf die Auswirkungen der fortschreitenden Digitalisierung in den verschiedenen Lebensbereichen eine Rolle. Die Herausforderung ist vielmehr, sie auch auf die Technologien selbst anzuwenden – also darauf, wie wir sie konzipieren, gestalten und einsetzen und dabei diese zentralen Werte möglichst umfassend berücksichtigen. Damit setzt sich beispielsweise die US-amerikanische Technologieethikerin Joanna Bryson in Zusammenhang mit Interner Link: Künstlicher Intelligenz  auseinander.

"Digitale Ethik" am Beispiel technologischer Trends

"Digitale Ethik" kann Maßstäbe anbieten, nach denen wir technologische Entwicklungen beurteilen. Das lässt sich insbesondere an Technologien veranschaulichen, die gegenwärtig digitalethische Diskussionen verursachen, weil sie zunehmend zum Einsatz kommen und ihre Anwendungsfelder sich voraussichtlich ausweiten.

Algorithmische Systeme sind ein solches Beispiel. So analysiert eine spezielle Interner Link: Software  im Justizwesen der USA Datenprofile von straffällig Gewordenen und ermittelt einen "Kriminalitätsrisikowert" für diese Personen. Dieser Wert fließt in die Entscheidung von Richterinnen und Richtern ein, wenn sie erwägen, ob ein Häftling vorzeitig auf Bewährung aus der Haft entlassen werden darf oder wie lang die Haftstrafe bei einem Schuldspruch sein soll. Ein weiteres Feld ist das Personalwesen: Algorithmische Systeme filtern hier Bewerbungen für eine bestimmte Stelle vor. Damit bekommt die Personalabteilung die der Software zufolge passenden Kandidatinnen und Kandidaten vorgelegt.

In diesen Bereichen geht es nicht nur darum, technologische Prozesse zu optimieren. Vielmehr ist der entscheidende Punkt, dass die Analysen algorithmischer Systeme hier über menschliche Schicksale (mit-)bestimmen. In diesem Zusammenhang stellen sich etwa Fragen in Bezug auf bestehende gesellschaftliche Normen wie die Gleichbehandlung. Einerseits kann der Einsatz solcher Systeme eine Chance sein, bestehende Formen der Diskriminierung aufzulösen: Sie entscheiden jedes Mal nach den gleichen, vorab bestimmten Kriterien. Demnach unterscheiden sie weder bewusst noch unbewusst zwischen Menschen, etwa aufgrund von Vorurteilen oder situativen Einflussfaktoren wie der Stimmungslage.

Andererseits sind auch algorithmische Systeme nicht von Vorurteilen befreit. Denn wie diese Systeme gebaut sind, hängt letztlich von vorurteilsbehafteten Menschen ab. Ein einfaches algorithmisches System kann über die Zielvorgaben diskriminieren, die Entwicklungsteams vorgeben. Oft finden solche Bewertungsvorgaben unbewusst, auf Grundlage gängiger gesellschaftlicher Stereotype statt. Das macht eine Reflexion und Diskussion darüber notwendig, welche Annahmen in algorithmische Systeme einfließen und welche individuellen und gesellschaftlichen Folgen das hat. Dann kann der Versuch stattfinden, algorithmische Systeme so zu gestalten und einzusetzen, dass sie sich an breit geteilten Wertvorstellungen orientieren.

Ethische Fragestellungen zu lernenden algorithmischen Systemen, also Künstlicher Intelligenz, knüpfen direkt an die zuvor beschriebene Herausforderung an. Denn auch lernende Systeme sind eine bestimmte Art algorithmischer Systeme. Selbstlernende Bewerbungssoftware analysiert beispielsweise die Profile aller Mitarbeitenden eines Unternehmens, um herauszufinden, welche Merkmale besonders erfolgreiche Beschäftigte haben. Die herausgefilterten Muster wendet das System in Folge auf die künftigen Entscheidungen an und filtert danach Bewerbungen. Wenn ein Unternehmen in der Vergangenheit Frauen systematisch benachteiligte und deshalb zu wenige Frauen einstellte, dann lernt ein System aus diesen Daten, auch dieses Muster zu erkennen und zu übernehmen: Es wählt nun ebenfalls bevorzugt männliche Bewerber aus.

Die digitalethische Debatte zu Künstlicher Intelligenz geht noch weiter. Anwendungen wie Sprachassistenten sind so gestaltet, dass die Gesprächsverläufe denen zwischen Menschen ähneln sollen. Sogenannte Interner Link: anthropomorphe  Roboter, in denen verschiedene lernende Systeme wirken, sind dem menschlichen Erscheinungsbild nachempfunden. Der Bereich der Interner Link: Robotik  umfasst auch nicht-menschenähnliche Roboter, die etwa in Fertigungsprozessen in der Industrie eingesetzt werden. Vor allem die anthropomorphen Roboter werfen ethische Fragen auf. Dazu zählt etwa, in welchen Bereichen und für welche Aufgaben solche Roboter eingesetzt werden sollen und wann ihr Einsatz unmöglich erscheint, weil er Konsequenzen hat, die nicht geltenden Wertvorstellungen entsprechen. Eine solche Diskussion findet gegenwärtig etwa im Bereich Pflege statt. Hier gibt es zahlreiche Einsatzbereiche, in denen Roboter entlasten könnten.

Der Deutsche Ethikrat veröffentlichte im März 2020 eine Stellungnahme dazu, wie ein ethischer Umgang mit Robotern in der Pflege aussehen könnte. Er kommt zum eindeutigen Schluss, dass sie menschliches Personal nicht ersetzen dürfen. Mit ihrer Hilfe könnten bestehende personelle Engpässe nicht beseitigt werden. Roboter seien nur in bestimmten Kontexten ethisch vertretbar, etwa bei schweren Tätigkeiten wie dem Heben bewegungseingeschränkter Menschen. Jedoch dürfe ein Roboter niemals den zwischenmenschlichen Kontakt ersetzen.

Auch der Grad der Autonomie von Robotern steht in der Diskussion (siehe auch Kapitel Interner Link: Kriminalität, Sicherheit und Freiheit). Eine übergeordnete Frage dabei ist: Wie selbstständig dürfen Roboter Entscheidungen treffen? Und wer übernimmt die Verantwortung für mögliche Konsequenzen dieser Entscheidungen? Die ethische Debatte behandelt hierbei, analog zur Tierethik, die Frage, ob und ab wann etwas als ein Geschöpf gilt, das eigene Rechte verdient. Letztendlich geht es dabei um das grundlegende Verhältnis zwischen Menschen und Robotern.

QuellentextElektronische Gefährten

Frau Darling, Sie untersuchen als Roboterethikerin die Interaktion zwischen Menschen und Maschinen. Bei Ihren Vorträgen sieht man Sie immer wieder mit einem "Pleo", einem Baby-Dino-Roboter. Wie würden Sie Ihre Beziehung beschreiben?

Ich habe 2007 von diesem Spielzeug, dem Baby-Dino-Roboter aus Japan, gelesen und einen bestellt, weil mich zunächst die Technik interessiert hat. Er ist mit Mikrofonen, Berührungssensoren und Infrarotkameras ausgestattet und sehr gut darin, lebensnahes Verhalten nachzuahmen. Aber dann ist etwas passiert, was mich selbst überrascht hat: Ich habe eine emotionale Bindung zu ihm aufgebaut.
Wie hat sich das bemerkbar gemacht?

Pleo kann Schmerzäußerungen sehr gut nachahmen. Wenn ich meine Freunde aufgefordert habe, Pleo am Schwanz in die Höhe zu halten, fing er an zu weinen. Ich habe bemerkt, dass mich das gestört hat, was seltsam ist, denn ich weiß ja, wie die Technik funktioniert. An Robotern war ich schon immer interessiert, aber es war genau dieser Moment, der mein Interesse an Roboter-Mensch-Interaktionen geweckt hat.

Haben Sie Ihren Pleos Namen gegeben? […] Etwas zu benennen ist ein Ausdruck von Empathie.

Es ist bemerkenswert und oft das Erste, was Leute tun, wenn sie mit Robotern interagieren, selbst wenn es um Saugroboter im Haushalt geht. Etwa achtzig Prozent von ihnen tragen Namen […]. Wir sind in gewisser Weise biologisch darauf programmiert, Roboter als lebendige Wesen wahrzunehmen. Unser Gehirn analysiert fortwährend unsere Umgebung und teilt alles in zwei Kategorien ein: Objekte und Agenten. Wir reagieren auf bestimmte Bewegungen, und obwohl wir wissen, dass Roboter nur Objekte sind, projizieren wir Absicht und Intention in ihr Verhalten, weil sie sich auf eine Weise im Raum bewegen, die autonom erscheint. Dazu kommt unsere grundsätzliche Tendenz zu anthropomorphisieren, also menschenähnliches Verhalten, menschliche Emotionen und Qualitäten auf Nichtmenschliches zu übertragen. Wir tun das mit Tieren wie mit unseren Autos. Und wir machen das Gleiche mit Robotern. […]

Wenn wir fähig sind, Robotern Mitgefühl entgegenzubringen, können wir sie ebenso gut mit anderen starken Emotionen wie Hass belegen?

O ja! Ein Beispiel sind Sicherheitsroboter, die ein bisschen so aussehen wie die "Daleks" aus der Serie "Doctor Who". Diese Roboter patrouillieren oft anstelle von Wachmännern auf Parkplätzen oder in Gebäuden. Sie sind mit Kameras ausgestattet und sehen unheimlich aus. Immer wieder schubsen Leute sie, versuchen sie umzuwerfen und können sie einfach nicht leiden. Ein anderes Beispiel sind Drohnen. Menschen gefällt es nicht, von Drohnen ausspioniert und fotografiert zu werden. […]

Ist Ihre Empathie Robotern gegenüber geringer geworden, seit Sie so viel über sie wissen?

[...] Wir können eine klinische Distanz zu ihnen gewinnen, wenn wir müssen. Aber ehrlicherweise macht es so viel Spaß und fühlt sich so natürlich an, dass wir sie wieder wie Gefährten behandeln, sobald wir nicht mehr im Dienst sind.

Kate Darling beschäftigt sich am Media Lab des Massachusetts Institute of Technology mit rechtlichen, sozialen und ethischen Auswirkungen von Roboter-Mensch-Beziehungen.
Anna-Lena Niemann, "Roboter sind unsere Gefährten", Interview mit Kate Darling, in: Frankfurter Allgemeine Woche Nr. 5 vom 24. Januar 2020 © Alle Rechte vorbehalten. Frankfurter Allgemeine Zeitung GmbH, Frankfurt. Zur Verfügung gestellt vom Frankfurter Allgemeine Archiv

Menschliche Charakteristika wie Kreativität, Emotionalität und Empathie sowie die Fähigkeiten, vielfältige Probleme auf ebenso vielfältige Weise zu lösen und abzuwägen, helfen uns, unsere Definition von Humanität zu schärfen. Insofern bringt die Digitalisierung nicht nur fortlaufend neue Technologien in unser Leben. Vielmehr hält sie uns dazu an, uns als Menschen unserer Humanität zu vergewissern und uns zugleich unseres Einflusses auf die technologische Weiterentwicklung bewusst zu werden.

QuellentextWarum KI den Menschen nicht ersetzen kann

Der Glaube daran, dass Computer demnächst ein Bewusstsein entwickeln werden und uns Menschen dann sagen, wo's langgeht, hat sich außerhalb des Silicon Valley noch nicht allgemein durchgesetzt. Intuitiv scheint sich irgendetwas gegen die Vorstellung zu sträuben. Aber wenn man den Glauben in dessen einzelne Bestandteile zerlegt, stößt man auf lauter Annahmen, die durchaus auf breites Einverständnis zählen dürften: Den Menschen mache im Wesentlichen aus, was in seinem Gehirn vorgeht; Gehirntätigkeit sei Informationsverarbeitung; Informationen seien Daten.
Aus diesen Elementen lässt sich dann im Umkehrschluss ohne weiteres folgern: Wenn es nur gelingt, genauso viel Daten zusammenzubringen wie das menschliche Gehirn (manche Verfechter der Künstlichen Intelligenz rechnen mit 10 hoch 16 Operationen pro Sekunde), kann Bewusstsein künstlich erzeugt werden, das dann in der Lage ist, sich selbständig zu machen.

Es ist eine eigentümlich abstrakte, entmaterialisierte Welt, in der solche Planspiele ihren Schauplatz haben – eine Welt jedoch, die umso mehr an Plausibilität gewinnen dürfte, je vollständiger auch die Alltagswelt über das Smartphone in Daten eingetaucht ist.

[…] Der Historiker Yuval Noah Harari zum Beispiel hatte viel Erfolg mit seinem Titel "Homo Deus", in dem er angesichts der neuen technischen Verheißungen nicht nur den Humanismus und den Individualismus, sondern auch gleich den Menschen selbst zu einer Sache der Vergangenheit erklärte: "Homo sapiens ist ein obsoleter Algorithmus". […] Thomas Fuchs [...], der an der Universität Heidelberg die Karl-Jaspers-Professur für philosophische Grundlagen der Psychiatrie und Psychotherapie innehat, […] untersucht nun [in seinem neu erschienenen Buch] [...] die einzelnen Elemente, aus denen der Glaube an die technologische Evolution gewoben ist. Verblüffend und erhellend zugleich ist dabei, wie einfach inmitten der einschüchternden Komplexität der Materie letztlich die Kategorienfehler sind, denen er auf die Spur kommt – einfach, indem er einen Schritt zurücktritt.

Das fängt schon mit der Abwehr der unscheinbaren Behauptung an, dass Computer es mit "Informationen" zu tun hätten. Doch damit Daten zu Informationen werden, bedürfen sie eines Empfängers, der sie versteht. Eine von einem möglichen Adressaten losgelöste Information ist ein Widerspruch in sich. […] Der Computer allein verarbeitet weder Informationen noch rechnet oder denkt er: "Für sich betrachtet, wandelt der Apparat nur elektronische Muster nach programmierten Algorithmen in andere Muster um."

Diese Klärung hat weitreichende Folgen. Denn die Daten, mit denen das Gehirn umgeht, sind im Unterschied zu denen des Computers durchaus Informationen – aber nur insofern, als das Gehirn eben nicht für sich allein steht.

Damit ist Fuchs bei der zweiten Behauptung, der er einen Denkfehler nachweist: dass das menschliche Bewusstsein mit den Operationen des Gehirns identisch sei. Eine plastische Illustration dieser Auffassung ist das Gedankenexperiment des "Gehirns im Tank", bei dem sich der Philosoph Hilary Putnam ein dem Körper entnommenes und in einer Nährlösung eingelegtes Gehirn vorstellte: Die Daten, die ihm fortlaufend ein Supercomputer einspeist, sorgen dafür, dass es das Bewusstsein eines ganz normalen Lebens in der Welt hat. "Woher nehmen Sie eigentlich die Gewissheit", ergänzte der Philosoph Thomas Metzinger, "dass Sie sich nicht jetzt gerade, während Sie dieses Buch lesen, in einem Gefäß mit einer Nährlösung befinden?"

Fuchs erwidert, dieses Experiment beweise nur, was es voraussetzt, dass nämlich alles Erleben bloß eine Datenansammlung im Gehirn sei. Doch diese Annahme ignoriere die enge Verbindung, die das Organ des Gehirns mit einem lebendigen Körper eingeht: "Bewusstsein entsteht nicht erst im Kortex, sondern es resultiert aus den fortlaufenden vitalen Regulationsprozessen, die den ganzen Organismus mit einbeziehen und die im Hirnstamm und höheren Zentrum integriert werden." Ohne den Körper sei die Einbeziehung der äußeren Welt, die das Bewusstsein charakterisiert, nicht zu erklären: "Bewusstsein ist überhaupt kein lokalisierbarer Gegenstand, auf den man zeigen könnte wie auf einen Stein oder Apfel. Es ist ein Wahrnehmen-von …, Sprechen-mit …, Sich-Erinnern-an …, Wünschen-von …, das heißt, ein gerichteter Prozess, der eine Welt eröffnet." Nicht Gehirnen könne man daher Bewusstsein zusprechen, sondern nur Menschen.

[…] Als "Zerebrozentrismus" bezeichnet er die Idee, den Menschen als Kopfgeburt, als reines Gehirnwesen, zu betrachten, so wie es bei manchem Reden über Künstliche Intelligenz geschieht und erst recht bei denen, die den menschlichen Geist auf eine Festplatte laden wollen (das sogenannte "mind uploading").

Solchen transhumanistischen Phantasien, die die konkrete körperliche Existenz weniger als Ermöglichung denn als Hindernis, als Einschränkung der persönlichen Freiheit verstehen, hält er ein erstaunlich poetisches Zitat von Immanuel Kant aus der Kritik der reinen Vernunft entgegen: "Die leichte Taube, indem sie im freien Fluge die Luft teilt, deren Widerstand sie fühlt, könnte die Vorstellung fassen, daß es ihr im luftleeren Raum noch viel besser gelingen werde." Doch der luftleere Raum ist ein Trugbild. Das Bewusstsein, ergänzt Fuchs, bedarf der Materialität des Körpers, um zu existieren.

Den radikalsten Kategorienfehler macht Fuchs dann in der Verwechslung des Grundlegendsten, des Lebens, mit dessen Funktionen aus […].

Dass das Leben eine Selbsttätigkeit ist, die von keiner Simulation eingeholt werden kann, dieser schlichte Umstand wird […] einfach ausgeklammert.

[…] Es ist vielleicht nicht nur voreilig, sich mit lässiger Gebärde vom Lebewesen Mensch zu verabschieden. Es ist auch ignorant und fahrlässig. Eine generelle Abwertung von Erfahrung steckt darin, sowohl persönlicher als auch jener, die in den Kulturen enthalten ist. […] Die Gefahr besteht in Wirklichkeit womöglich gar nicht darin, dass sich unsere Apparate selbständig machen. Bedrohlicher könnte es sein, dass Menschen dies nur behaupten, um ihre Verantwortung auf die Apparate abzuwälzen – bei der gezielten Entfesselung halbautonomer Waffensysteme zum Beispiel.

Vielleicht ist die eingebildete Kränkung, die der Mensch durch seine Apparate zu erleiden vorgibt, die eigentliche politische Gefahr.

Mark Siemons, "Sind wir etwa doch keine Algorithmen?", in: Frankfurter Allgemeine Sonntagszeitung vom 9. August 2020 (Buchrezension: Thomas Fuchs: Verteidigung des Menschen. Grundfragen einer verkörperten Anthropologie, Berlin 2020) © Alle Rechte vorbehalten. Frankfurter Allgemeine Zeitung GmbH, Frankfurt. Zur Verfügung gestellt vom Frankfurter Allgemeine Archiv

QuellentextKI ist nur ein Werkzeug

[…] Herr Dräger, […] was ist Ihr Verständnis von Künstlicher Intelligenz?

Ich finde den Begriff Künstliche Intelligenz […] problematisch, weil er suggeriert, dass diese maschinelle Intelligenz uns ersetzt – so wie ein künstliches Hüftgelenk unser natürliches Hüftgelenk ersetzt. Ich selbst favorisiere den Begriff "erweiterte Intelligenz", weil es genau darum geht: Es gibt manches, für das wir Menschen nicht gebaut sind, etwa die Analyse riesiger Datenmengen. Das kann uns die Maschine abnehmen. Aber sie kann uns eben nicht abnehmen, ethische Ziele zu setzen, zu plausibilisieren und zu kontrollieren. Das sind menschliche Eigenschaften – und das werden auch im KI-Zeitalter menschliche Eigenschaften bleiben.
Weil die Maschinen dafür eben doch nicht intelligent genug sind?

Zumindest, was die Breite der Anwendung angeht. Ein Schachcomputer, der auf acht mal acht Feldern nahezu unschlagbar ist, wäre bei neun mal neun Feldern erst einmal aufgeschmissen. Schon da ist das Übertragungswissen kaum vorhanden. Und wenn ich einen Schachcomputer bitte, Bilder zu erkennen, dann würde er kläglich scheitern. Wir Menschen können Gelerntes auf etwas anderes übertragen – auch das ist Teil unserer Intelligenz im menschlichen Sinne. Insofern will ich zur Demystifizierung der Künstlichen Intelligenz beitragen: KI ist nur ein Werkzeug!

Der Bauer, der nicht dem Pflug hinterherlaufen will, setzt sich auf den Traktor. Und der Mensch, der nicht mehr Millionen von Daten abgleichen will, sucht sich eben eine KI, die das für ihn übernimmt. Wir müssen uns an die Normalität eines Hilfsmittels für unsere Kognition gewöhnen, wir dürfen nicht gleich beleidigt sein, wenn eine Maschine etwas besser kann als wir. […] Menschen nutzen Kräne zum Heben und fahren Autos zur Fortbewegung. Deswegen sollten wir eine Rechenmaschine auch nicht als Beleidigung unseres Gehirns verstehen. Uns Menschen zeichnet aus, dass wir ethische Bewertungen abgeben können, dass wir Bindungen aufbauen und Ziele setzen können. Und da greift uns die Maschine gar nicht an, das kann sie überhaupt nicht.

Um jetzt mal die Sorge vieler Menschen anzuführen: Wo greift sie uns denn an?

In den sich wiederholenden, manchmal auch stumpfen Tätigkeiten […] KI gibt uns im Idealfall Zeit fürs Wesentliche, also für Dinge, die nur wir Menschen können. Maschine und Mensch gegeneinander auszuspielen ist unsinnig, es geht darum, Mensch mit Maschine gemeinsam wirken zu lassen. Viele Menschen haben immer noch diese Horrorvorstellung vom Terminator, von der bösen KI, die sich verselbstständigt und die Kontrolle übernimmt. Aber im Grunde sind es nur Rechenmaschinen, die in unserem Auftrag bestimmte Dinge erledigen.

Sie sagen, Maschinen können Stärken rausfiltern, die der Mensch nicht erkennt. Nun können sie aber auch Schwächen erkennen, die dem Menschen nicht auffallen. Und damit sind wir mittendrin in der ethischen Diskussion, etwa über Social scoring in China …

Da stellt sich mir die Frage, ist das Problem bei diesem Social scoring in China wirklich die Maschine – oder nicht eher das politische System? […] Das Problem hinter den Algorithmen ist […] der jeweilige politische Wille. Ist das Ziel eines Algorithmus Effizienz, kann es zu weniger Solidarität führen. Streben wir Sicherheit an, kann das auf Kosten der Freiheit gehen.

Sollten wir uns gerade deswegen nicht vom technisch Möglichen, sondern vom gesellschaftlich Gewollten leiten lassen?

Ganz eindeutig ja. Dafür brauchen wir aber auch ein gesellschaftliches Selbstbewusstsein, uns muss klar sein: Wir bestimmen als Gesellschaft politisch über den Einsatz von KI – und nicht die Technologiekonzerne, weil irgendwas möglich geworden ist. Diese Hoheit der Politik funktioniert aber nur, wenn wir dafür kämpfen.

Es scheint aber so, als wäre das technisch Mögliche der Treiber.

In Teilen leider ja, weil wir als Gesellschaft unsere Gestaltungsmöglichkeiten viel zu wenig nutzen. Es ist ja nicht so, dass es in der analogen Welt keine Probleme gibt: Rassismus, Diskriminierung, Ungerechtigkeit, das kommt ja nicht erst durch die Digitalisierung. Aber genau diese Probleme können wir mit KI zumindest lindern.

Im Moment lassen uns aber als Gesellschaft regelrecht treiben und verwechseln den Konsum digitaler Angebote mit einer kompetenten Nutzung von Digitalisierung. Wir sollten nicht über die negativen Effekte von Digitalisierung lamentieren, sondern den Spieß umdrehen und klären, welche gesellschaftlichen Probleme wir mit der neuen Technik lösen wollen. […] Mir scheint: Wirtschaft sieht gerne die Chancen der KI und übersieht dabei manche Risiken, während die Gesellschaft nur die Risiken sieht und die Chancen übersieht. […]

Wie ließe sich das lösen?

Mit Transparenz. Ich möchte solche Kriterien transparent haben, so dass die Menschen darüber diskutieren und sich bewusst ein Bild machen können. […] Aber so lange der Algorithmus mit seiner Wirklogik im Verborgenen bleibt, kriegt das niemand mit – und kann sich auch nicht aufregen. Und wenn ich mich nicht aufregen kann, kann ich auch keine anderslautende Entscheidung treffen […]. Und das meine ich, wenn ich sage: wir brauchen Kompetenz und Transparenz. Wir müssen verstehen können, was vor sich geht. […]

Um nochmal auf den Anfang zurückzukommen: Sie sagen, wir müssen die Angst vor den Maschinen in Respekt und Verständnis umwandeln – wie könnte das funktionieren?

Es bringt nichts, Digitalisierung zu verherrlichen, es bringt aber auch nichts, nur Dystopien zu zeichnen. Die Wahrheit liegt in der Mitte. Das Wichtigste an dieser Debatte ist, Ross und Reiter auseinander zu halten. Wir Menschen halten die Zügel in der Hand. So lange aber in der Gesellschaft das Gefühl vorherrscht, die Maschine bestimmt über uns, sie erledigt unsere Aufgaben und nimmt uns irgendwann den Job weg, bleibt die Angst. Dieses Gefühl müssen wir adressieren und die Debatte konstruktiv drehen. Wir Menschen wollen nicht, dass Maschinen über uns bestimmen. Es geht darum, dass der Mensch mit der Maschine etwas gestaltet. Es geht um ein Miteinander von Mensch und Technik. […] Ich frage die Maschine, wo geht’s lang – und dann entscheide ich, ob ich deren Rat folge oder einen anderen Weg nehme. Die Maschine ist ein Helfer. Und dieses Bild müssen wir erschaffen.

Der Physiker und Bildungsexperte Jörg Dräger ist seit 2008 Vorstandsmitglied der Bertelsmann Stiftung und verantwortet die Bereiche Bildung und Integration. Zudem lehrt er Public Management an der Hertie School of Governance.
"Es bringt nichts, nur Dystopien zu zeichnen", Interview von Boris Halva mit Jörg Dräger, in: Frankfurter Rundschau vom 12. Dezember 2019 © Alle Rechte vorbehalten. Frankfurter Rundschau GmbH, Frankfurt

Jaana Müller-Brehm ist Sozialwissenschaftlerin und übernimmt beim iRights.Lab analytische, redaktionelle und koordinatorische Aufgaben in den Themenfeldern Öffentlichkeit, Demokratie, Menschenrechte, Gesellschaft und Bildung immer im Zusammenhang mit der Digitalisierung.

Philipp Otto ist Gründer und Direktor des Think Tank iRights.Lab und einer der führenden Digitalisierungsexperten in Deutschland. Er ist Jurist und war Visiting Researcher beim Berkman Center for Internet & Society an der Harvard University. Auch leitet er das Innovationsbüro Digitales Leben des BMFSFJ und verschiedene weitere hochrangige Bundesprojekte in anderen Häusern. Er hat eine Vielzahl an Büchern, Aufsätzen und strategischen Analysen an der Schnittstelle zwischen Recht, Technik, Gesellschaft und Politik im Kontext der Digitalisierung veröffentlicht.

Michael Puntschuh ist Sozialwissenschaftler und Projektkoordinator beim iRights.Lab. Zu seinen Arbeitsgebieten gehören Menschenrechte online, Governance des Cyberspace und Digitale Ethik sowie andere gesellschaftliche und rechtliche Fragen digitaler Technologien.