Künstliche Intelligenz durchdringt zunehmend alle Lebensbereiche der Gesellschaft. Dabei werden digitale Prozesse im Beruf überwiegend positiv, im Privaten jedoch eher negativ wahrgenommen.
Künstliche Intelligenz (KI) und Generative KI wie ChatGPT bestimmen zunehmend alle Lebensbereiche in unserer Gesellschaft. Oftmals ist einem gar nicht bewusst, dass KI in einem Gerät, einer Anwendung oder einem Medium enthalten ist. So begegnen Bürger:innen und Konsumierende den KI-Technologien in den Social Media, beim Kauf von Kleidung im Internet, bei der Buchung einer Reise, beim Erlernen einer Sprache, bei virtuellen Therapiesitzungen und auch immer häufiger in den journalistischen Medien. Wir kommen also mit KI in Berührung, wenn wir kommunizieren, uns für etwas entscheiden, uns bilden, uns um einen Job bewerben oder Rat und Hilfe suchen und eine Meinung bilden.
KI-freie Zonen wird es künftig in nur noch wenigen sozialen Sphären geben, zumindest was die hochentwickelten Länder betrifft. Auch im beruflichen Kontext werden Menschen immer häufiger dazu veranlasst werden, sich in KI-Tools (-Werkzeuge) einzuarbeiten und diese kompetent anzuwenden. Entgegen der landläufigen Meinung, dass die Digitalisierung überwiegend Ängste und Bedenken hervorrufen würde, zeigen Untersuchungen, dass digitale Prozesse im beruflichen Sektor überwiegend positiv (nützlich, funktional, und effektiv) wahrgenommen werden. Hingegen wird dem Digitalen im privaten Nutzungsbereich eher negative Effekte zugeschrieben wie Abhängigkeit, Erhöhung von Stress, Unfreiheit, Desinformation, Privatheitsverlust und unverbindliche Beziehungen.
Wenn eine Technologie wie KI, die auf automatisierten Entscheidungssystemen beruht, immer häufiger in unserer Gesellschaft eingesetzt wird, dann verstärkt sie den Trend zu einer Automatisierung der Gesellschaft, in der soziale Strukturen mit diesen Technologien verwoben werden. Einher damit geht eine zunehmende Datafizierung der Gesellschaft, da KI-Technologien auf großen Datensätzen, also Interner Link: Big Data, basieren. Dieser Prozess ist nicht neu, da bereits im Zuge der Digitalisierung Transformationen in fast allen gesellschaftlichen Systemen, wie Wirtschaft, Bildung, Gesundheit etc., stattfanden. So beobachtet Steffen Mau eine „Vercodung jener sozialen und persönlichen Bereiche, die uns einstmals als Gegenpol zur rationalisierten Welt der Daten und der Objektivität erschienen (…)“. „Die Rückzugsorte schrumpfen immer weiter, so dass man sich schon anstrengen muss, um überhaupt noch letzte Reservate der Datenfreiheit zu entdecken.“ Welche Folgen KI für die Weltwirtschaft und die Gesellschaften haben wird, ist schwer berechen- und vorhersehbar. Bis kurz vor der Verbreitung von generativen KI-Technologien ging die wissenschaftliche Literatur weitestgehend davon aus, dass KI die menschliche Arbeit größtenteils ergänzt, nicht ersetzt. Neuere Prognosen gehen davon aus, dass insbesondere die hochentwickelten Volkswirtschaften die Auswirkungen der generativen KI-Tools in der Arbeitswelt deutlicher spüren werden. So wird prognostiziert, dass ein Teil der hochqualifizierten Jobs negativ betroffen sein wird, da deren Arbeitskraft ersetzbar ist, ein Teil aber auch profitieren kann – das betrifft insbesondere die Arbeitnehmer, die jung, anpassungsfähig und mit den Technologien vertraut sind. Carl Benedict Frey, Mit-Autor der wegweisenden Arbeitsstudie zur Digitalisierung „The Future of Employment“ (2013), geht davon aus, dass KI nun auch die kreativen und komplexen sozial-interaktiven Jobs betreffen werde. Zudem würden Wissensberufe Einkommensbußen erleiden, da künftig die Einstiegshürden für höher qualifizierte Jobs durch KI-Tools geringer seien: Beispielsweise könnten weniger begabte Autor:innen oder Programmierer:innen mit Hilfe generativer KI-Tools ihre Ergebnisse einfach optimieren.
Zitat
Die Durchdringung vieler Lebensbereiche mit den neuen digitalen Technologien erhöht jedenfalls den Bedarf an Regulierung und ethischer Orientierung, da sich neue soziotechnische und kommunikative Praktiken, neue Märkte und politische Machtverhältnisse herausbilden.
Big AI-Player
Technologien sind niemals losgelöst von gesellschaftlichen und politischen Machtstrukturen zu betrachten. So erleben wir erstmals in der Zivilisationsgeschichte der Menschheit eine Epoche, in der die ökonomische Macht über Kommunikation und Alltagshandeln auf wenige Firmen, insbesondere die großen digitalen Plattformen, konzentriert ist. Die Big-Tech-Unternehmen MAAMA – Microsoft, Alphabet („Google“), Amazon, Meta („Facebook“, „Instagram“, „WhatsApp“) und Apple – sind auch die marktdominierenden Entwickler und Betreiber der neuen KI-Technologien. Auf deren Entwicklungen und Infrastrukturen bzw. Web Services können die anderen Unternehmen zugreifen, sofern sie dafür zahlen oder in Tauschgeschäfte einwilligen. So haben z. B. die großen Publisher wie Axel Springer und Rupert Murdoch („Wall Street Journal“, „The Times“, „The Sunday Times“, „The Daily Telegraph“ sowie die Boulevardzeitungen „New York Post“ und „The Sun“) einen Nutzungspakt mit OpenAI (engl. AI = Artificial Intelligence = dt. Künstliche Intelligenz, KI) geschlossen und erhoffen sich dadurch vor allem mehr Produktivität, Effektivität und Effizienz ihrer Geschäftsprozesse sowie Kosteneinsparungen.
KI-generierter Content wird in Zukunft das Web maßgeblich bestimmen: Dabei handelt es sich um Texte, Stimmen, Bilder, Videos, die in journalistischen Angeboten, in Unterhaltungsmedien oder in der Werbung über die verschiedenen Kanäle der digitalen Plattformen und Messenger, wie z. B. über WhatsApp, personalisiert ausgespielt werden. Hinzu kommen in sogenannten „AI Content Farmen“ generierte KI-Beiträge, die das Web fluten und damit die Glaubwürdigkeit der Informationsmedien noch weiter unterminieren, da deren Inhalte nicht selten falsch bzw. unwahr sind. Vor allem aber werden auch für die politisch motivierten rechtsextremen und antidemokratischen Desinformationskampagnen KI-Technologien genutzt, um die öffentliche Meinung und Wahlen gezielt zu beeinflussen. Ob sich vor diesem Hintergrund das Web und die digitale öffentliche Sphäre noch mehr zu einem Raum des Misstrauens verändern, bleibt zum gegenwärtigen Zeitpunkt offen. Nach dem Sprung vom ursprünglich freien Web zum kommerzialisierten Web des Überwachungskapitalismus wird nun womöglich durch KI-generierte Inhalte erneut eine Transformation des Web erfolgen, die möglicherweise zu einem erneuten Strukturwandel der Öffentlichkeit sowie der Kreativ- und Kommunikationsbranche führt. Bevor die Chancen und Risiken der KI vertieft werden, sollte der Begriff „Künstliche Intelligenz“ und dessen Mythos genauer betrachtet werden.
Künstliche Intelligenz – Begriff und Kritik
Der Begriff „Künstliche Intelligenz“ suggeriert, dass eine dem Menschen vergleichbare Intelligenz existiert. Nicht nur in populären Medien, auch in der Wissenschaft tendieren viele dazu, KI sprachlich zu vermenschlichen. So wird KI fast immer mit folgenden Attributen beschrieben: denken, lernen, verstehen, entscheiden, wahrnehmen, Probleme lösen. Oder zumindest ist von „Menschenähnlichkeit“ die Rede. Wenn ChatGPT Falschinformationen liefert, dann wird der KI „Halluzinationen“ unterstellt, die eigentlich nur ein Mensch haben kann. Dass künstliche Systeme menschenähnliche Intelligenz besitzen, ist allerdings nicht der Fall. Diese kritische Haltung nimmt auch der Philosoph Thomas Fuchs in seinem Aufsatz mit dem Titel Menschliche und künstliche Intelligenz. Eine Klarstellung ein. Dort heißt es:
Zitat
Intelligenz im eigentlichen Sinne des Wortes ist an Einsicht, Übersicht und Selbstbewusstsein gebunden: verstehen, was man tut. Leben ist Selbstorganisation und Selbstbewegung, nicht Herstellung und Programmierung. Und Leben als Erleben ist wiederum die Voraussetzung für Intelligenz.
Vorgeschlagen wird hier deshalb eine Definition von KI, die möglichst auf Vermenschlichung verzichtet. In Anlehnung an die KI-Definition der EU-KI-Verordnung kann Künstliche Intelligenz definiert werden als ein maschinengestütztes System, das automatisiert funktioniert und anpassungsfähig ist. Mithilfe dieses Systems können Ergebnisse berechnet werden, die für Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen genutzt werden und die die physischen oder virtuellen Umgebungen beeinflussen können. Die Definition ist ein bisschen lang und kompliziert. Einfacher ausgedrückt könnte man sagen:
Zitat
KI ist ein maschinelles automatisiertes System, das sich selbst optimiert, Muster erkennt und Wahrscheinlichkeiten schnell berechnet.
KI-Mythos und Menschenbild
Für das Verständnis von KI ist es nicht unerheblich, welches Menschenbild zugrunde gelegt wird: Was macht den Menschen aus? Welches Menschenbild haben wir? Menschenbilder sind Konzepte des Menschen, die historisch und kulturell variabel sowie milieuspezifisch gestaltet sein können. Nicht selten stehen sie in Konkurrenz zueinander und sind Ausdruck unterschiedlicher Weltanschauungen und Gesellschaften. Wenngleich das Wort in seiner begriffsgeschichtlichen Betrachtung vielbedeutend ist, kann von einer allgemeinen und offenen Definition ausgegangen werden, wonach Menschenbilder als „mehr oder weniger kohärente Bündel von Annahmen über als wichtig angesehene Eigenschaften des Menschen“ zu verstehen sind.
Zitat
Sprechen wir von Intelligenz, dann greift es zu kurz, diese auf eine Informationsverarbeitung zu reduzieren, wie es in der Computerwissenschaft und den Kognitionswissenschaften üblich war und ist. Intelligenz bedeutet auch emotionale, soziale und kreative Intelligenz. Diese sind nach wie vor nur dem Menschen vorbehalten.
Zumindest wenn man die Auffassung vertritt, dass menschliche Intelligenz komplexer ist als ihre Reduktion auf eine messbare, überindividuelle und leibunabhängige Größe. So kritisiert der Philosoph Carl Friedrich Gethmann, dass viele KI-Forscher:innen ein „funktionalistisches Verständnis menschlicher Fähigkeiten“, das für den Naturalismus der Naturwissenschaften charakteristisch sei, übernommen haben. Dementsprechend gehe der anthropologische Funktionalismus (stillschweigend) von drei Prämissen aus, die das Menschenbild bestimmen würden: „Messbarkeit“, „Leiblosigkeit“ und „Nicht-Individualität“. Menschliches Handeln, so Gethmann, sei jedoch nicht in seiner Komplexität messbar und menschliche Intelligenz sei „an die leibliche Realisierung gebunden“. Ebenso sei menschliches Handeln im Unterschied zu technischen Artefakten individuell.
Bewusstsein und Gefühle sind Dispositionen, die dem Menschen eigen sind. Auch wenn unklar ist, wie Bewusstsein entsteht und was Bewusstsein eigentlich ist, kann derzeit nicht davon ausgegangen werden, dass Maschinen zur Selbstreflexion fähig sind und ein „Ich“, also eine eigene Identität, ausbilden können. Noch viel weniger sind sie in der Lage, unbewusst etwas zu verdrängen, wie es der Mensch nur allzu gerne tut. Auch über Emotionen verfügen Maschinen nicht, wenngleich sie zu deren Imitation bereits fähig sind. Sie haben auch keinen freien Willen oder biologischen Körper. Sie verarbeiten zwar selbstständig Daten, was als sogenanntes Maschinelles Lernen beschrieben wird, aber sie lernen nicht wie Menschen, die im sozialen Miteinander, aus der Erfahrung von Freude und Leid und aus Vernunftgründen lernen. Menschen können Regeln brechen und unlogisch handeln. Sie können moralische Prinzipien erkennen und auf sich selbst anwenden und sie handeln moralisch aufgrund ihres Gewissens.
Zitat
Maschinen haben kein Gewissen und können keine Verantwortung übernehmen. Aber ganz wesentlich ist: Menschen sind zur Autonomie befähigt, während Maschinen nur autonom Informationen verarbeiten.
Es ist also als KI-Mythos zu bezeichnen, dass KI eine dem Menschen ebenbürtige Intelligenz bzw. Vorstufe zur menschlichen Intelligenz darstellt.
Vermenschlichung von KI
Zugegebenermaßen ist die Selbstständigkeit der KI-Technologie und damit ihre teilweise immanente Intransparenz das qualitativ Neue und Besondere dieser Technik, womit sich auch das Verhältnis von Mensch und autonomen Maschinen neu bestimmt. So meint auch der Physiker und Philosoph Armin Grunwald: „Derartig lernende Systeme sind etwas grundsätzlich Neues. Traditionell hat der Mensch technische Geräte produziert, die auf bestimmte Zwecke, Funktionen und Eigenschaften festgelegt waren. Lernende Systeme jedoch können sich selbst verändern und für uns undurchschaubar werden.“ Das bedeutet aber nicht, dass es hinreichende Begründungen dafür gibt, dass man KI vermenschlichen soll. Wie oben gezeigt wurde, ist eine vermenschlichende Interpretation der KI aus philosophischer Sicht nicht unproblematisch. Dennoch tendieren Menschen dazu, Maschinen und Computer zu anthropomorphisieren und ihnen soziale Interaktionsfähigkeiten zuzuschreiben, obwohl sie wissen, dass es sich nicht um menschliche Akteure handelt. Dieses sogenannte CASA-Paradigma (Computers Are Social Actors / Computer sind soziale Akteure) beschreibt die Theorie der sozialen Reaktion, wonach Menschen auf soziale Signale reagieren, auch wenn sie vom Computer nur simuliert werden. Demnach kommunizieren wir mit Computern genauso wie mit Menschen, auch wenn wir wissen, dass es eine Maschine ist; beispielsweise beschimpfen wir unser Navigationssystem, wenn es uns in den Stau geführt hat. Umgekehrt ist der Mensch für die KI kein Individuum, er ist vielmehr ein Stimulus-Response-Modell (Reiz-Reaktions-Modell). So stellt sich die Frage, ob aus ethischer Sicht gerade dieses einseitige soziale Kommunikationssetting stärker in das Bewusstsein gerückt werden sollte, wenn Personen mit Sprachassistenten bzw. sogenannten „AI Companions“ (Alexa, Siri, Google Assistant, Cortina), Chatbots, News Bots, Social Bots oder Robotern kommunizieren. Denn die Erwartungshaltung an eine reziproke menschliche Interaktion, die auf Vertrauen und Ehrlichkeit, also moralischen Maßstäben beruht, kann von einer Maschine nicht erfüllt, allenfalls suggeriert werden. Das heißt, wir sollten darüber nachdenken, ob wir uns die Kompetenz aneignen sollten, KI nicht zu vermenschlichen: im Großen und Ganzen sie distanziert, aber nicht verächtlich, sondern höflich, zu behandeln.
Nur in spezifischen Fällen kann die Vermenschlichung von Robotern oder deren Kuscheltier-Aussehen auch zweifelsfrei begründet werden, so z. B. bei Dementen, bei denen soziale Roboter positive Effekte (wie geringere Medikamenteneinnahme) auslösen.Chatbots werden aber auch in anderen Kontexten, wie im Marketing, zunehmend so designt, dass sie Menschen durch die Simulation emotionaler Interaktion zu entsprechenden emotionalen Reaktionen veranlassen mit dem Ziel, Vertrauen zu schaffen. So werden auch gezielt Mechanismen in das Design von KI implementiert, um diese menschlich und sozial präsent erscheinen zu lassen. Allein die gegenderten Namen und Stimmen von Assistenzsystemen (z. B. Alexa) zeigen, dass KI-Tools nicht wertneutral gestaltet sind. So ist jedenfalls auffällig, dass viele KI-Tools mit Assistenzfunktion weibliche Stimmen bzw. Name haben. Es wäre eine Frage des Ethics by Design, also einer wertbasierten Gestaltung von KI, hier zu reflektieren, ob nicht auch eine genderneutrale Stimme der KI implementiert werden könnte. Hintergrund dafür ist die Sorge, dass wir von diesen weiblichen Assistenzsystemen Hingabe erwarten. Gleichzeitig gibt es die Befürchtung, dass unser Verhalten der KI gegenüber auf Menschen übertragen werden könnte – im Schlechten (im Sinne von Kants Verrohungsargument in Bezug auf Tierquälerei) wie im Guten (das Argument, dass an Tieren auch Mitgefühl geübt werden kann). Bei der Wahl des Geschlechts sollte den Nutzer:innen deshalb zumindest die Option gegeben werden, diese auszuwählen, und ggf. auch eine genderneutrale Alternative angeboten werden.
Der Homo digitalis scheint bereit zu sein, mit künstlichen Systemen emotionale und soziale Beziehungen einzugehen und sie nicht nur als Werkzeug, sondern auch als Assistent und ggf. Partner oder sogar als Superintelligenz (und damit als Über-Ich) wahrzunehmen. Es dürfte gleichfalls eine Herausforderung für den Menschen sein, sich zukünftig eine Kulturtechnik der de-anthropomorphisierten (nicht-vermenschlichenden), distanzierten Kommunikation im Umgang mit kommunikativer KI anzueignen.
KI-Narrative der Transformation
Wie wir die Welt verstehen, hängt maßgeblich davon ab, welche Erzählungen, also Narrative, wir Phänomenen und Entwicklungen zuschreiben. Denn sie beeinflussen unsere Sicht auf die Welt und unser ethisches bzw. unethisches Verhalten. Ebenso artikulieren sich Zeitgeist und gesellschaftliche Trends in entsprechenden Narrativen und ändern sich auch. Narrative sind durch eine sich verändernde Ereignisstruktur definiert, Transformation ist gleichsam jedem Narrativ zu eigen. Die Narrative, die gegenwärtig im öffentlichen Raum zu KI kursieren, lassen sich in zwei Metanarrative unterscheiden: Eine positive (1) bzw. erwartungsvolle KI-Erzählung sowie eine negative (2), wenn nicht gar nihilistische Erzählung.
1. Die positive bzw. erwartungsvolle KI-Erzählung
Mit KI, so lautet die erste erwartungsvolle Erzählung, werden Prozesse und Systeme effektiver und damit leistungsfähiger. Hier handelt es sich um ein Narrativ der ökonomischen Transformation. Demzufolge können KI effizientere Geschäftsmodelle und Prozesse in allen Branchen ermöglichen.
Das zweite Narrativ der Extension (Erweiterung) menschlicher Fähigkeiten postuliert, dass wir Menschen uns dank KI optimieren und zu Multitalenten werden, also unsere begrenzten körperlichen und geistigen Fähigkeiten dank KI erweitern können. Dieses Narrativ erinnert an die Extensions-Funktion, die Marshall McLuhan schon für das elektronische Zeitalter der Medien beschrieb, es wird nun um eine weitere Dimension der KI verstärkt. Hier erscheint KI als evolutionäre Transformation und Weiterentwicklung des Menschen. So werden heute bereits beispielsweise mit KI-Tools in Blitzgeschwindigkeit eine Marketing-Kampagne geprompted (gestartet), Filme synchronisiert oder Bücher geschrieben und korrigiert. Menschliche Wissensarbeit und Kreativität werden somit auf die KI ausgedehnt.
Das dritte erwartungsvolle KI-Narrativ betont den Komfort, die Annehmlichkeiten und die Vereinfachung des Lebens, die nun durch die Individualisierung unserer Bedürfnisse möglich werden (im Haushalt, beim Konsum oder beim Genuss von Medien). Diese Transformation lässt sich als ein hedonistisches Narrativ, das die Annehmlichkeiten des Lebens betonen möchte, interpretieren.
Das vierte Narrativ, das eigentlich eine konservative Rücktransformation intendiert, adressiert die Heilung bzw. den Ausgleich bestehender Missstände, wie z. B. den Pflegenotstand. KI-Technologie soll hier dazu dienen, die sozialen und gesellschaftlichen Defizite auszugleichen, also einen ehemals besseren Zustand wiederherzustellen.
Das fünfte Narrativ des Transhumanismus beinhaltet die fundamentalste Transformation. Hier geht es nicht mehr um den einzelnen Menschen oder die Gesellschaft, sondern die Menschheit. Hier soll durch KI der humanistische Mensch in ein posthumanistisches Wesen überführt werden.
2. Das korrespondierende Metanarrativ ist hingegen von negativen bzw. nihilistischen Erzählungen geprägt.
Diese erzählen uns von verschiedenen Bedrohungen. KI ist hier gleichsam der Besen des goetheschen Zauberlehrlings, der rief: „Herr, die Not ist groß! Die ich rief, die Geister werd’ ich nun nicht los!“
So wird in einem ersten Narrativ von einem möglichen Kontroll- und Autonomieverlust erzählt, da automatisierte Entscheidungs- und Vorhersagesysteme, die nicht transparent und erklärbar erscheinen, die eigene Handlungsmächtigkeit und Selbstständigkeit einzuschränken scheinen. Zudem wird in diesem Zusammenhang befürchtet, dass sich die Master-Slave-Rollen umkehren und wir am Ende diejenigen sind, die sich der KI anpassen müssen. Hier handelt es sich um ein Narrativ der individuellen Transformation.
Ein zweites negatives Narrativ ist das der Überwachung, sei es im öffentlichen Raum oder im Privaten. Chinas Überwachungstechnologien und Social Scoring-System dienen hier als Beleg, können aber für alle autokratischen Systeme gelten. Es handelt sich bei diesem Narrativ um eine fundamentale Transformation der Gesellschaft, in der die einzelne Person sich nicht mehr zur Wehr setzen kann.
Das dritte Narrativ der Destabilisierung von Demokratien erzählt von der Zunahme an Desinformation und Intransparenz. Verbunden damit ist die Befürchtung eines Wahrheitszerfalls sowie Vertrauensverlusts in Medien und Politik, die zu einer Destabilisierung von Demokratien führen kann. KI wird hier als Brandbeschleuniger von Desinformation eingestuft. Das würde grundlegende Auswirkungen auf die Prozesse und Diskurse einer demokratischen Gesellschaft haben und zu einer fundamentalen Veränderung politischer Verhältnisse führen können. Die (möglichen) Auswirkungen von Desinformation sind zahlreich beschrieben worden, durch Deepfakes stellen sich aber nun neue Herausforderungen.
Schließlich ist auch ein viertes Narrativ über den Verlust an Arbeitsplätzen oder zumindest die Einsparung von Arbeitskraft weit verbreitet. Vor allem in den kreativen Berufen wie z. B. bei den Film- und Medienschaffenden wird ein Jobverlust befürchtet. Hier wird das Disruptionsnarrativ der Digitalisierung neu belebt, wonach die Digitalisierung und jetzt die KI zu einem digitalen Bruch führt, der Geschäftsmodelle völlig neu definiert, wie das exemplarisch Amazon oder Uber vorgemacht haben.
Beide Meta-Narrative beeinflussen unser Bild von KI, sind aber in ihrer jeweils einseitigen Ausrichtung und Polarisierung nicht zielführend. Vielmehr sollten sowohl die Chancen als auch Risiken in einer Gesamtschau berücksichtigt werden und je nach Pol auch von der alternativen Seite betrachtet werden.
Kommunikative KI
KI ist zunehmend in unserer alltäglichen Kommunikation präsent und zwar nicht nur bei der Produktion und Verbreitung von Inhalten, sondern auch in der Rolle eines Kommunikators. In diesem Zusammenhang sprechen wir von Kommunikativer KI. Unter dem Begriff „Kommunikative KI“ wird in den Kommunikationswissenschaften eine Interaktion verstanden, die erstens automatisiert ist, zweitens in digitale Infrastrukturen bzw. digitale Plattformen wie TikTok, X oder Instagram eingebettet ist und drittens mit menschlichen Praktiken verschränkt ist. Besondere Bedeutung erlangt die Kommunikative KI in ihrer gesellschaftlichen Dimension: zum einen durch ihren Einsatz im Journalismus und der medialen Öffentlichkeit sowie durch ihre Verwendung in der Bürgerkommunikation von öffentlichen Einrichtungen und Behörden. Zum anderen kann Kommunikative KI negative gesellschaftliche Auswirkungen mit sich bringen: Wenn sie missbraucht wird, um nicht nur bestimmten Personen oder Gruppen, sondern auch der Gemeinschaft und letztlich der Demokratie zu schaden. So kann Kommunikative KI dazu benutzt werden, gezielte Desinformationskampagnen und Fake News zu verbreiten. Beispielsweise konnte in einer US-amerikanischen Studie ChatGPT zur Meinungsmanipulation genutzt werden, um Texte zu generieren, die den Klimawandel leugnen oder die Wirksamkeit von Sanktionen gegen China anzweifeln. Dabei gelang es den Forschenden, die Meinung der Versuchspersonen so zu manipulieren, dass sie die Sanktionen gegen China als negativ einstuften.
KI im Journalismus
KI-Tools haben bereits in vielfältiger Weise Eingang in die Medien gefunden. So werden sie von einigen Zeitungen sowohl für die bessere Verarbeitung von internen Geschäftsprozessen wie die Rechnungsverarbeitung, aber auch für die Recherche, das Layout und die teilweise Erstellung von Inhalten (Artikel und Bilder) eingesetzt. Exemplarisch ist hierfür die KI „Klara Indernach“ der Kölner Stadt-Anzeiger Medien, die nach eigenen Aussagen schon 11 Prozent aller Artikel erstellt. Des Weiteren wird KI für die Optimierung der Nutzerbindung angewandt, z. B. mit automatisierten Empfehlungssystemen und dynamischen Paywalls.
Darüber hinaus übernehmen auch „synthetisierte Medien“, die Audio- und Videobeiträge umfassen, zunehmend eine Rolle im Journalismus. Regionale und überregionale Sender (wie RTL) experimentieren bereits, wie die perfekte Nachahmung von Stimmen durch KI, das sog. Voice Cloning, im informationellen Medienbereich effizient eingesetzt werden kann. Zukünftig wird die Möglichkeit bestehen, in unterschiedlichen Anwendungskontexten, z. B. für die Synchronisation oder die Erstellung von Audio News, Stimmen von bekannten Sprecher:innen bzw. Moderator:innen künstlich zu generieren. Hierzu forscht das Institut für Digitale Ethik (IDE) aktuell im Projekt „GEI§T“ (Generator für emotional individualisierbare Synthetik-Stimmen).
Was sagen die Macher und Nutzenden
Der internationalen Trendstudie NIC Newman vom Reuters Institute zufolge wird KI insbesondere bei Backend-Anwendungen (Transkriptionen, Verschlagwortung, Textgenerierung) zum Tragen kommen, gefolgt von Empfehlungen und der Inhalte-Generierung. Jedoch wird gerade das Erstellen von Inhalten und das Recherchieren von Nachrichten von den Managern und Chefredakteuren der befragten Medienhäuser kritisch gesehen. 70 Prozent der Befragten sehen zudem das Vertrauen in Nachrichten generell durch KI gefährdet. Nutzendenstudien können diese Bedenken allerdings nicht wirklich bestätigen. So zeigt die Studie der Landesanstalt NRW (2024), dass die Mehrheit der befragten Nutzenden den Einsatz von KI im Journalismus im Gegensatz zu früher nicht ablehnt. Immerhin etwa die Hälfte der Nutzenden akzeptiert den Einsatz von KI bei politischen Themen und etwa 60 Prozent befürworten eine KI-Unterstützung bei Nachrichten. Eine noch größere Zustimmung findet KI bei Sportberichten, Wetter und Unterhaltung. Immerhin 35 Prozent der Befragten würden auch vollständig von KI generierte Sendungen, die von einem Avatar gesprochen werden, akzeptieren.
Allerdings wünschen sich die Befragten, dass ethische Werte und normative Regeln eingehalten werden: Dazu zählen sie Transparenz und eine Kennzeichnungspflicht von KI-Beiträgen, eine verbindliche Rechenschaftspflicht, die Kontrolle des Einsatzes von KI-Anwendungen durch eine unabhängige Aufsichtsbehörde sowie das Aufstellen von freiwilligen Verhaltenskodexen in Redaktionen. Exemplarisch für einen solchen Kodex ist die „Paris Charta on AI and Journalism“ (2023), die von einer von Reporter ohne Grenzen (RSF) initiierten Kommission ins Leben gerufen wurde. Darin wird u. a. die Relevanz der Ethik für den Journalismus sowie eine Kontrollfunktion durch Journalist:innen gefordert.
Angesichts dieser Entwicklungen im Journalismus stellen sich eine Vielzahl an Fragen: Wie wirken sich KI-Tools und synthetisierte Medien auf das journalistische System und seine Leitwerte der Wahrheit und Wahrhaftigkeit aus? Brauchen wir neue verbindliche ethische Standards für den Einsatz von KI im Medienbereich und wie können diese vereinbart und umgesetzt werden? Zudem sollten wir den möglichen Strukturwandel der medialen Öffentlichkeit im Blick haben, wenn zukünftig Suchmaschinen und digitale Plattformen zu Antwortmaschinen (vergleichbar wie ChatGPT) mutieren, also keine Links mehr zu journalistischen Beiträgen anbieten: Wie kann damit Meinungsbildung noch unabhängig und seriös möglich sein?
Ergänzend zu einer rechtlichen Aufsicht durch entsprechende Organe, die sich um die Einhaltung von KI-Verordnungen und Digitalgesetzen kümmert, wäre eine ständige länderübergreifende Ethikkommission notwendig, um die ethischen und gesellschaftlichen Fragen sachgerecht zu adressieren. Dieses Gremium sollte sowohl über wissenschaftliche Expertise verfügen als auch Verbraucherperspektiven einbeziehen. Das heißt, die Ethikkommission sollte im besten Fall transdisziplinär arbeiten. Oberstes Ziel sollte bei der Entwicklung und dem Einsatz von KI-Technologien in jedem Fall sein, diese Interner Link: demokratieverträglich zu gestalten.
Dr. Petra Grimm ist seit 1998 Professorin für Medienforschung und Kommunikationswissenschaft an der Hochschule der Medien (Stuttgart). Sie ist Leiterin des Instituts für Digitale Ethik (IDE) und Ethikbeauftragte der Hochschule der Medien. Ihre Forschungsschwerpunkte sind „Digitalisierung der Gesellschaft“, „Ethik der KI und Robotik“, „Narrative Ethik“ und „Mediennutzung von Kindern und Jugendlichen“. Hierzu hat sie zahlreiche Publikationen veröffentlicht und Forschungsprojekte durchgeführt. Ihr Lehrgebiet ist Digitale Ethik und Narrative Medienforschung in Master- und Bachelor-Studiengängen. Sie ist (Mit-)Herausgeberin der Schriftenreihe Medienethik und der Schriftenreihe Daten, Recht und Digitale Ethik. Sie ist u.a. Mitglied im Promotionsverband der HAW Baden-Württemberg, der Deutschen Gesellschaft für Publizistik (Fachgruppe Kommunikations- und Medienethik), Kulturbeirat der Akademie Bad Boll sowie der Verbraucherkommission Baden-Württemberg.