Meine Merkliste Geteilte Merkliste PDF oder EPUB erstellen

KI und Demokratie: Entwicklungspfade | Künstliche Intelligenz | bpb.de

Künstliche Intelligenz Editorial Droht KI den Menschen zu ersetzen? Intelligenz und Bewusstsein. Oder: Ist KI wirklich KI? Grauzonen zwischen Null und Eins. KI und Ethik KI und Demokratie: Entwicklungspfade Regulierung von KI. Ansätze, Ideen, Pläne KI in der Arbeitswelt KI in der Schule

KI und Demokratie: Entwicklungspfade

Thorsten Thiel

/ 15 Minuten zu lesen

Welche Effekte hat die Verbreitung von KI auf die Struktur und Dynamik demokratischer Öffentlichkeit? Welche Möglichkeiten und Risiken ergeben sich für demokratisches Regieren? Und inwiefern verändert sich die Teilhabe von Bürgerinnen und Bürgern?

Digitaltechnologische Entwicklungen haben den Ruf, in höchstem Maße disruptiv zu sein. Als radikale Technologien verbessern sie nicht nur bestehende Prozesse, sondern revolutionieren unseren Blick auf Ziele und Möglichkeiten gesellschaftlichen Handelns. So haben etwa das Internet, soziale Netzwerke oder Smartphones tiefe Veränderungen bewirkt, beispielsweise in der Art und Weise, wie wir Wissen organisieren und unser Handeln koordinieren oder wie unsere Wirtschaft funktioniert. Auch vor Politik und Demokratie macht der digitaltechnologisch getriebene Strukturwandel nicht Halt. So wird etwa seit der Ausbreitung des öffentlichen Internets in den 1990er Jahren mit wechselnden Thesen, aber immer hoher Dringlichkeit, Digitalisierung als Gefahr oder Chance für die Demokratie diskutiert.

Es ist insofern nicht überraschend, dass auch in den jüngsten Auseinandersetzungen um Künstliche Intelligenz, die seit dem öffentlichen Launch von ChatGPT Ende 2022 ein neues Level erreicht hat, die Auswirkungen auf Demokratie zum wichtigen Thema geworden sind. Anknüpfend an die virulente Kritik an sozialen Medien und deren Auswirkungen auf den demokratischen Diskurs stehen dabei insbesondere die Risiken von Manipulation und Desinformation im Blickpunkt. Die demokratischen Herausforderungen, die durch eine breite gesellschaftliche Einbettung von KI in unser Alltagsleben entstehen, sind aber vielschichtiger, weshalb im Folgenden ein Überblick über Entwicklungspfade gegeben wird, der aufschlüsselt, wie sich demokratische Prozesse und demokratische Öffentlichkeit im sich wandelnden soziotechnischen Kontext verändern könnten.

Neue Dynamik

Künstliche Intelligenz ist nicht erst seit ChatGPT eine gesellschaftlich relevante Technologie. Genauer gesagt ist Künstliche Intelligenz überhaupt keine einzelne Technologie, sondern wird besser als eine kategoriale Bezeichnung für technologische Verfahren verstanden, die das Ziel haben, komplexe Probleme unabhängig und situationsgerecht zu lösen. Die Verfahren, mit denen dieses Ziel erreicht werden soll, sind dabei nur abstrakt von biologischen Fähigkeiten und Strukturen inspiriert. Künstliche Intelligenz unterscheidet sich von menschlicher Intelligenz auch dann, wenn bestimmte Leistungen oder Ergebnisse vergleichbar erscheinen. Zu analysieren ist daher, wie sich gesellschaftliche Kommunikationen und Prozesse ändern, wenn in ihr verschiedene Rationalitäten und Agenten zusammenwirken.

Seit Mitte des 20. Jahrhunderts lassen sich grob zwei Strategien unterscheiden, KI zu realisieren: Auf der einen Seite stehen Ansätze, die auf Klassifizierungen und der nach logischen Regeln operierenden Verarbeitung von Daten aufsetzen – sogenannte symbolische KI –, auf der anderen konnektionistische Verfahren, die auf maschinelles Lernen setzen und mittels neuronaler Netze versuchen, Probleme situationsgerechter zu analysieren, in Daten Muster und Wahrscheinlichkeiten zu bestimmen und diese Ergebnisse zu neuen Lösungen zu kombinieren.

Für den um 2010 einsetzenden und sich seitdem extrem beschleunigenden neuerlichen Aufschwung von KI sind insbesondere letztere Verfahren verantwortlich. Grundlegend für den Erfolg ist zum einen die Verfügbarkeit über enorm große Rechenkapazitäten, die zudem immer spezifischer für KI-Anwendungen ausgelegt werden; zum anderen der Zugriff auf riesige Datenmengen, die sich beispielsweise aus der Verlagerung und Vermessung von Alltagskommunikation in soziale Medien und die Allgegenwart von Sensoren und Kameras in Zeiten des mobilen Internets speist. Sichtbare Erfolge von KI-Verfahren – etwa durch Verbesserungen in den Bereichen Bilderkennung oder Übersetzungen – haben dann eine wirtschaftliche Dynamik ausgelöst, die wiederum verstärkend auf die Weiterentwicklung der Technologie wirkt. Große Sprachmodelle, die die Transformation von Text und anderen Medien erlauben, sind der jüngste Erfolg dieser Entwicklung. Sie resultieren in generativer KI, die die Mustererkennung analytischer Verfahren durch Vorhersagen und Rekombinationen fortschreibt und so neue Anwendungsfelder wie die Erzeugung von Text oder Videos erschließt.

Wie aber werden diese technologischen Veränderungen relevant für demokratische Prozesse? Wie immer in Untersuchungen, die sich der Schnittstelle von Technologie und Gesellschaft nähern, ist es wichtig, hier nicht die Technik zum alleinigen Akteur zu machen oder eine monolithische Logik aus ihr zu folgern. Untersucht werden muss vielmehr, wie die Konstellation, die aus der Verbindung von durch Technologie beförderten Handlungsmöglichkeiten, ökonomischen Anreizen, politischer Regulierung und gesellschaftlichen Nutzungspraktiken entsteht, in Bezug auf politische Kontexte Veränderungsimpulse erzeugt. Bezüglich der gegenwärtig dominanten Verfahren lohnt es sich dabei, drei Bereiche näher zu betrachten, in denen die fortgesetzte gesellschaftliche Adaption von KI-Anwendungen Impulse erzeugt, die die Art und Weise, wie wir Demokratie leben, betreffen. Der erste Bereich sind die Effekte auf die Struktur und Dynamik demokratischer Öffentlichkeit, die generative KI erzeugt. Der zweite Bereich betrifft den Einsatz von KI für die Zwecke des demokratischen Regierens. Drittens lohnt es sich, zu prüfen, inwiefern KI mittel- und langfristig die demokratische Teilhabe von Bürger*innen verändert.

Demokratische Öffentlichkeit

Vor 2022 drehte sich die Diskussion um die Transformation demokratischer Öffentlichkeit durch KI-Verfahren hauptsächlich um den Einsatz von KI in der Moderation von Inhalten auf sozialen Netzwerken, worin eine Verstärkung bereits bekannter Probleme mit der strukturellen und strukturierenden Macht von Plattformen gesehen wurde. Die Nutzungserfahrung vieler Menschen mit generativer KI hat aber einen neuen Fokus gebracht: Der transformative Anstoß geht nun von der Senkung der Kosten für die Erstellung und Veränderung kommunikativer Produkte aus. Die Möglichkeit, Bilder, Videos oder Stimmen in Echtzeit und überzeugend zu erschaffen oder zu verändern, oder auf Knopfdruck Texte zu jedwedem Thema und in jedwedem Stil entstehen zu lassen, erzeugt ein öffentliches Bewusstsein für eine potenziell revolutionäre Veränderungsdynamik. Generative KI verändert dabei auch Informationsumgebungen jenseits individueller Handlungsmöglichkeiten: So erlauben die Verfahren, Information und Kommunikation viel stärker maßzuschneidern, wie das Beispiel digitaler Assistenten zeigt, die in natürlicher Sprache mit uns plaudern und Informationen kuratieren. Was also sind die erwartbaren Auswirkungen auf das Verhältnis von Öffentlichkeit und Demokratie?

An erster Stelle steht die Befürchtung der epidemischen Zunahme von Desinformation. Generative KI ermöglicht sogenannte Deep Fakes, bei denen multimediale Inhalte wie Videos oder Tonaufnahmen erzeugt oder tiefgreifend verändert werden. Wie niedrigschwellig diese Form von Eingriffen ist, weiß jeder, der schon mal digitale Filter für Bilder oder Videos verwendet hat. Obwohl Manipulationen und Fälschungen immer schon Teil politischer Kommunikation waren, verschiebt generative KI hier die Gewichte: Viel mehr Akteure erhalten durch die Anwendungen die Möglichkeit, auch komplexe Medienarten schnell und täuschend echt zu verändern. Und gerade diesen Formaten wird ein besonders großer Einfluss auf den öffentlichen Diskurs zugeschrieben, da das, was wir sehen oder hören, oft einen größeren Eindruck macht, als das, was wir lesen. Die Manipulation solcher immersiven Medienformate gilt daher als subtil und tiefgreifend zugleich. Hinzu kommt, dass nicht nur die Qualität manipulativer Eingriffe steigt, sondern dass die neuen Möglichkeiten sich mit einem medialen Kontext verbinden, der ohnehin bereits als anfällig für Desinformation und Emotionalisierung gilt. Die Aufmerksamkeitsökonomie sozialer Medien mit ihren segmentierten Adressatengemeinschaften und hohem Erregungslevel ebenso wie die heute so wichtige Gruppenkommunikation in Messenger-Diensten macht es sowohl schwierig, Desinformationen zu entdecken, als auch diese dann erfolgreich zu kontern. Gerade strategisch agierende Akteure können daher durch generative KI profitieren und die entstehenden Potenziale ausnutzen, um etwa Radikalisierungsprozesse zu vertiefen.

Neben der gezielten Desinformation muss, zweitens, Misinformation zu den problematischen Auswirkungen von KI gezählt werden. Misinformation resultiert aus der immanenten Unzuverlässigkeit der angewandten Verfahren, die aus der Generierung neuer Inhalte durch die maschinelle Interpretation von Trainingsdaten erfolgt. Das heißt, mitunter „halluziniert“ generative KI – sie schafft Zusammenhänge, ohne dass diese zu prüfen oder zu belegen wären. Dies geschieht in einer überzeugenden Weise, da die Verfahren ja gerade darauf ausgerichtet sind, menschliche Erwartungen zu erfüllen und oftmals Vorurteile fortgeschrieben werden, die gesellschaftlich verbreitet und daher in die Trainingsdaten eingeschrieben sind. Auf dieses Phänomen reflektiert zu reagieren, setzt hohe Medienkompetenz voraus, da die Autorität der Information groß und die Möglichkeit ihrer Überprüfung gering ist. KI-erzeugte Inhalte nicht als sinnvolle, sondern als allein der Form nach passende Ergebnisse zu interpretieren, erfordert einen deutlichen Bruch mit bisherigen Rezeptionsgewohnheiten.

Wenn Desinformation und Misinformation in einer Gesellschaft zunehmen, ist dies bereits für sich eine Herausforderung für den demokratischen Diskurs. Die Basis, auf der sich Gesellschaften austauschen und über Kompromisse verhandeln, wird kleiner, Fragmentierung wahrscheinlicher. Trotzdem ist offen, inwiefern die durch KI erzeugte Mis- und Desinformation tatsächlich qualitativ so bedeutsam ist, wie im öffentlichen Diskurs häufig unterstellt – und ob nicht auch Möglichkeiten gesellschaftlichen Anpassens und Lernens stärker hervorgehoben werden müssten. Schließlich sind demokratische Öffentlichkeiten in Gesellschaften wie Deutschland stark verschachtelt, sie sind geprägt von einem pluralistischen Mediensystem, breiter politischer Bildung und einer Vielzahl von alternativen Kommunikationswegen. Die Möglichkeiten, Öffentlichkeit mittels digitaler Artefakte großflächig und nachhaltig zu manipulieren, sind somit begrenzt. Die Gefahr für den öffentlichen Diskurs ist insofern weniger die kurzfristige Manipulation, sondern eher die langfristige Erosion der (infra-)strukturellen Bedingungen demokratischer Öffentlichkeit. Generative KI kann zu dieser beitragen, da schon der Vorwurf der Manipulierbarkeit über Zeit den Effekt haben kann, dass medialer und öffentlicher Kommunikation weniger vertraut wird. Diese Gefahr wird zusätzlich dadurch verschärft, dass generative KI verändert, wie wir uns in den überbordenden Informationsumwelten unserer Gegenwart bewegen. Chatbots und Assistenzsysteme wie auch die Veränderung von Suchmaschinen – weg von der Darstellung einer Liste an Verweisen hin zu einer autoritativ ausformulierten Antwort – bedeuten, sofern sie sich durchsetzen, gravierende Veränderungen unserer Mediennutzung, was in zwei Hinsichten in Bezug auf Demokratie relevant werden könnte.

Zum einen könnte die in der Forschung eigentlich schon länger angezweifelte Filterblasenhypothese neue Plausibilität bekommen. Diese besagt, dass algorithmische Verfahren, die Inhalte personalisieren, eine Vereinseitigung des Informationsangebots nach sich ziehen. Da Algorithmen selektieren, was wir ohnehin hören wollen, bewegten wir uns vorwiegend unter Gleichgesinnten, was demokratische Kompromisse und Perspektivwechsel erschwere. Obwohl diese These intuitiv plausibel und im öffentlichen Diskurs stark verbreitet ist, haben empirische Arbeiten die Existenz und die Effekte von Filterblasen stark relativiert. Generative KI könnte den für Suchmaschinen und soziale Netzwerke tendenziell widerlegten Argumenten aber neue Kraft verleihen, da die umfassende Vorstrukturierung der Kommunikation und das Verdecken von Komplexität durch gradlinige und direkte Antworten erneut als Vereinseitigung gedeutet werden könnte.

Ebenso offen, aber potenziell bedenklich sind die Auswirkungen, die generative KI auf die Ökonomie von Medien und Journalismus haben wird. Hier ist unter anderem zu fragen, wie mit journalistischen Inhalten Geld verdient werden kann, wenn die Schnittstelle zur Interaktion mit den Leser*innen oder Konsument*innen noch mehr in von Technologiekonzernen kontrollierte Umgebungen abwandert. Eine weitere Frage ist, wie sich die Trennung von informierten Eliten und desinteressiertem Publikum unter dem Einfluss der Technologie verändert.

KI und demokratisches Regieren

Die breite gesellschaftliche Adaption von KI-Verfahren bringt auch jenseits von generativer KI und öffentlichem Diskurs eine Reihe neuer Herausforderungen mit sich. Ein Bereich, der besondere Aufmerksamkeit verdient, ist die Veränderung demokratischer Regierungspraxis durch assistierte oder gar automatisierte Entscheidungssysteme. Diese finden in Europa, aber auch weltweit immer mehr Verbreitung und werden selbst dann weiter ausgebaut, wenn sich in der Praxis zeigt, dass viele der bisher eingesetzten Systeme die in sie gesetzten Erwartungen nicht erfüllen.

Für den anhaltenden Boom verantwortlich sind die zugeschriebenen analytischen Fertigkeiten von auf Mustererkennung spezialisierten KI-Verfahren. Diese befeuern Datensammlung und Anwendungsentwicklung und erhöhen die Erwartungen an eine datenzentrierte und effektive Politik. Präzisere Analyse sowie der Einsatz von Vorhersagen und Simulationen sollen Schwächen repräsentativdemokratischer Verfahren ausgleichen, zu denen ein beschränkter Zeithorizont, fehlende Responsivität in dynamischen Situationen und eine zu ungenaue Anwendung von Steuerungsinstrumenten gezählt werden. KI-basierte Verfahren sollen Politik besser machen und dadurch die Output-Legitimation demokratischer Systeme erhöhen. Hierbei wird an eine ältere Vorstellung von Politik angeknüpft, die schon in Statistik und Bürokratie ihren Ausdruck fand, sich nun aber zunehmend von der Verwaltung bis zur Zielformulierung und Planung von Politik erstreckt.

Öffentliche Machtausübung setzt in demokratischen Staaten ein besonders hohes Maß an Kontrolle voraus: Sie ist an Grund- und Bürgerrechte gebunden, muss Standards von Gleichheit und Gerechtigkeit genügen und in einer Weise ausgeübt werden, dass die ihr Unterworfenen nicht nur nachvollziehen können, wie sie regiert werden, sondern auch wirkungsvoll gegen Missbrauch und Fehlentwicklungen opponieren können. Der zunehmende Einsatz von KI-Verfahren birgt hierbei zahlreiche Herausforderungen.

Mit Blick auf Grundrechte und Gleichheitsfragen liegt die Schwierigkeit in der Logik der Fortschreibung vergangener Muster, in denen eine Reproduktion von Macht- und Statusasymmetrien angelegt ist. Muster werden hier zu Regeln, die sich dann wieder selbst bestätigen, wie es aus Fällen von predicitive policing bis hin zur Administration von Gesundheitsleistungen bekannt ist. Verstärkend wirkt, dass KI oft dort zum Einsatz kommt, wo ein besonderer Kostendruck herrscht und administrative Ressourcen gespart oder mit geringen Kosten stark ausgeweitet werden sollen, etwa bei der Grenzüberwachung. Gerade in diesen Bereichen werden daher vulnerable Gruppen oft zum Gegenstand einer sie benachteiligenden Entscheidungsfindung.

Mit Blick auf demokratische Normen der Kontrolle und Rechenschaftspflicht kommt ein weiteres Problem hinzu: die opake technische Struktur der auf maschinellem Lernen beruhenden KI-Verfahren und der Umstand, dass politische Institutionen sich für deren Entwicklung und Betrieb stark von der Infrastruktur und den Leistungen privatwirtschaftlicher Akteure abhängig machen. Ohne klare Regelungen, die sicherstellen, dass Kontrolle und Rechenschaft praktisch möglich bleiben, untergraben KI-Verfahren demokratische Verfahrensgarantien.

Dies wird zusätzlich davon überlagert, dass datengetriebenes Entscheidungshandeln oft als in Spannung stehend zu demokratischer Selbstbestimmung konzipiert wird. Die Kritik ist hier, dass Demokratien durch das Setzen auf KI-Verfahren sich einer hierarchischen Logik unterwerfen, die Daten fetischisiert und darüber die Möglichkeit partizipatorischer Selbstbestimmung negiert. Ironischerweise geht eine solche Position aber selbst von einem starken technologischen Imperativ aus, in dem die Fähigkeit gesellschaftlichen Handelns und demokratischer Politisierung von vornherein geringschätzt wird und darüber verpasst wird, dass es gerade in Bezug auf technologische Steuerung immer wieder zu wirkungsvoller Politisierung kommt.

Politische Partizipation

Werfen wir als Drittes einen Blick darauf, wie eine breite gesellschaftliche Aneignung von KI-Verfahren sich auf politische Teilhabe von Bürger*innen auswirken könnte. Verändert KI die Möglichkeiten und Modi politischer Partizipation? Antworten hierauf sind noch spekulativer als in den beiden zuvor betrachteten Feldern, was daran liegt, dass dies nicht nur von der Ausgestaltung der Anwendungen abhängt, sondern auch von der Anbindung und Akzeptanz im politischen System. Unterscheiden lassen sich zwei mögliche Richtungen – bottom-up und top-down – und eine Gegentendenz.

Eine Top-down-Intensivierung bedeutet, dass seitens der Politik unter Rückgriff auf KI-Anwendungen der Austausch mit den Bürger*innen gezielt ausgebaut wird. Dies liegt allgemein auf der Linie einer zunehmend kommunikativ auftretenden Politik, und es entspricht der Erwartung, dass Digitalisierung direkte und unmittelbare Kommunikation befördert. KI-Anwendungen könnten etwa eingesetzt werden, um Politik stärker reaktions- und erklärungsfähig zu machen, wie es etwa durch Chatbots heute schon im Bereich der Verwaltung versucht wird. Dies könnte zum Beispiel auch in der Unterstützung regelmäßiger deliberativer Verfahren zwischen Politik und diffuser Bürgerschaft münden. KI-Anwendungen könnten hier Beteiligungsumgebungen strukturieren, die Zusammenführung komplexer Debatten erlauben und nachvollziehbar machen, wie bürgerschaftliche Beteiligung wirksam wird. Obwohl hier demokratische Potenziale zu erkennen sind, wird zu beobachten sein, inwiefern und von wem neue Beteiligungsmöglichkeiten genutzt werden und ob es sich um „echte“ Beteiligung oder eher um eine Form des Politmarketings handelt.

Aus Bottom-up-Perspektive wird in den Blick genommen, wie KI-Anwendungen dazu beitragen, dass neue Formen zivilgesellschaftlicher Selbstorganisation möglich werden oder neue Protest- und Aktionsformen entstehen. Dass Digitalisierung transformative Effekte in Bezug auf politisches Handeln haben kann, ist gut erforscht. Aktuell zeichnen sich hier aber noch keine vergleichbaren Impulse für KI-Anwendungen ab, da auf politisches Handeln zugeschnittene Nutzungspraktiken noch wenig ausgeprägt sind und eher auf politische Bildung und Information zielen.

Größer gedachte Vorschläge, die auf eine Umgestaltung des politischen Systems zielen, etwa indem sie den Einsatz von Bots als Agenten politischer Partizipation vorschlagen, sind selten und setzen eine demokratische Struktur voraus, die stärker direktdemokratisch orientiert ist. Wie bei der Top-down-Richtung wird auch bezüglich sich entwickelnder Bottom-up-Strukturen zudem kritisch zu fragen sein, inwiefern mehr Partizipationsmöglichkeiten gleiche Beteiligung fördern oder ob dadurch nicht eher bestehende Macht- und Ressourcenasymmetrien verstärkt werden.

Neben der Schaffung von Partizipationsmöglichkeiten wird in der wissenschaftlichen Literatur auch über eine Gegentendenz spekuliert, für deren Relevanz es bereits stärkere empirische Anhaltspunkte gibt: nämlich, dass sich demokratische Politik künftig weniger an der expliziten politischen Partizipation als vielmehr am messbaren Verhalten der Bürger*innen orientiert. Diese Tendenz ist darauf zurückzuführen, dass in datenreichen Gesellschaften Politik versucht ist, sich stärker durch die Analyse von Bevölkerungseinstellungen zu legitimieren. Für eine solche Entwicklung spricht, dass in komplexen Gesellschaften aufwendige Partizipationsformen häufig als sowohl ineffektiv als auch ungerecht gelten, einfache Partizipationsformen wie periodische Wahlen aber die hohen Beteiligungserwartungen nicht erfüllen. Der Rückgriff auf indirekte Messungen reaktiviert daher ein demokratisches Versprechen, wie es früher bereits demoskopische Verfahren gaben, dass nämlich eine neutrale und umfassende Berücksichtigung der breiten Ansichten und Belange der Bürgerschaft gerade dann stattfindet, wenn man auf Beobachtung statt auf Aktivierung setzt. KI soll hier eine adäquate und stets aktuelle „Lesbarkeit“ der Bevölkerung herstellen, wobei zu fragen ist, ob damit nicht nur eine technokratische Depolitisierung befördert wird.

Ausblick

Die aufgezeigten potenziellen Entwicklungspfade demokratischer Praxis angesichts der zunehmenden gesellschaftlichen Einbettung von KI-Verfahren ergeben ein uneinheitliches und ambivalentes Bild. Künstliche Intelligenz ist nicht einfach eine rivalisierende Kraft zu demokratischen Prozessen, wie es populäre Kritiken nahelegen. Die transformative Wirkung der Entwicklung ist aber auch nicht nur begrenzt auf die wachsenden Möglichkeiten effektiver Manipulation. Es ist daher notwendig, die Verschlingung von KI-Technologien und demokratischen Entwicklungen kleinteiliger und mit Blick auf konkrete Dimensionen demokratischen Lebens nachzuvollziehen, um die Rekonfiguration der sich verschiebenden Handlungsmöglichkeiten von individuellen, staatlichen und privatwirtschaftlichen Akteuren besser zu verstehen.

Neben der Analyse schärft sich so der Blick dafür, dass eine aktive politische Gestaltung der digitaltechnologischen Entwicklung möglich und aus demokratischer Sicht sogar naheliegend ist. Anders als in früheren Phasen der Digitalisierung, in denen ein liberaler Imperativ vorherrschte, der eine gesellschaftlich positive Entwicklung unterstellte, wenn man technologische Innovation nur frei walten ließe, ist für KI-Verfahren schon zum jetzigen Zeitpunkt deutlich, dass es eine Notwendigkeit demokratisch sensibler Regulierung gibt. Aktuelle Vorschläge fokussieren dabei hauptsächlich Anwendungsszenarien (etwa Gesichtserkennung oder Deep Fakes) und die Frage der Datengrundlage von KI (Datenschutz und Copyright). Aus demokratischer Sicht muss darüber hinaus aber auch verstärkt auf gesellschaftliche Mitbestimmungsmöglichkeiten geachtet werden – und zwar in Hinblick auf Entwicklung, Anwendung und Einsatz von KI. Dies erschöpft sich nicht in der einfachen Forderung nach Transparenz, sondern meint die Etablierung eingriffsfähiger Institutionen, die in der Lage sind, öffentliche Interessen und bürgerliche und demokratische Rechte auch gegen technische Möglichkeiten und ökonomische Anreize stark zu machen.

Fussnoten

Fußnoten

  1. Vgl. Adam Greenfield, Radical Technologies: The Design of Everyday Life, London 2017.

  2. Vgl. Thorsten Thiel, Demokratie in der digitalen Konstellation, in: Gisela Riescher/Beate Rosenzweig/Anna Meine (Hrsg.), Einführung in die Politische Theorie, Stuttgart 2020, S. 331–349.

  3. Vgl. Jeanette Hofmann, Demokratie und Künstliche Intelligenz, 2022, Externer Link: https://digid.jff.de/demokratie-und-ki.

  4. Vgl. Alfred Früh/Dario Haux, Foundations of Artificial Intelligence and Machine Learning, Weizenbaum Series 29/2022, Externer Link: https://doi.org/10.34669/WI.WS/29.

  5. Vgl. Jeffrey Dean, A Golden Decade of Deep Learning, in: Daedalus 151/2022, S. 58–74.

  6. Vgl. Steffen Albrecht, ChatGPT und andere Computermodelle zur Sprachverarbeitung – Grundlagen, Anwendungspotenziale und mögliche Auswirkungen, Büro für Technikfolgenabschätzung beim Deutschen Bundestag, Hintergrundpapier Nr. 26, 21.4.2023.

  7. Vgl. Sebastian Berg/Niklas Rakowski/Thorsten Thiel, Die digitale Konstellation. Eine Positionsbestimmung, in: Zeitschrift für Politikwissenschaft 2/2022, S. 171–191.

  8. Vgl. Tarleton Gillespie, Content Moderation, AI, and the Question of Scale, in: Big Data & Society 2/2022, S. 1–5.

  9. Vgl. Bobby Chesney/Danielle Citron, Deep Fakes: A Looming Challenge for Privacy, in: California Law Review 107/2019, S. 1752–1819.

  10. Vgl. Paola Lopez, ChatGPT und der Unterschied zwischen Form und Inhalt, in: Merkur 891/2023, S. 15–27.

  11. Vgl. Sayash Kapoor/Arvind Narayanan, How to Prepare for the Deluge of Generative AI on Social Media, 16.6.2023, Externer Link: http://knightcolumbia.org/content/how-to-prepare-for-the-deluge-of-generative-ai-on-social-media.

  12. Vgl. Andreas Jungherr, Digitale Informationsumgebungen: Echokammern, Filterblasen, Fake News und Algorithmen, in: Norbert Kersting et al. (Hrsg.), Handbuch Digitalisierung und politische Beteiligung, Wiesbaden 2022.

  13. Vgl. David Karpf, How Digital Disinformation Turned Dangerous, in: Lance Bennett/Steven Livingston, The Disinformation Age, Cambridge 2020, S. 153–168.

  14. Vgl. Cass R. Sunstein, #Republic: Divided Democracy in the Age of Social Media, Princeton 2017.

  15. Vgl. Birgit Stark/Melanie Magin/Pascal Jürgens, Maßlos überschätzt. Ein Überblick über theoretische Annahmen und empirische Befunde zu Filterblasen und Echokammern, in: Mark Eisenegger et al. (Hrsg.), Digitaler Strukturwandel der Öffentlichkeit, Wiesbaden 2021, S. 303–321.

  16. Vgl. Andreas Jungherr, Artificial Intelligence and Democracy: A Conceptual Framework, in: Social Media + Society 9/2023, Externer Link: https://doi.org/10.1177/20563051231186353.

  17. Vgl. Michael Veale/Irina Brass, Administration by Algorithm? Public Management Meets Public Sector Machine Learning, in: Karen Yeung/Martin Lodge (Hrsg.), Algorithmic Regulation, Oxford 2019, S. 121–150.

  18. Vgl. AlgorithmWatch/Bertelsmann Stiftung, Automating Society Report 2020, Berlin–Gütersloh 2021.

  19. Vgl. Helen Margetts, Rethinking AI for Good Governance, in: Daedalus 151/2022, S. 360–371.

  20. Vgl. Pascal König/Georg Wenzelburger, Opportunity for Renewal or Disruptive Force? How Artificial Intelligence Alters Democratic Politics, in: Government Information Quarterly 3/2020, Externer Link: https://doi.org/10.1016/j.giq.2020.101489.

  21. Vgl. Karen Yeung, The New Public Analytics as an Emerging Paradigm in Public Sector Administration, in: Tilburg Law Review 2/2023, S. 1–32.

  22. Vgl. Paola Lopez, Artifical Intelligence und die normative Kraft des Faktischen, in: Merkur 861/2021, S. 42–52.

  23. Vgl. Virginia Eubanks, Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor, New York 2018.

  24. Vgl. Frank Pasquale, The Black Box Society, Boston 2015.

  25. Vgl. Marion Fourcade/Jeffrey Gordon, Learning Like a State: Statecraft in the Digital Age, in: Journal of Law and Political Economy 1/2020, S. 78–108.

  26. Vgl. Ann-Kathrin Koster, Das Ende des Politischen? Demokratische Politik und Künstliche Intelligenz, in: Zeitschrift für Politikwissenschaft 2/2022, S. 573–594.

  27. Vgl. Sarah Kreps/Maurice Jakesch, Can AI Communication Tools Increase Legislative Responsiveness and Trust in Democratic Institutions?, in: Government Information Quarterly 3/2023, Externer Link: https://doi.org/10.1016/j.giq.2023.101829.

  28. Vgl. Zeynep Tufekci, Twitter and Tear Gas: The Power and Fragility of Networked Protest, New Haven 2017.

  29. Vgl. Paul Burgess, Algorithmic Augmentation of Democracy: Considering Whether Technology Can Enhance the Concepts of Democracy and the Rule of Law through Four Hypotheticals, in: AI & Society 1/2022, S. 97–112.

  30. Vgl. Lena Ulbricht, Scraping the Demos. Digitalization, Web Scraping and the Democratic Project, in: Democratization 3/2020, S. 426–442.

  31. Vgl. Michel Dormal, Von Gallup zu Big Data. Rekonstruktion und Neujustierung der Debatte über Meinungsforschung und Demokratie, in: Zeitschrift für Politikwissenschaft 1/2021, S. 1–24.

Lizenz

Dieser Text ist unter der Creative Commons Lizenz "CC BY-NC-ND 3.0 DE - Namensnennung - Nicht-kommerziell - Keine Bearbeitung 3.0 Deutschland" veröffentlicht. Autor/-in: Thorsten Thiel für Aus Politik und Zeitgeschichte/bpb.de

Sie dürfen den Text unter Nennung der Lizenz CC BY-NC-ND 3.0 DE und des/der Autors/-in teilen.
Urheberrechtliche Angaben zu Bildern / Grafiken / Videos finden sich direkt bei den Abbildungen.
Sie wollen einen Inhalt von bpb.de nutzen?

ist Professor für Demokratieförderung und Digitalpolitik an der Universität Erfurt.
E-Mail Link: thorsten.thiel@uni-erfurt.de