Meine Merkliste Geteilte Merkliste PDF oder EPUB erstellen

Regulierung von KI | Künstliche Intelligenz | bpb.de

Künstliche Intelligenz Editorial Droht KI den Menschen zu ersetzen? Intelligenz und Bewusstsein. Oder: Ist KI wirklich KI? Grauzonen zwischen Null und Eins. KI und Ethik KI und Demokratie: Entwicklungspfade Regulierung von KI. Ansätze, Ideen, Pläne KI in der Arbeitswelt KI in der Schule

Regulierung von KI Ansätze, Ideen, Pläne

Hannah Ruschemeier

/ 15 Minuten zu lesen

In der raschen Verbreitung von KI-Technologie manifestiert sich eine neue Form von Macht. KI-Regulierung ist deshalb die Regulierung von Macht und deshalb eine genuin rechtsstaatliche Frage. Wie ist der Entwurf für eine umfassende KI-Verordnung der EU zu bewerten?

Künstliche Intelligenz ist komplex: Sie ist nützlich, und sie ist risikoreich, sie ist menschengemacht, aber für Menschen nicht immer nachvollziehbar. Vor allem ist KI eine Frage von Macht und ihre Regulierung daher eine genuin staatsrechtliche Angelegenheit.

Das Feld der Regulierung von Künstlicher Intelligenz ist divers. Involviert sind verschiedene Institutionen, Regulierungsebenen und Regulierungsgegenstände. Bisher hat kein Land einen umfassenden Rechtsrahmen für KI erlassen, und es existiert kein völkerrechtlicher Vertrag, der einheitliche internationale Vorgaben schafft. KI-Regulierung ist aufgrund der unterschiedlichen Ansätze verschiedener Staaten, Staatenverbünde, nicht-staatlicher Organisationen und anderer Institutionen schon aufgrund der divergierenden Kompetenzen eher ein Flickenteppich als ein Puzzle, das sich zusammenfügt. Dennoch lassen sich übergreifende Gemeinsamkeiten, Unterschiede und Entwicklungslinien identifizieren.

Warum KI-Regulierung?

KI ist auf den ersten Blick kein außergewöhnlicher Regulierungsgegenstand: Insbesondere rechtliche Regulierung hat sich stets mit neuen technischen Entwicklungen, Unsicherheiten oder globalen Auswirkungen befasst, wie das Umwelt- und Technikrecht zeigen. Dennoch wächst das Bewusstsein dafür, dass die bisherigen Regeln auf verschiedenen Ebenen nicht ausreichen, um KI effektiv zu regulieren. Die Gründe dafür liegen im soziotechnischen Charakter und in der technischen Funktionsweise von KI sowie in der Systematik rechtlicher Regulierung. Übergeordnetes Regulierungsziel ist es, die entstehenden Risiken zu umschiffen, um die sich eröffnenden Chancen nutzen zu können.

Recht reguliert nach Kriterien von Subjektivität und Individualität, menschlichen Entscheidungen, Haftung und Verantwortung, Schuld, Erklärbarkeit und Rechtssicherheit. KI hingegen operiert auf der Grundlage großer, zum Teil unübersichtlicher Datenmengen in opaken Entscheidungsstrukturen mit einer Vielzahl an Zwischenschritten und beteiligten Personen in Entwicklung, Vertrieb und Nutzung. KI ist zugleich keine rein technische Entwicklung, sondern eine soziotechnische – KI ist menschengemacht. Generative Modelle erzeugen Sprache, Bilder oder Videos auf der Grundlage von Texteingaben. Dazu gehören Sprachmodelle wie ChatGPT, welche die Wahrscheinlichkeit der Reihenfolge von Wörtern errechnen und dadurch Unterhaltungen simulieren können. Vorhersagemodelle der Wirtschaft, die Scoring-Werte berechnen, predictive maintenance (vorausschauende Wartung) in der Industrie oder die Analyse von Umweltdaten in der Forschung: All diese Modelle benötigen große Datenmengen, um trainiert und validiert zu werden. Diese Datengrundlagen wiederum werden von Menschen erzeugt, etwa durch die Nutzung digitaler Medientechnik. KI ist nicht „selbstlernend“, sie braucht den Menschen. Aber braucht der Mensch KI? Und wenn ja, in welchem Maß? Diese Frage ist für Regulierung hoch relevant.

Für Regulierungsfragen sind KI-Systeme umso relevanter, je wahrscheinlicher ihre Verwendung Einfluss auf geschützte Rechtsgüter wie Grundrechte, demokratische Prozesse oder die öffentliche Sicherheit hat. Diese betroffenen Rechtsgüter sind nicht neu und nicht allein durch KI-Anwendungen gefährdet. Dennoch besteht ein nahezu globaler Konsens, dass neue Formen der Regulierung für KI notwendig sind. Allerdings brauchen wir weniger eine ständig neue Formulierung neuer digitaler Rechte als vielmehr effektive Instrumente, die bestehende Rechte und Schutzinteressen mit vorhandenen und neuen Mitteln schützen.

Die von zahlreichen prominenten Stimmen insbesondere aus der Techbranche im Frühjahr 2023 angestoßene Forderung einer Entwicklungspause für KI zur Schaffung eines Regelwerks, ist indes eine marketingmotivierte Nebelkerze. Dort wird angeführt, dass KI Bewusstsein erlangen und die menschliche Zivilisation auslöschen könnte. Neben der Ironie, dass zahlreiche Unterzeichner:innen an der Entwicklung eben jener Modelle mitgewirkt haben, dessen Stopp sie nun fordern, kam dieser Aufruf zu einem Zeitpunkt, an dem ein großer Konkurrent, nämlich die Firma OpenAI, mit ChatGPT den Markt aufmischte. Zudem lenken solche Übertreibungen davon ab, dass bereits jetzt erhebliche Risiken durch KI bestehen und eine effektive Regulierung notwendig ist; eine entsprechende Beschränkung des Einsatzes von KI wurde hingegen nicht gefordert.

KI-Regulierung ist Machtregulierung

Als Regulierungsziele für KI werden häufig Fairness, Transparenz, Erklärbarkeit, Vertrauenswürdigkeit, Sicherheit, Grundrechtsschutz, Innovationsförderung genannt. Hinter diesen Bestrebungen, neue Regulierungsvorgaben für KI zu schaffen, steht aber mehr als diese zweifelsohne wünschenswerten Einzelziele, die sich primär aus der undurchsichtigen Funktionsweise von KI-Systemen begründen – denn Menschen können den Weg zum Output eines Systems nicht nachvollziehen, erklären oder verstehen. Tatsächlich manifestiert sich in der fortschreitenden Verbreitung von KI-Technologie eine neue Form von Macht. KI-Regulierung ist deshalb die Regulierung von Macht und damit eine rechtsstaatliche Frage, denn staatlich gesetztes Recht legitimiert und begrenzt Macht gleichermaßen.

Die Machtdimension von KI speist sich aus unterschiedlichen Faktoren. Die zentralen Akteure der KI-Technologien, die den primären Anstoß für die rechtspolitische Diskussion über KI-Regulierung geben, sind zunächst global agierende Technologiefirmen. Die Entwicklung und Anwendung von KI ist zwar nicht auf die freie Wirtschaft beschränkt – Open-Source-Initiativen, NGOs, staatliche Institutionen und die Wissenschaft bespielen ebenfalls das KI-Feld –, dennoch sind die Technologien, die im öffentlichen Diskurs debattiert werden, primär solche, die von privatwirtschaftlichen Akteuren entwickelt und eingesetzt werden. Deshalb ist es wichtig, das Motiv des ökonomischen Profits dieser Akteure transparent zu machen. Auch wenn es keineswegs ausgeschlossen ist, dass viele Menschen von KI profitieren (können) oder dass es gemeinwohlorientierte Einsatzzwecke von KI gibt: Es entstehen Machtstrukturen, wenn Staaten für einen KI-Einsatz zwingend auf private Unternehmen angewiesen sind.

Die Corona-Warn-App beispielsweise konnte nur über die App-Stores von Google und Apple erfolgreich ausgerollt werden. Des Weiteren verfügen diese privaten Akteure aufgrund ihrer technischen Möglichkeiten und ihrer extrem breiten Nutzer:innenbasis über eine erhebliche Daten- und Vorhersagemacht. ChatGPT funktioniert deswegen so gut, weil bei der Entwicklung nahezu das gesamte Internet nach öffentlich zugänglichen Informationen durchsucht und das Modell auf dieser Grundlage trainiert wurde. Google sammelt Daten über das Verhalten der Nutzer:innen seiner diversen Dienste, wodurch detaillierte Profile und Vorhersagen über Konsumvorlieben, aber auch höchst sensible Informationen wie Kreditwürdigkeit, sexuelle Orientierung oder Gesundheitszustand erstellt und an Werbekund:innen verkauft werden können. Meta (vormals Facebook) personalisiert seinen Algorithmus und damit die Anzeige von Inhalten und sammelt Daten in einem Ausmaß, das Nutzer:innen oft nicht bewusst ist. Diese Firmen schaffen somit „plattformisierte“ Infrastrukturen, die mit einer nahezu unbegrenzten Sammlung von Nutzungsdaten verbunden sind.

Die Allgegenwärtigkeit dieser digitalen Prozesse und die zunehmende Verbreitung von KI haben zudem erkenntnistheoretische Auswirkungen: Wie werden Entscheidungen getroffen? Wie wird Wissen erzeugt? Sprachmodelle liefern eloquent klingende Antworten, produzieren aber auch viel Unsinn. Durch eine flächendeckende Nutzung solcher Systeme, beispielsweise im Falle einer Integration in alle Office-Anwendungen von Microsoft, wird es immer schwieriger, Phänomenen wie dem sogenannten automation bias (übermäßiges Vertrauen in maschinelle Entscheidungsvorschläge) zu entkommen. Die Geschäftsmodelle, Strukturen, soziotechnischen Interaktionen und nicht zuletzt ihre weite Verbreitung führen dazu, dass bisherige Regulierungsansätze nicht mehr in allen Fällen effektiv greifen. Beispielsweise wird im europäischen Digital Services Act (DSA, deutsch: Gesetz über digitale Dienste), der erst im November 2022 in Kraft getreten ist, KI nicht ausdrücklich genannt – die Verordnung soll aber ein sicheres und vertrauenswürdiges Online-Umfeld schaffen, das durch die Funktionsweise digitaler Plattformen gefährdet ist. Das betrifft somit auch die Nutzung von KI, etwa zur Anzeige und Moderation von Inhalten.

Um den vielfältigen Machtfaktoren von KI zu begegnen und zugleich Innovationen zu ermöglichen, braucht es rechtliche Regelungen – denn wo Macht im Spiel ist, zeigt sich das Potenzial gesellschaftlicher Verbesserungen genauso wie die Gefahr des Missbrauchs. Nach dem Vorsorgeprinzip können bestimmte, besonders riskante Produkte und Verfahren, wenn sie wichtige Rechtsgüter bedrohen, einer gesetzlichen Regulierung unterworfen werden, um im Vorfeld Schäden zu verhindern. In Bezug auf KI stellt sich allerdings die Herausforderung, dass einige Auswirkungen schlecht, noch nicht oder gar nicht abschätzbar sind.

Regulierungsformen

Regulierung von KI hat verschiedene Formen: Klassische rechtliche Regulierung kann präventive Verbote, repressive Sanktionen oder Handlungsgebote formulieren, bestehende Vorschriften anwenden oder neue schaffen; ethische Vorschläge beziehen sich auf moralische Vorgaben, die aber zur Grundlage rechtlicher Regulierung werden können; technische Vorgaben wie Standardisierungsnormen erzeugen oft faktische Bindungen.

KI ist eine Querschnittstechnologie, die in unterschiedlichsten Bereichen eingesetzt wird und dadurch auch verschiedene Rechtsgebiete berührt: Produktsicherheitsrecht, Verbraucherschutzrecht, Urheberrecht, Datenschutzrecht, Grundrechtsschutz, privates Haftungsrecht, strafrechtliche Zurechnungsfragen, Arbeitsrecht und weitere. KI wird keinesfalls in einem rechtsfreien Raum verwendet, der nun dringend neue Detailregelungen erfordert. Es muss deshalb, einerseits, sorgfältig geprüft werden, ob neue Rechtsvorgaben wirklich notwendig sind. Andererseits sollten Regulierungslücken geschlossen werden, wenn Regulierungsziele nicht mehr erreicht werden oder neu entstehen. Wichtig ist es zudem, die soziotechnische Funktionsweise und den stets menschengemachten Anwendungskontext von KI zu reflektieren und keine rein technikzentrierte Regulierung zu schaffen.

In den vergangenen Jahren sind weltweit eine Vielzahl von Initiativen entstanden, um Werte und Grundsätze für die ethische Entwicklung und den Einsatz von KI zu definieren. Unverbindliche Empfehlungen, Strategiepapiere, soft law wie Leitlinien oder Absichtserklärungen sowie ethische Prinzipien sehen sich oft der Kritik ausgesetzt, ineffektiv zu sein, da sie eben nicht bindend sind und daher nicht zwangsweise durchgesetzt werden können. Im Feld der KI-Regulierung trifft dies zusammen mit der besonderen Machtstellung weniger zentraler Akteure, die sich dadurch Regulierung entziehen können. Bisher hat der private Sektor sämtliche Vorschläge weitestgehend ignoriert und aggressive Lobbyarbeit betrieben; dennoch wächst die Anzahl der Forschungsbeiträge zu den Themen Fairness, Verantwortung und Transparenz ins Unüberschaubare.

Nicht nur im Bereich von KI beeinflussen sich rechtsverbindliche Vorgaben und ethische Vorschläge gegenseitig als unterschiedliche Dimensionen von Normativität: Ethische Normen orientieren sich an rechtlicher Systematik, Recht übersetzt Ethik in vollziehbare Vorgaben. Die von der Europäischen Kommission eingesetzte unabhängige Hochrangige Expertengruppe für KI (HEG-KI) zum Beispiel hat 2019 in ihren Ethik-Leitlinien für eine vertrauenswürdige KI drei zentrale Kriterien formuliert, die alle KI-Systeme erfüllen sollten: Rechtmäßigkeit, Einhaltung ethischer Grundsätze und Robustheit. Auf nationaler Ebene hat die Datenethikkommission der Bundesregierung in ihrem Gutachten zu algorithmischen Systemen im selben Jahr einen risikoadaptierten Regulierungsansatz vorgeschlagen – also einen, bei der die Regulierungstiefe am Schädigungspotenzial ausgerichtet ist – der nun auf europäischer Ebene in ähnlicher Form umgesetzt wird. Darüber hinaus gibt es zunehmend Vorschläge, schwer fassbare Werte wie Fairness über Metriken und Schwellenwerte abzubilden, um sie umsetzbar zu machen. Die Übersetzbarkeit normativer Wertungen in numerische Maßstäbe aber ist von vornherein begrenzt.

Europäische KI-Regulierung

In der EU werden seit Längerem verschiedene Regulierungsansätze diskutiert. Bereits 2018 wurde eine europäische KI-Strategie veröffentlicht sowie die HEG-KI eingesetzt. 2020 veröffentlichte die EU-Kommission das KI-Weißbuch, gefolgt von einer öffentlichen Konsultation. Im April 2021 legte die Kommission schließlich einen ersten umfassenden Verordnungsentwurf zur Regulierung von KI vor (KI-VO-E). Im laufenden Gesetzgebungsverfahren ist noch vieles an diesem „AI Act“ umstritten, Einigkeit besteht aber über die Systematik eines risikobasierten Regulierungsansatzes und die Schaffung eines horizontalen Rechtsrahmens, der für alle KI-Anwendungen gelten soll, nicht nur für einzelne Sektoren.

KI-Systeme sollen in drei Kategorien klassifiziert werden: unannehmbares Risiko, hohes Risiko und geringes Risiko. Systeme mit minimalem Risiko wie Spamfilter für E-Mails sind kein Gegenstand der Regulierung. Systeme mit unannehmbarem Risiko wie manipulative KI, Social Scoring und biometrische Fernidentifizierung sind verboten, wobei es für Letztere weitgehendende Ausnahmen für Justiz- und Strafverfolgungsbehörden gibt.

Der Schwerpunkt der Verordnung liegt auf Hochrisikosystemen. Zu den Anwendungsfeldern in diesem Bereich zählen zurzeit die Fallgruppen Biometrik, Bildung, Beschäftigung, Inanspruchnahme grundlegender privater und öffentlicher Dienste und Leistungen, Strafverfolgung, Migration, Asyl und Grenzkontrolle sowie Rechtspflege und demokratische Prozesse. Der KI-VO-E legt den Fokus auf die Hersteller:innen von KI, Nutzer:innen scheinen eine untergeordnete Rolle zu spielen. Es fehlen Betroffenenrechte oder Möglichkeiten zur öffentlichen Partizipation. Um die Überwachung der Verpflichtungen sicherzustellen, nimmt der Entwurf primär die Anbieter:innen des Systems in die Pflicht.

Der Entwurf sieht zahlreiche allgemeine und spezielle Transparenzanforderungen vor. KI-Systeme mit hohem Risiko sind generell so zu konzipieren und zu entwickeln, dass ihre Funktionsweise hinreichend transparent ist, um Anbieter:innen und Nutzer:innen ein angemessenes Verständnis der Funktionsweise des Systems zu ermöglichen. Systeme, die mit natürlichen Personen interagieren, und Emotionserkennungssysteme müssen darüber informieren, dass KI eingesetzt wird. Deep Fakes, also manipulierte Bild- oder Toninhalte, müssen gekennzeichnet werden. Was ein „angemessenes Verständnis“ und was generell unter einer „ethischen und vertrauenswürdigen“ KI zu verstehen ist, wird im Normtext jedoch nicht beantwortet. Dies hängt auch mit der Rolle der Normierungsinstitutionen zusammen. Zentral ist hier die Zertifizierung von KI: Die Anforderungen an Hochrisikosysteme scheinen detailliert, ihre konkreten Maßstäbe werden aber maßgeblich auf harmonisierte Normen übertragen (etwa DIN-Normen), die von privaten Standardisierungsorganisationen erlassen werden. Obwohl nicht demokratisch legitimiert, kommt diesen Institutionen damit eine große Macht bei der Regulierungsgestaltung zu.

Zur Umsetzung des KI-VO-E sollen die Mitgliedstaaten neue Aufsichtsbehörden schaffen oder die Verordnungsaufsicht an bestehende Institutionen delegieren. Die genauen Anforderungen, insbesondere die einer vollständigen Unabhängigkeit wie aus dem Datenschutzrecht bekannt, sind Gegenstand laufender Verhandlungen. Als neues regulatorisches Instrument auf Unionsebene sieht der KI-VO-E Reallabore vor (regulatory sandboxes), in denen innovative KI-Anwendungen in Zusammenarbeit mit der Aufsichtsbehörde für einen bestimmten Zeitraum getestet werden sollen.

Neben der geplanten KI-Verordnung gibt es bereits Daten- und plattformbezogene EU-Gesetzgebung, die auch KI betrifft. Zentrales Regelwerk für die Verarbeitung personenbezogener Daten ist seit 2018 die europäische Datenschutzgrundverordnung (DSGVO), die zweifelsohne auch für KI gilt, wenn personenbezogene Daten verarbeitet werden. Hier bestehen allerdings ungelöste Probleme zwischen der regulatorischen Ausrichtung der DSGVO – etwa mit Blick auf Datenminimierung und Betroffenenrechte – und der Differenzierung zwischen verschiedenen Datenkategorien sowie der praktischen Durchsetzung. Bisher gibt es kein eigenes explizites Regelwerk für KI-Trainingsdaten.

Auch die wichtigen Verordnungen des DSA und des Digital Markets Act (DMA) werden sich mittelbar auf den Einsatz von KI auswirken, insbesondere bei sozialen Plattformen. Der DSA fordert von sehr großen Anbieter:innen, systemische Risiken zu überwachen, schafft Transparenzvorgaben für Empfehlungssysteme und verbietet personenbezogene Werbung gegenüber Minderjährigen. Der DMA soll den Wettbewerb der Digitalwirtschaft in der EU schützen und reguliert besonders mächtige „Torwächter“-Firmen, die oft zugleich wichtige Akteure im KI-Bereich sind.

Weitere KI-Regulierungen

Verschiedene Staaten setzen unterschiedliche Schwerpunkte bei der Regulierung von KI; herausgegriffen werden hier die USA und China, die oft als gegensätzliche Systeme zum europäischen Ansatz genannt werden. Den USA wurde lange ein gewisser Laissez-faire-Ansatz mit (zu) großem Vertrauen in die Selbstregulierung der Industrie nachgesagt, inzwischen sind jedoch zahlreiche politische Initiativen insbesondere im Hinblick auf Verbraucherschutz und gegen Monopolisierung angestoßen worden. Die sogenannte AI Bill of Rights, ein nicht bindendes Prinzipienpapier der aktuellen US-Regierung, ist eher darauf bedacht, die Entwicklung nationaler, branchenspezifischer Normen zu fördern als internationale Normen zu beeinflussen.

China hat erhebliche Investitionen in KI getätigt und fördert aktiv die Entwicklung von KI-Technologien und deren Einsatz in allen Wirtschaftssektoren. Chinas Regulierungsansatz ist zum einen stark innovationsorientiert, mit Initiativen zur Förderung spezifischer Entwicklungen auf allen Ebenen der Regierung und der Industrie, und zum anderen gesellschaftlich orientiert, wobei die „soziale Stabilität“ (im Verständnis der Zentralregierung) Vorrang vor den Rechten der einzelnen Person hat. Dennoch sieht der aktuelle Gesetzesentwurf zum Teil schärfere Vorgaben für generative KI vor als der aktuelle Stand europäischer Regulierung, da beispielsweise für das Training generativer Modelle die Einwilligung betroffener Personen eingeholt werden soll – dies würde das Sammeln von Nutzerdaten auf Internetseiten (scraping) für Trainingszwecke untersagen.

Weitere Länder wie Brasilien und Kanada haben eigene Gesetzesentwürfe zur Regulierung von KI auf den Weg gebracht. Auf der Ebene internationaler Organisationen hat der Europarat Verhandlungen über eine KI-Konvention aufgenommen, die Staaten dazu verpflichten soll, bei Entwicklung und Einsatz von KI keine Menschenrechte zu verletzen.

Schwierigkeiten

KI als Regulierungsobjekt direkt zu behandeln, ist komplex, da die Auffassungen davon, was KI eigentlich ist, nach wie vor auseinandergehen. Im ursprünglichen Bereich der KI, Informatik und Mathematik, wird der Begriff meist als Oberbegriff für verschiedene Anwendungen genutzt. Normative Regulierung hat zudem eine andere Perspektive als ein rein technisches Verständnis: Wichtig sind der Einsatzkontext und die dadurch betroffenen Schutzgüter und Interessen. Deswegen benennt nicht jede Regulierung mit KI-Bezug die Technologie unmittelbar – so etwa der DSA. Der KI-VO-E hingegen adressiert KI-Systeme explizit, definiert diese in der ersten Fassung aber so breit, dass praktisch jede Software darunterfällt.

Kritik gibt es auch an der Verwendung des Begriffs „Intelligenz“, denn nicht einmal menschliche Intelligenz ist klar definiert. Wie kann es dann künstliche sein? Aus rechtlich-regulatorischer Sicht ist die Definition des Regelungsgegenstands essenziell, da sie den Anwendungsbereich der Regulierung festlegt. Zudem müssen Anforderungen an Rechtssicherheit, Präzision und Praktikabilität erfüllt sein. Aufgrund des breiten Spektrums an gesellschaftlichen Segmenten und an Wissenschaften, die entweder direkt oder indirekt von KI betroffen sind, führt jedoch jede Sichtweise zu einer eigenen Definition dessen, was KI ist und was sie für den jeweiligen Bereich bedeutet. Die Tatsache, dass weder die Computerwissenschaft noch die Informatik im KI-VO-E direkt erwähnt werden, zeigt, dass es keine allgemein anerkannte technische Definition dessen gibt, was KI ist oder sein könnte.

Im weiteren Gesetzgebungsverfahren des KI-VO-E wurde die Definition mehrfach verändert; der Vorschlag des Europäischen Parlaments von Juni 2023 lautet: „[Ein KI-System ist] ein maschinengestütztes System, das so konzipiert ist, dass es mit unterschiedlichem Grad an Autonomie operieren kann und das für explizite oder implizite Ziele Ergebnisse wie Vorhersagen, Empfehlungen oder Entscheidungen hervorbringen kann, die das physische oder virtuelle Umfeld beeinflussen.“ Auch diese Definition wirft Folgefragen auf, etwa was Autonomie bedeutet. Das Risikoprofil von KI-Systemen lässt sich daher nur aus dem Zusammenspiel zwischen der technischen Funktionalität und dem Anwendungskontext bestimmen. Deshalb ist der regulatorische Filter des KI-VO-E auch nicht die Definition von KI, sondern die Risikoeinstufung. KI-Regulierung funktioniert nur kontextbezogen.

Ausblick

Die populären generativen KI-Anwendungen wie ChatGPT, Modelle wie DALL-E oder Stable Diffusion, die aus Texteingaben Bilder generieren, stellen die Regulierung von KI vor weitere Herausforderungen. Denn diese Modelle können zu unterschiedlichsten Zwecken eingesetzt werden, deren Auswirkungen im Vorfeld nicht überschaubar sind. Die erforderliche Risikoabschätzung verkompliziert sich dadurch. Der Fokus sollte dabei nicht nur auf dem Regulierten, sondern auch auf den Regulierenden liegen: Der Aufbau von Expertise und regulatorischem Wissen ist dringend erforderlich. Ein Zusammenführen verschiedener Disziplinen und ein Dialog mit der Praxis sind unumgänglich. Risikobasierte Regulierung kann nicht alle Probleme lösen, nicht alle Auswirkungen lassen sich vorhersehen oder abschätzen. Die Machtstellung der beteiligten Akteure, auch staatlicher Institutionen, sowie die soziotechnischen Zusammenhänge und Auswirkungen sollten nicht aus dem Blick geraten. Rein technikbezogene schematische Lösungen werden der Komplexität von KI, Menschen, Gesellschaften und normativen Systemen nicht gerecht. Mehr Bildung, Digitalkompetenz und eine lebhafte öffentliche Debatte sind gefordert.

ist Juniorprofessorin für Öffentliches Recht mit Schwerpunkt Datenschutzrecht & Recht der Digitalisierung an der Fernuniversität in Hagen und Vorstandsmitglied der Robotics and AI Law Society.
E-Mail Link: hannah.ruschemeier@fernuni-hagen.de