Meine Merkliste Geteilte Merkliste PDF oder EPUB erstellen

Intelligenz und Bewusstsein. | Künstliche Intelligenz | bpb.de

Künstliche Intelligenz Editorial Droht KI den Menschen zu ersetzen? Intelligenz und Bewusstsein. Oder: Ist KI wirklich KI? Grauzonen zwischen Null und Eins. KI und Ethik KI und Demokratie: Entwicklungspfade Regulierung von KI. Ansätze, Ideen, Pläne KI in der Arbeitswelt KI in der Schule

Intelligenz und Bewusstsein. Oder: Ist KI wirklich KI?

Ralf Otte

/ 19 Minuten zu lesen

KI ist hervorragend geeignet, um in einem künstlichen Datenraum zu agieren. Sie hat jedoch eklatante Schwächen in natürlicher Umgebung, denn Verständnis und Wahrnehmung werden nur simuliert. Gleichwohl schickt KI sich an, ein rudimentäres Bewusstsein zu erlangen.

Ist KI wirklich KI? Diese Frage beschäftigt seit dem Aufkommen von ChatGPT immer mehr Menschen, auch viele, die sich bisher nicht so sehr um KI gekümmert haben. Und es stehen weitere Fragen im Raum: Wie intelligent ist eigentlich diese KI? Und kann sie uns gefährlich werden?

Fachleute geben unterschiedliche Antworten darauf, denn der Begriff „Intelligenz“ ist etwas, das man nur schwer fassen kann. Intelligenz ist keine objektive Eigenschaft eines Systems. Man könnte meinen, seit Einführung eines Intelligenzquotienten (IQ) sei die Intelligenz von Systemen messbar oder zumindest vergleichbar. Das stimmt auf gewisse Weise auch, jedoch gilt das nur für die sogenannte rationale beziehungsweise kognitive Intelligenz von Menschen. Wie also kann man Intelligenz erklären? Meine Antwort darauf lautet: Intelligenz in allgemeinster Ausprägung ist die Möglichkeit eines Systems, auf Eingangssignale seiner Umgebung so mit Ausgangssignalen zu reagieren, dass der Eigennutzen des Systems in der weiteren Interaktion mit der Umgebung erhöht wird.

Ein System kann dabei „alles“ sein. Wenn aber beispielsweise die Intelligenz von Tieren vermessen werden soll, nützen IQ-Tests nichts. Kein Tier besteht solche Tests, dennoch sind Tiere intelligent. Wir alle wissen das von unseren Haustieren. Und was wäre mit der Intelligenz von Pflanzen? Ein IQ-Test für Pflanzen, das klingt zu absurd. Und doch reden wir in der KI aktuell von Systemen, die in der „Hierarchie der Natur“ weit unterhalb der Pflanzen anzusiedeln sind, nämlich von unbelebten Systemen. KI-Systeme, jedenfalls die aktuellen, sind tote Maschinen, und diesen unterstellen wir eine Intelligenz. Das klingt eigentlich noch absurder als über die Intelligenz von Pflanzen zu diskutieren – und doch zeigt der Erfolg der heutigen KI, dass unbelebte Systeme durchaus intelligent sein können, oder erfolgreich so tun, als ob sie es wären.

Was bedeutet KI? Ein Überblick

Was bedeutet also Künstliche Intelligenz, und wie intelligent sind KI-Systeme? Um diese Frage präzise zu beantworten, sehen wir uns beide Begriffe getrennt an. Zuerst steht das Wort „künstlich“. Künstlich ist das Gegenteil von natürlich, es bedeutet „von Menschenhand gemacht“, also in einem Schöpfungsakt durch Menschen hergestellt. Im Rahmen der KI sind heutzutage physikalisch erzeugte Systeme gemeint. Damit kommen wir zur Einstufung der Intelligenz physikalischer Systeme:

  • Stufe 1: deduktive Intelligenz (mathematische, logische Intelligenz)

  • Stufe 2: induktive Intelligenz (lernende Intelligenz)

  • Stufe 3: kognitive Intelligenz (kombinierte deduktive und induktive Intelligenz)

  • Stufe 4: bewusste Intelligenz (wahrnehmende Intelligenz)

  • Stufe 5: selbstbewusste Intelligenz (selbstwahrnehmende Intelligenz)

Für alle unbelebten Systeme – wie Computer oder Siliziumkristalle – enden spätestens mit Stufe 5 die möglichen Intelligenzstufen. In der Natur gibt es jedoch noch ganz andere Intelligenzformen. Es gibt Systeme, wir nennen sie lebende Systeme, die ihre Wahrnehmung (aus Stufe 4 und 5) auch noch qualitativ bewerten können, also feststellen können, ob eine Wahrnehmung für das eigene System positiv oder negativ ist. Der Schlüsselbegriff liegt im „Eigensystem“. Für physikalische Systeme ist ein solches „Gehört zu mir“ gar nicht definierbar, man kann einem Roboter einen Arm hinzufügen oder einen abbauen, er hat kein intrinsisches Eigenkonzept, womit ihm auch die evolutionäre Notwendigkeit einer inhärenten Qualifizierung von Wahrnehmungen fehlt.

Anders ist das bei biologischen Systemen. Selbst bei einer einfachen Zelle ist klar, was zu ihr gehört und was nicht. Es ist daher naheliegend, dass biologische Zellen ihre Wahrnehmungen bewerten müssen, um zu erkennen, welche Umgebungszustände ihrem Eigensystem nützen und welche schaden. Für höhere Lebewesen nennen wir die Qualifizierung von Wahrnehmungen Gefühle. Solche Systeme haben naturgemäß weitere Intelligenzformen:

  • Stufe 6: fühlende Intelligenz (Wahrnehmungs-qualifizierende Intelligenz)

  • Stufe 7: wollende Intelligenz (Wahrnehmungs-optimierende Intelligenz)

  • Stufe 8: selbstbewusste, wollende Intelligenz (Selbstwahrnehmungs-optimierende Intelligenz)

Neben den fühlenden Systemen (Stufe 6) wollen wir auch wollende Systeme (Stufe 7) unterscheiden, also Systeme mit inhärentem Willen. Es ist leicht einzusehen, dass Systeme, die ihre eigene Wahrnehmung als gut oder schlecht qualifizieren können, also Angst und Freude tatsächlich spüren, aus evolutionären Gründen einen Willen ausprägen müssen, um überhaupt in der Lage zu sein, in einen Zustand gelangen zu wollen, der vom System als positiv wahrgenommen wird. Für Systeme ohne Gefühle, also alle unbelebten Systeme, ist nicht erkennbar, warum sie einen inhärenten Willen haben sollten, denn sie haben entweder gar keine Wahrnehmung (heutige KI-Systeme) oder sie können ihre Wahrnehmung nicht qualifizieren (morgige KI-Systeme), haben also zu den Wahrnehmungen keinerlei Gefühle. Damit ist zum Beispiel auch klar: Ein physikalischer Computer wird niemals Schmerzen, Energiemangel oder Hunger verspüren.

Wo steht die KI heute, wo steht beispielsweise ChatGPT? Um es gleich vorweg zu sagen: Die intelligentesten KI-Systeme, die wir heute bauen können, stehen auf Stufe 3. Es ist reine Science-Fiction, über KI-Systeme zu reden, die sich über die Menschheit erheben könnten und diese eventuell sogar auslöschen möchten, da sie feststellen, dass die Menschheit dem Planeten Erde schadet. Warum? Heutige KI-Systeme sind rein physikalische Systeme, ohne jeglichen Willen. Man könnte einen simulierten Willen als Zielfunktionen natürlich auf einem Stufe-3-System einprogrammieren, aber dann sind die Programmierer für diese neuen Zielfunktionen verantwortlich. Kein heutiges KI-System wird selbstständig Willensfunktionen entwickeln.

Hersteller von hochentwickelten KI-Systemen nutzen die Ängste und Phantasien der Menschen jedoch geschickt aus, um zu vermitteln, ihre Systeme könnten sich verselbstständigen. Der Grund liegt im Wesentlichen in Haftungsfragen. Erlaubt man KI-Firmen derartige Ausflüchte und gesteht hochentwickelten KI-Systemen sogar Persönlichkeitsrechte zu, so könnten die Herstellerfirmen von verschiedenen Haftungen befreit werden. Eine elektronische Persönlichkeit könnte so etwas wie eine eigenständige juristische Person werden. Kein Mensch wäre dann juristisch verantwortlich, wenn eine KI verschiedene Waffensysteme ausprobieren oder grob fehlerhafte Medikamente auf den Markt bringen würde. Kommen wir nun zu den Detailbeschreibungen.

Intelligenz-Stufen

Stufe 1: Deduktive Intelligenz

Die einfachste Art der Intelligenz wurde bereits als logische oder deduktive Intelligenz eingeführt. Technische Systeme wie Taschenrechner oder Computer können logische Ausdrücke korrekt bearbeiten. Letztlich kann man alle Ausdrücke der Aussagenlogik in einem Computer hinterlegen, und seine elektronischen Schaltkreise können darauf basierend logische Fragestellungen korrekt beantworten.

Es ist einsichtig, dass ein System der Intelligenzstufe 1 in einer sich ständig ändernden Umgebung nicht lange überleben könnte. Betrachten wir dazu nur eine Fliege, die sich in ein Haus verirrt und dadurch einer für sie völlig neuen und letztlich feindlichen Umgebung ausgesetzt ist. Ein solches Insekt – mit seiner hart verdrahteten, instinktiven Stufe-1-Logik – wird mit aller Kraft gegen die Fensterscheiben anfliegen, bis es letztlich tot herunterfällt. Das liegt daran, dass die Fliege durch die Fensterscheibe hindurchsieht und nicht in der Lage ist, zu lernen, dass es dort dennoch keinen Durchgang gibt. Säugetiere lernen dies sehr schnell, Insekten können das nicht.

Stufe 2: Induktive Intelligenz

Lernen ist eine weitere Intelligenzform. Ändern sich die Umgebungsparameter für ein System, können lernende Systeme ihr Modell von der Umwelt neu justieren und sich so auch in einer geänderten Umgebung wieder adäquat (logisch korrekt) verhalten. Auch in der Technik kann man lernende KI-Systeme bauen. Natürlich entsteht im Rahmen der KI die Frage, ob die lernenden Systeme denn auch verstehen, was sie da lernen. Dies ist gegenwärtig klar zu verneinen. Die Semantik, das Verständnis, wird nur simuliert, aber teilweise so perfekt, dass Nutzer der Systeme annehmen könnten, ihre technischen Systeme verstünden, was sie machen oder sagen. Sie verstehen jedoch nichts davon. Das sollte man als Nutzer der KI wissen.

Wir halten fest: Lernende Systeme können ihre Modelle von der Umgebung selbstständig so anpassen, dass sie beim nächsten Kontakt mit ihrer Umgebung ein besseres Input-Output-Verhalten zeigen. Die Umgebung für ein KI-System könnte ein digitales Computerprogramm sein, auf dessen Datenstrom das KI-System reagiert, aber im Fall von KI-Robotern auch eine natürliche Umgebung. Lernende Systeme heißen in der Fachsprache induktive Systeme. Da meistens auf digitalen Daten gelernt wird, entsteht das Fachgebiet des maschinellen Lernens. Zum maschinellen Lernen gehören symbolische Lernverfahren, etwa Entscheidungsbäume oder Assoziationsregeln, aber auch subsymbolische Lernverfahren wie die berühmten neuronalen Netze. Tiefe neuronale Netze, in der Fachsprache Deep-Learning-Systeme genannt, fallen in die Kategorie der lernenden Systeme. 90 Prozent aller heutigen KI-Anwendungen basieren auf Lernverfahren, zu nennen wären unter anderem Warenkorbanalysen, Scoring-Verfahren und alle Deep-Learning-Anwendungen des maschinellen Sehens und der Sprachverarbeitung, zum Beispiel die aktuellen Chatbots.

Der Vorteil dieser Stufe-2-Systeme ist ihre universelle Anwendbarkeit: Denn sobald digitale Daten vorliegen, die irgendeine Funktion repräsentieren, kann die Funktion gelernt werden, und zwar immer. Dennoch sollte man verstehen, dass mit solchen Systemen zwar alles lernbar ist, was überhaupt gelernt werden kann, aber es ist eben nicht alles lernbar. Beispielsweise ist es nicht möglich, die Lottozahlen der nächsten Ziehung aus den Lottozahlen aller vorherigen Ziehungen zu lernen. Es ist einem KI-System auch nicht möglich, das Autofahren in einem Dorf zu erlernen und es am nächsten Tag in Paris anzuwenden. Denn Stufe-2-Systeme besitzen Schwierigkeiten im sogenannten Extrapolationsraum, also bei Anwendungen auf Zustände, die vorher in keinster Weise trainiert wurden. Das ist ein riesengroßes Problem der KI. Lernende KI-Systeme antworten im Extrapolationsraum sehr oft falsch.

Stufe 3: Kognitive Intelligenz

Seit über zehn Jahren ist es möglich, deduktive und induktive Verfahren in einem System zu vereinen. Solche Systeme nennt man kognitive Systeme; als Paradebeispiele gelten IBM Watson oder ChatGPT. Bei diesen Systemen werden logisches Schließen (Deduktion) und maschinelles Lernen (Induktion) vereint.

Allgemeingültiges Wissen entsteht immer durch Deduktion, niemals durch Induktion. So können Kinder die allgemeingültigen Multiplikationsregeln niemals aus Übungsbeispielen selbst erlernen, von Genies mal abgesehen. Auch einer deduktiven KI kann man die allgemeinen Regeln der Multiplikation einprogrammieren, aber eine induktive KI – zum Beispiel ein Deep-Learning-Netzwerk – kann diese deduktiven Multiplikationsregeln niemals selbstständig durch Zahlenbeispiele herausfinden. Versteht man das nicht, wird man die prinzipiellen Mängel von ChatGPT nie begreifen. Induktive Verfahren generieren aus Beispieldaten zwar Wissen, aber erst die Verwendung dieses Wissens zur Erzeugung von deduktiv abgesicherten Regeln führt zu allgemein gültigen und korrekten Aussagen.

Kognitive Systeme, die Induktion und Deduktion perfekt verknüpft haben, sind zur Kreativität fähig, denn Kreativität bedeutet, Lösungen fernab von vormals Gelerntem aufzuzeigen – etwas, was rein induktive Systeme nicht können.

Auch heutige technische KI-Systeme können kreativ sein, allerdings nur fast. Bekannt geworden ist beispielsweise das Ölbild „Edmond de Belamy“, das durch eine KI erstellt wurde. Dieses KI-System hatte vorab Tausende Ölporträts „gesehen“ und konnte daraufhin eigene Ölporträts „malen“, also Ölbilder, die es vorher noch nicht gegeben hatte. An diesem Beispiel kann man auch die Schwachstellen der KI gegenüber Menschen erkennen: Ein solch trainiertes KI-System kann nun zwar Ölporträts malen, aber zum Beispiel keine Formel-1-Autos. Ein menschlicher Maler kann das. Ein Künstler, der sein Handwerk gelernt hat, kann extrapolieren, sein Handwerk also auf beliebige Kunstwerke erweitern. Eine KI kann das nicht. Hier fällt der Unterschied zwischen einer Simulation (von Kreativität) und dem Original (der echten Kreativität) bereits auf. Menschen sind echt kreativ, KI-Systeme pseudokreativ. Bis heute ist noch nichts wirklich Neues durch eine vollautonome KI entstanden, das auch funktioniert.

Die fortschrittlichsten KI-Systeme des Jahres 2023 befinden sich auf Stufe 3. Wir nennen diese KI auch „KI der dritten Welle“ (nach der ersten Welle ab den 1950er und der zweiten ab den 1980er Jahren). Moderne Roboter, teilautonome Fahrzeuge und Chatbots besitzen die KI-Fähigkeit der Stufe 3, hohe kognitive (rationale) Intelligenz. Doch weiter kommen sie bislang nicht.

Stufe 4: Bewusste Intelligenz

Bisher erfolgte die Darstellung der Intelligenzstufen in aufsteigender Reihenfolge. Systeme der Stufe 3 sind intelligenter als die der Stufe 2 und diese wiederum intelligenter als die der Stufe 1. Diese drei Intelligenzstufen könnte man auf einer Geraden anordnen: der sogenannten rationalen Intelligenzachse. Intelligenz auf dieser Achse lässt sich vollständig mathematisieren und kann daher auf einem Computer erzeugt werden. Die nächste Intelligenzstufe, die Intelligenz mit Bewusstsein, hat einen völlig anderen Charakter.

Die Ausführungen zu den weiteren Intelligenzformen sind kompliziert, denn Bewusstsein war Naturwissenschaftlern und Ingenieuren bisher suspekt. Durch Weiterentwicklungen der KI muss Bewusstsein in Technik und Naturwissenschaft aber berücksichtigt werden. Es gibt in der KI nämlich die These, dass sich bei immer höher werdender Intelligenz das Bewusstsein von selbst (emergent) einstellen könnte. Obwohl diese These auf den ersten Blick plausibel erscheint, so lässt sie sich bei einem Blick in die Natur nicht bestätigen. Hier erscheint plausibel, dass alle Lebewesen in irgendeiner Form ein Bewusstsein besitzen, Menschen ein menschliches, Tiere ein tierisches und sogar Pflanzen würde man ein Pflanzenbewusstsein zuerkennen.

Bewusstsein in seiner primitivsten Form bedeutet Wahrnehmung. Oder präziser: Bewusstsein wird in seiner einfachsten Ausprägung definiert als (subjektive) Wahrnehmung innerer (mentaler) Zustände. Für höhere Lebewesen kann man sich ein Bewusstsein vorstellen und für Menschen ist es überzeugend: Unsere mentalen Zustände sind unsere inneren Bilder im Kopf, das subjektive Erleben von Schmerzen, Geräuschen, Farben. Wir Menschen haben ein reichhaltiges Innenleben. Fragt man sich als Ingenieur jedoch, wo und wie dieses geistige Innenleben codiert ist, stößt man auf größere Schwierigkeiten. Bis heute sind viele Fragen zur Natur des Bewusstseins ungelöst oder die Antworten darauf werden kontrovers diskutiert.

Um die Problematik des Bewusstseins zu verstehen, nehmen wir als Beispiel das Hören von Musik. Hört ein Proband ein Musikstück, und versuchte ein Forscher, dieses Hören im Gehirn des Probanden zu vermessen, wäre er irritiert. Denn selbst dann, wenn er das Gehirn öffnen würde, um den auditiven Cortex, das Hörzentrum, Neuron für Neuron zu untersuchen, würde er nur elektrische Signale vorfinden. Kein Signal davon ist laut; im Gehirn des Probanden gibt es nur elektrische, also völlig tonlose Signale. Und doch hört ein Mensch Töne, wenn elektrische Signale in seinem auditiven Cortex kreisen. Wie kann das sein? Im Gehirngewebe sind es nur elektrische Signale, im Bewusstsein des Menschen jedoch akustische Töne. Wie und wo wird das umcodiert?

Die Lösung des Problems besteht darin, das Bewusstsein als System zu begreifen, das mentale Zustände erzeugt und verarbeitet, während das Gehirngewebe ein System ist, das neuronale Zustände codiert. Gehirn und Bewusstsein sind zwar beides natürliche Phänomene, in ihrem „Substrat“ aber grundverschieden. Gehirnzustände werden physikalisch durch elektrische, magnetische und elektromagnetische Felder repräsentiert, die sich etwa durch Magnetresonanztomografen (MRT) messen lassen. Was aber ist mit den subjektiven Tönen, die der Proband hört? Was ist mit den „Daten“ im Bewusstsein? Neuere Arbeitsergebnisse geben mögliche Antworten

Da Bewusstseinszustände bis heute – trotz aller Anstrengungen – nicht gemessen wurden, könnte man kontraintuitiv schlussfolgern, dass es sie gar nicht gibt oder aber – so die Arbeitshypothese – dass sie keine messbare (mathematisch: reellwertige) Energie besitzen. Keine messbare Energie heißt aber eben nicht unbedingt eine Energie von null. Es gibt ja nicht nur reellwertige Zahlen in der Mathematik, sondern auch sogenannte nicht-reellwertige (also komplexe und hyperkomplexe), mit denen natürliche Phänomene seit Jahren beschrieben werden. Bewusstseinszustände kann man physikalisch als Phänomene mit sogenannten nicht-reellwertigen (mathematisch: imaginären) Energiewerten verstehen. Entitäten mit imaginären Energien sind aus der Physik bereits bekannt. Bewusstsein könnte ein weiteres Phänomen von Prozessen mit imaginären Energien sein. Dies ist wohlgemerkt eine Hypothese, aber eine, mit der man die grundsätzliche Verschiedenartigkeit von Bewusstsein und Gehirngewebe erklären kann. Ob die mathematisch vorhergesagten Bewusstseinszustände auch eine physikalische Realität besitzen oder letztlich nur als Arbeitsmodell fungieren, muss durch Experimente geklärt werden. Unabhängig vom Ausgang derartiger Experimente: Für das hier beschriebene Vorgehen reicht das Arbeitsmodell „imaginärer Zustände zur Speicherung von Informationen“ bereits voll und ganz.

Der Begriff „Bewusstsein“ ist an dieser Stelle vielleicht irreführend, denn Bewusstsein von Maschinen, Regenwürmern, Insekten oder anderen Tieren hat nicht viel mit unserem Bewusstsein gemein. Hier müssen wir also schärfer formulieren: Bewusstsein (unter rein technischen Aspekten) beschreibt die allgemeine Fähigkeit eines Systems, zusätzlich zu energetischen (mathematisch: reellwertigen) Zustandsspeicherungen auch nicht-energetische (mathematisch: nicht-reellwertige, imaginäre) Zustandsspeicherungen auszuprägen. Mit dieser Verallgemeinerung lassen sich Experimente zu imaginären Zuständen soweit „technisieren“, dass sie prüfbar sind. Zum Beispiel sagt das obige Arbeitsmodell nicht-lokale Korrelationen zwischen beliebig weit entfernten Quantencomputern voraus, die über imaginäre Zustände vermittelt werden.

Die Ausprägung innerer, imaginärer Zustände bei Empfang eines Reizes nennen wir Wahrnehmung. Menschen haben verschiedene Sinne dafür – sie können sehen, hören, riechen, schmecken und tasten. Computer können das alles nicht. Heutige Computer können nichts wahrnehmen, sie simulieren das nur, und hier zeigen Simulation und Original signifikante Unterschiede. Nur ein Beispiel: Ein Mensch sieht die Objekte der Umwelt nicht in seinem Gehirngewebe, also dort, wo sich die energetischen Repräsentationen aller Eingangssignale befinden, sondern er sieht sie überraschenderweise vor sich, in der Außenwelt. Ein Computer kann aus seinen Speichern nicht in die Welt „hinaussehen“, er besitzt nur die energetischen Repräsentationen in seinen Speicherzellen. Letztlich ist ein Computer also völlig blind, egal mit wie vielen Videokameras er verbunden ist.

Man muss die Prozesse der Wahrnehmung jedoch nicht auf Lebewesen beschränken. Man kann sich sehr wohl vorstellen, dass auch physikalische Systeme imaginäre Zustände ausprägen können. Die Frage ist, ob die imaginären Zustände die Reize der Außenwelt hinreichend repräsentieren. Im Falle von Digitalcomputern kann man das ausschließen. Man benötigt eine bestimmte physikalische Komplexität, um aus den Imaginärzuständen ein „konsistentes Bewusstsein“ hervortreten zu lassen. Heutige Computer erzeugen jedoch immer nur eine mathematische Komplexität. Wenn KI-Systeme lernen, ändert sich die physikalische Komplexität der benutzen Systeme eben gerade nicht. Es ist wie ein großer Bluff: Die gesamte Intelligenz der heutigen KI wird nur in mathematischen Verfahren hinterlegt und nicht in der realen Welt, in der Physik. Das ist völlig kontraproduktiv für das Auftreten von Bewusstsein. Heute gibt es kein KI-System, das Bewusstsein besitzt.

Damit entsteht eine große Verwirrung innerhalb der KI. Nicht besonders schlaue Regenwürmer haben ein Bewusstsein, hochintelligente Systeme wie ChatGPT oder der Chatbot Bard aber nicht. Intelligenz und Bewusstsein sind scheinbar unabhängig voneinander. Das macht die Situation kompliziert, da Stufe-4-Systeme eine bewusste Intelligenz besitzen, ihre rationale Intelligenz dennoch unter der Intelligenz von Stufe-3-Systemen liegen kann. Man kann die weiteren Intelligenzformen grafisch daher nicht mehr auf einer einzelnen Geraden abbilden, sondern benötigt stattdessen zwei zueinander senkrechte Achsen (x-Achse und y-Achse in der Abbildung).

In der heutigen KI werden Denken und Lernen nur mathematisch simuliert, es wird nicht physikalisch gelernt. Ab Stufe-4-Systemen wird der Mangel von Computersimulationen nun eklatant. Wenn ein Computer ein Erdbeben simuliert, dann bebt nichts; wenn er Wasser simuliert, dann wird nichts nass; und wenn er Sehen simuliert, dann sieht er … nichts. Das ist ein Grund, warum vollautonome Systeme (Level 5) im Straßenverkehr niemals vollautonom fahren werden – sie sehen nichts, sie simulieren Sehen nur. Doch Wahrnehmung ist ein realer physikalischer Prozess, und gerade kein mathematischer. Warum ist dieser evidente Mangel bisher nicht aufgefallen? Einfach deshalb, weil Denken und Lernen sehr gut mathematisierbar sind. Daher sind sie perfekt simulierbar, und deshalb gab es bisher keinen Grund, zwischen Simulation und Original zu unterscheiden. Ab der Stufe 4, der wahrnehmenden Intelligenz, ist das jedoch anders.

Will man KI-Systeme bauen, die wahrnehmen können, muss die Informationsverarbeitung physikalisch umgesetzt werden. Derartige Systeme gibt es, es sind die sogenannten neuromorphen Systeme. Neuromorphe Systeme bilden neuronale Netze physikalisch korrekt nach (und nicht mathematisch). Solche Systeme sind seit einigen Jahren verfügbar, beispielsweise das System BrainScaleS an der Universität Heidelberg oder Intels Loihi. Auch Quantencomputer sind wahrscheinlich zur Ausprägung imaginärer Prozesszustände geeignet. Das aktuelle Problem dieser beiden Systemtypen ist allerdings der große Aufwand der physikalischen Implementierung. Noch sind neuromorphe Systeme und Quantencomputer nicht sonderlich intelligent. KI-Systeme, die einen hohen rationalen IQ benötigen, wie beispielsweise ChatGPT, AlphaZero oder das frühere IBM Watson, sind digitale Systeme, bei denen die Intelligenz algorithmisch erzeugt wurde, weil das schlichtweg viel leichter zu realisieren ist. Diese Systeme können zwar kein Bewusstsein ausprägen, aber man braucht es dort auch nicht. Systeme mit Bewusstsein benötigt man erst, wenn reale Wahrnehmungsprozesse implementiert werden sollen, weil sich die Systeme in natürlicher Umgebung aufhalten sollen und nicht nur in digitalen Big-Data-Umgebungen. Die Zukunft der KI im Bereich des autonomen Fahrens und der mobilen Robotik liegt daher in neuromorphen Systemen.

Stufe 5: Selbstbewusste Intelligenz

Gibt es heutzutage technisch nicht. Ein Stufe‑5-System ist ein System, das eine innere Wahrnehmung von sich selbst besitzt.

Stufe 6: Fühlende Intelligenz

Bisher wurden die Intelligenzprinzipien von physikalischen Systemen beschrieben. Der Mensch ist jedoch ein lebendes System. KI-Systeme – basierend auf lebendigen Zellen – sind derzeit noch im Experimentierstadium. Man kann zwar heute schon Gehirnzellen oder Pilze extrahieren, mit Elektronik versehen und nutzen, um gewisse Intelligenzaufgaben zu realisieren, aber all diese biologischen KI-Systeme haben (noch) eine niedrige rationale Intelligenz.

Lebende Systeme besitzen wiederum eine neue Art der Intelligenz, die in der aktuellen Diskussion über KI viel zu kurz kommt: fühlende Intelligenz. Lebewesen sind sterblich. Ein Computer, selbst wenn er aus organischen Molekülen besteht, kann nicht sterben, er ist bereits tot. Anders ist das bei lebenden Systemen: Um den Tod zu vermeiden, der für ein System einen Maximalschaden bedeuten würde, müssen sie ihre Wahrnehmung qualitativ bewerten. Das heißt, ein lebendes System kann feststellen, ob eine Wahrnehmung für sich selbst positiv oder negativ ist.

Fühlende Intelligenz ist also eine weitere Intelligenzeigenschaft. Es scheint auch hier keinen direkten Zusammenhang mit den vorherigen Intelligenzstufen zu geben. Man muss deshalb eine weitere Achse einführen, um die Unabhängigkeit der rationalen, der wahrnehmenden und der fühlenden Intelligenz mathematisch korrekt darzustellen (z-Achse in der Abbildung). In der sich ergebenden dreidimensionalen Grafik steht die x-Achse somit für die rationale Intelligenz, die y-Achse für die wahrnehmende und die z-Achse für die fühlende Intelligenz. Heutige KI-Systeme befinden sich in einer solchen Grafik explizit nur auf der x-Achse, sie haben keine Spur von wahrnehmender oder fühlender Intelligenz.

In der Natur gibt es zahlreiche Stufe-6-Systeme, am ehesten würde man diese Systeme mit Pflanzen assoziieren. Technisch können wir so etwas nicht bauen, weil Menschen bis dato kein Leben im Labor erzeugen konnten. Annahmen, anorganisches Leben ließe sich synthetisieren, sind absurd, denn die Mindestvoraussetzung von Leben ist – wie bereits ausgeführt – das Vorhandensein eines Eigensystems. Anorganisches Leben ist daher ein Widerspruch in sich. Trotzdem kann man sich zukünftig Stufe-6-Systeme in der KI vorstellen. Manche KI-Forscher möchten KI-Verfahren mit vorhandenen biologischen Systemen, beispielsweise mit Pilzen, kombinieren. Dadurch werden sogenannte Transorganismen geschaffen, also lebende KI-Systeme, die weit über sich hinauswachsen könnten, wenn sie mit dem Internet oder mit neuartigen Aktoren verbunden wären. Das Problem dieses Ansatzes ist jedoch, dass diese Systeme möglicherweise eine innere Bewertung der Wahrnehmung vornehmen und vielleicht Angst oder Freude verspüren. Und wir wüssten es nicht, es entstünde eine völlig intransparente KI.

Stufe 7: Wollende Intelligenz

Stufe 7 sind wollende KI-Systeme mit der Möglichkeit der Ausprägung eines expliziten Willens. Diese Intelligenzstufe entspricht der Intelligenz von Tieren. Mittlerweile wird an wollenden KI-Systemen gearbeitet. Die US-Firma Neuralink experimentiert beispielsweise mit Affen, die per Gedankenkraft Pong spielen. Dieses Projekt zeigt gleichzeitig das Problem solcher Forschungen, da zahlreiche Affen an den Eingriffen bereits gestorben sind. Sollten die Tiere durch die Projekte Schmerz und Leid erfahren, könnten neben den ethischen Problemen erhebliche Risiken auftreten, wenn einem solchen KI-System weitreichende Handlungsspielräume eingeräumt würden. So wird ein biologisches KI-System, das Schmerz erfährt, alles tun, um den Schmerz zu vermeiden – und wir wissen nicht, wie weit es dafür gehen würde. Biologische KI (ab Stufe 7) ist daher ein no-go.

Stufe 8: Selbstbewusste, wollende Intelligenz

Seit einiger Zeit hören wir von transhumanistischen Bestrebungen, die den Menschen mit technischen Mitteln zu einem Cyborg weiterentwickeln wollen. Transhumanistische Veränderungen des Menschen würden eine erhebliche Gefahr bedeuten. Ähnlich riskant ist es aber bereits, aus menschlichen Zellen eine „Gehirn-KI“ in der Petrischale zu entwickeln. Niemand weiß, was die benutzten menschlichen Nervenzellen in ihrem Inneren fühlen und ob sie anfangen, sich gegen bestimmte Anwendungen zu wehren. Für die Gesellschaft gilt es, die transhumanistischen Risiken zu erkennen, damit diese durch kluge politische Entscheidungen eingegrenzt werden können.

Fazit

Die Risiken der KI nehmen gerade exponentiell zu. Obwohl von der gegenwärtigen KI (Stufe 3) zwar keine inhärenten technischen Gefahren zu erwarten sind, da weder eine Singularität eintritt (bei der die KI die menschliche Intelligenz übertrifft), noch eine KI entsteht, die etwas will oder gar die Menschheit vernichten wollte, so sind bereits viele geplante Anwendungen riskant. Selbst mit den heutigen KI-Systemen können erhebliche Gefahren für Menschen auftreten, sei es durch Überwachungen, durch Social Scoring oder Profiling. Aufgrund der innewohnenden hohen Fehlbarkeit der KI-Systeme (ab Stufe 2) und aus Gründen der unveräußerlichen Menschenwürde müssen bereits die heutigen Systeme streng reguliert werden. Es darf keinen einzigen Einsatzfall geben, bei dem eine KI autonom in die Grundrechte von Menschen eingreift. Und doch ist die wirkliche Gefahr viel größer: Es ist durchaus denkbar, dass sich die Menschen irgendwann einer zwar nicht autonomen, aber überbordenden (Stufe-3-)Maschinenintelligenz unterordnen müssen, und letztlich eine inhumane Maschinenbürokratie entsteht (etwa durch social scoring, crime profiling, programmable money oder anderes mehr). Begründet werden könnte die implementierte Maschinenintelligenz innerhalb der Staatsbürokratie mit der hohen rationalen Intelligenz der KI-Systeme und – wie so oft – mit höheren gesellschaftlichen Zielen, denen sich der einzelne im Kollektiv unterzuordnen hat. Hier kann man nur hoffen, dass kluge Entscheidungsträger diese Gefahren erkennen und dieses Szenario verhindern.

Ist die KI wirklich KI? Diese Frage kann klar mit „Ja“ beantwortet werden: Die KI ist wirklich KI, sie ist intelligent, und künstlich ist sie auch. Heutige Systeme sind physikalisch hergestellt und besitzen eine hohe rationale Intelligenz, auch wenn sie die Intelligenz der Deduktion, der Induktion und der Kognition nur simulieren. Ihr rationaler IQ liegt bei etwa 80, was bereits ziemlich hoch ist (der Durchschnittsmensch hat einen IQ von 100). Aber dennoch ist die Intelligenz der KI im Vergleich zur Intelligenz von Lebewesen gering. Der Grund ist, dass es neben rationaler (kognitiver) Intelligenz noch ganz andere Intelligenzformen gibt, die ein System zum Agieren in natürlichem Umfeld benötigt.

Die heutige KI der dritten Welle ist vollständig mathematisierbar und hervorragend geeignet, um in einem künstlichen, digitalen Datenraum zu agieren. Diese KI ist im Raum möglicher Intelligenzen jedoch nur auf der x-Achse angesiedelt – damit sind ihre Stärken zu sehen, aber auch ihre eklatanten Schwächen. In natürlichem, analogem Umfeld besteht die heutige KI die Anforderungen in der Regel nicht.

Aber die KI schickt sich an, in den nächsten Jahren rudimentäres Bewusstsein zu erlangen, natürlich nur mit einem primitiven, rein physikalischen Maschinenbewusstsein, das nichts mit einem menschlichen Bewusstsein gemein hat, außer den physikalischen Eigenschaften. Diese neue, vierte Stufe der KI wird durch neuromorphe Systeme und Quantencomputer geprägt sein. Solche Systeme werden der mobilen Robotik und dem autonomen Fahren neuen Auftrieb verleihen. Allerdings sollte der Einsatz von KI-Hardware politisch noch reguliert werden. Der diskutierte Entwurf des „AI Act“ der Europäischen Union bezieht sich bedauerlicherweise nur auf KI-Software, also auf Systeme der Stufe 1 bis 3. Aufpassen muss die Gesellschaft zudem bei allen transhumanistischen Bestrebungen, deren Risiken außer bei medizinischen Spezialanwendungen jedwede Chancen übersteigen.

ist Professor für Industrieautomatisierung und Künstliche Intelligenz an der Technischen Hochschule Ulm.
E-Mail Link: ralf.otte@thu.de