Meine Merkliste Geteilte Merkliste PDF oder EPUB erstellen

Was ist Künstliche Intelligenz – was kann sie leisten? | Künstliche Intelligenz | bpb.de

Künstliche Intelligenz Editorial Die können was! Aber können Roboter auch fühlen? Ein Gespräch über Künstliche Intelligenz Was ist Künstliche Intelligenz – was kann sie leisten? Mensch fragt, Maschine antwortet. Wie Künstliche Intelligenz Wirtschaft, Arbeit und unser Leben verändert Entgrenzungen zwischen Mensch und Maschine, oder: Können Roboter zu guter Pflege beitragen? Maschinenethik und "Artificial Morality": Können und sollen Maschinen moralisch handeln? Überlegungen zur Disziplin der Maschinenethik Zwischen Menschwerdung und Weltherrschaft: Künstliche Intelligenz im Film

Was ist Künstliche Intelligenz – was kann sie leisten?

Ulrich Eberl

/ 19 Minuten zu lesen

Maschinen lernen dank Künstlicher Intelligenz sprechen, sehen und lesen. Sie werden bald alle Lebensbereiche grundlegend verändern. Was treibt diese Entwicklung, wie weit geht sie, und bleiben die smarten Maschinen beherrschbar?

Vor 250 Jahren meldete James Watt seine Verbesserung der Dampfmaschine zum Patent an. Seither konstruieren findige Forscher ständig neue Maschinen, um Menschen mühselige Arbeiten abzunehmen. Die Dampfmaschine revolutionierte nicht nur Bergbau, Schifffahrt und Eisenbahnen, sondern auch die Stahl-Walzstraßen und mit Spinn- und Webmaschinen die Textilindustrie. Hundert Jahre später begann der Siegeszug von Elektro- und Verbrennungsmotoren. Auto, Flugzeug und Fließband ermöglichten Massenmobilität und Massenfertigung. Und wieder hundert Jahre danach führten Mikrochip, Computer, Handy und Internet zu Automatisierung, Digitalisierung und grenzenloser Kommunikation.

Doch noch nie in dieser langen Geschichte der industriellen Revolutionen war der Kern des Menschseins in Reichweite der Maschinen: unsere Intelligenz. Genau dies ändert sich gerade. In den vergangenen fünf Jahren hat es auf dem Gebiet der Künstlichen Intelligenz (KI) mehr Fortschritte gegeben als in den 50 Jahren zuvor. Auf etlichen Feldern, die bisher Menschen vorbehalten schienen, übertreffen uns Maschinen bereits. Sie schlagen menschliche Weltmeister im Quizspiel Jeopardy ebenso wie auf dem Go-Brett, sie können in nicht einmal zwei Stunden auf Millionen von Google-Street-View-Bildern die Hausnummern finden, sie machen bei der Erkennung von Verkehrszeichen nur halb so viele Fehler wie Menschen, sie finden in Gewebeschnitten Hinweise auf Krebszellen, die Ärzten bisher unbekannt waren, und sie können grundlegende Emotionen wie Wut, Freude, Trauer und Überraschung aus Gesichtern besser lesen, als viele von uns es vermögen.

Smarte Maschinen lernen sprechen, sehen, lesen

Vor allem das Sprach-, Text- und Bildverständnis von Maschinen mit Künstlicher Intelligenz leistet Erstaunliches: Siri, Alexa, Cortana, Google Assistant, und wie die virtuellen Assistenten alle heißen, lernen derzeit mit rasender Geschwindigkeit, Fragen und Befehle von Menschen zu verstehen und sinnvoll zu beantworten. Übersetzungsprogramme wie Google Translate oder DeepL können in Sekundenschnelle lange Textabschnitte in andere Sprachen übertragen – nicht fehlerfrei, aber doch in einer so guten Qualität, wie sie noch vor ein, zwei Jahren unvorstellbar gewesen wäre. Und das System Watson von IBM kann natürlich-sprachige Texte analysieren und Inhalte herausfiltern und zusammenfassen – ob sie nun aus Wikipedia stammen oder aus medizinischer Fachliteratur, aus Börsen- und Unternehmensnachrichten oder aus Berichten von Autowerkstätten.

In Kliniken, Banken und Unternehmen bereiten die ersten dieser neuen KI-Systeme bereits Daten auf und geben Ärzten, Finanzberatern und Managern Empfehlungen für Diagnosen, Geldanlagen oder die Optimierung von Industrieprozessen. Das Smartphone war offensichtlich nur der Anfang der Ära der smarten Maschinen. Neben Smart Health, Smart Finance und Smart Factory heißen die Schlagworte der Zukunft Smart Grids, Smart Cars, Smart Buildings und Smart Cities. Intelligente Stromnetze, die Smart Grids, werden Energieangebot und -nachfrage in Einklang bringen und dadurch nachhaltige Energiesysteme mit all ihren erneuerbaren Energien, Speichern und Verbrauchern erst möglich machen. Schon bald werden wir auf Autobahnen unsere Fahrzeuge – die Smart Cars – auf Autopilot schalten, bis etwa 2030 auch auf Landstraßen und in Städten. In Fabriken werden wir Hand in Hand mit Robotern arbeiten, in Hotels, Museen und Geschäften werden uns Maschinen Auskunft geben und uns bedienen. Zu Hause und in Seniorenheimen werden sie Getränke bringen, mit alten Menschen Spiele spielen, putzen, die Wäsche wegtragen, vielleicht sogar kochen. Gebäude und Städte werden voller Sensoren sein, die Energieverbrauch und Raumbelegung, Verkehrsströme und Emissionen messen und Computern bei der Optimierung helfen.

Kein Zweifel, wir werden die smarten Maschinen brauchen: die autonomen Fahrzeuge und das intelligente Zuhause als Hilfen für die immer älter werdende Bevölkerung, die Smart Grids und das Internet der Energie für nachhaltige Energiesysteme, die Smart Factory für eine flexible und wettbewerbsfähige Industrie und die Smart Cities für die lebenswerten Städte von morgen. Schon bald werden wir in einer Gemeinschaft von Menschen und smarten Maschinen leben – so selbstverständlich, wie wir heute Smartphones nutzen.

60 Jahre Auf und Ab in der KI-Forschung

Doch was sind die Treiber dieser Entwicklung? Wie ist es möglich, dass sich das Gebiet der Künstlichen Intelligenz in den vergangenen Jahren so explosionsartig entwickelt hat, und was ist an technischem Fortschritt in den nächsten Jahrzehnten noch vorstellbar? Könnten uns Maschinen dereinst sogar in allen Belangen übertreffen – wie es der Astrophysiker Stephen Hawking oder der Tesla-Gründer Elon Musk befürchten? Eindringlich warnen sie vor einer "Superintelligenz", die uns vielleicht genauso behandeln würde, wie wir mit lästigen Mücken umgehen. "Künstliche Intelligenz könnte die letzte Erfindung sein, die die Menschheit machen wird", meint der in Oxford arbeitende Philosoph Nick Bostrom. Wie realistisch ist so etwas?

Um diese Fragen beantworten zu können, hilft zunächst ein Blick in die Vergangenheit. Der Begriff "Künstliche Intelligenz" stammt aus dem Jahr 1956, als der US-Wissenschaftler John McCarthy eine Konferenz in New Hampshire so betitelte. Auf dieser Tagung diskutierten Forscher erstmals über Computer, die Aufgaben lösen sollten, die über das reine Rechnen hinausgingen, etwa Texte analysieren, Sprachen übersetzen oder Spiele spielen. So hatte der Elektroingenieur Arthur Samuel für einen IBM-Großrechner ein Programm für das Brettspiel Dame geschrieben. Am Anfang kannte diese Software nur die erlaubten Züge des Spiels, und so verlor sie stets gegen Samuel. Doch dieser ließ ein weiteres Programm mitlaufen, das – entsprechend den Strategien, die er selbst kannte – bei jedem Zug die Gewinnwahrscheinlichkeit für die aktuelle Aufstellung auf dem Brett bewertete. Zugleich hatte Samuel eine geniale Idee: Er ließ den Computer gegen sich selbst spielen und herausfinden, ob diese Wahrscheinlichkeiten geändert werden sollten. Spiel für Spiel, immer wieder. Dabei lernte der Computer hinzu und verbesserte die Genauigkeit seiner Vorhersagen. Was dann passierte, scheint heute eine Selbstverständlichkeit, war 1956 aber eine Sensation: Der Computer wurde ein so guter Dame-Spieler, dass Samuel keine Chance mehr gegen ihn hatte. Ein Mensch hatte erstmals einer Maschine etwas beigebracht, bei dem sie durch stetiges Lernen besser wurde als ihr eigener Lehrer.

Nach demselben Prinzip entwarfen die Forscher der Google-Tochter DeepMind 2017 ihr Programm AlphaGo Zero. Sie gaben ihm nur die Regeln des Go-Spiels vor und ließen es dann ständig gegen sich selbst spielen. Binnen drei Tagen erreichte AlphaGo Zero vom einfachsten Anfängerniveau die Spielstärke eines Profis und übertraf bereits die Version, die 2016 gegen den menschlichen Weltmeister Lee Sedol mit 4:1 gewonnen hatte. Nach drei Wochen verfügte AlphaGo Zero dann schon über eine Spielstärke, die noch nie ein Mensch in diesem jahrtausendealten Spiel erreicht hatte – und das, ohne dass das Programm jemals Spiele von Menschen studiert hätte.

Besonders bemerkenswert dabei ist, dass Go nahezu unendliche Spielvarianten erlaubt. Die Anzahl der möglichen Züge auf einem Go-Brett übertrifft die Zahl der Atome im Universum bei Weitem. Daher kann die Software unmöglich alle denkbaren Spielzüge durchrechnen. Bei Schach war das in gewissem Maße noch machbar: 1997 besiegte der IBM-Rechner Deep Blue den damaligen Weltmeister Garri Kasparow unter Turnierbedingungen – im Wesentlichen aufgrund seiner Rechenleistung, mit der er pro Sekunde 200 Millionen Schachstellungen analysieren konnte. AlphaGo Zero hingegen muss Stellungen sozusagen "intuitiv" bewerten, allein aufgrund seiner gelernten Erfahrung aus bisher gespielten Partien und der Ähnlichkeiten von Stellungen.

Dieses Erlernen von Mustern und der Umgang mit ihnen stehen im Zentrum des Qualitätssprungs der neuen smarten Maschinen. Es geht nicht mehr nur um pure Rechengeschwindigkeit: Hier haben Computer schon lange die Menschen hinter sich gelassen, und auch auf dem Gebiet der Logik sind Algorithmen kaum zu schlagen. So entstanden schon vor 60 Jahren Computerprogramme, die eigenständig logische Theoreme mathematisch beweisen konnten. Über Jahrzehnte versuchten Forscher daher, mit sogenannten Expertensystemen alle Probleme zu bewältigen, etwa durch die Anwendung von Wenn-Dann-Regeln im Sinne von: "Wenn die Nase läuft und der Patient Halsweh hat und hustet, aber nur geringes Fieber hat, dann ist die Wahrscheinlichkeit größer, dass es sich um eine simple Erkältung handelt und nicht um eine gefährliche Virusgrippe."

Doch Rückschläge blieben nicht aus, denn oft sind solche regelbasierten Systeme gar nicht einsetzbar – vor allem bei Alltagsaufgaben, die wir Menschen scheinbar mühelos beherrschen: etwa beim Verstehen von Sprache oder beim Erkennen von Bildinhalten. Wenn man einem Computer beibringen will, einen Baum zu erkennen, genügt es nicht, ihm zu beschreiben, wie ein Stamm oder Äste aussehen. Denn auch ein Strommast hat so etwas wie einen Stamm und Äste – und im Winter verlieren viele Bäume ihr Laub, sodass sich auch Blätter nicht als Unterscheidungsmerkmal eignen. Es lassen sich zahllose solcher Fälle finden, in denen man mit vorgegebenen Regeln nicht weiter kommt. In den 1970er Jahren wandten sich daher viele Forscher frustriert vom Gebiet der Künstlichen Intelligenz wieder ab. Finanzierungsprogramme wurden gekürzt oder ganz gestrichen – im Rückblick wird dies als "Winter der Künstlichen Intelligenz" bezeichnet.

Vorbild Gehirn

Seither gibt es immer wieder ein Auf und Ab, es entstehen Hypes und verschwinden wieder, doch seit Mitte der 1980er Jahre das revolutionär neue Konzept der Neuronalen Netze seinen Aufschwung nahm – mit einem weiteren Boom in den vergangenen Jahren –, wächst auch die Zahl der kommerziellen Erfolgsgeschichten. Ein Neuronales Netz orientiert sich, vereinfacht ausgedrückt, an der Funktionsweise der Nervenzellen, der Neuronen, im Gehirn. In ihm sind mehrere Schichten künstlicher Neuronen auf komplexe Weise miteinander verbunden, um Informationen zu verarbeiten. Da die Stärken dieser Verbindungen variieren können und auch Rückkopplungen möglich sind, sind diese Netze lernfähig. Das Prinzip dahinter ist recht einfach: Wird eine Verbindung immer wieder benutzt, steigt ihre Verbindungsstärke und damit ihre Bedeutung – im Gehirn ist das genauso. Wenn wir oft genug gelernt haben, dass eine rote Ampel "Halt! Gefahr!" bedeutet, dann ist diese Assoziation sofort da, wo immer wir eine rote Ampel sehen.

Insbesondere eignen sich solche Neuronalen Netze dazu, Muster zu erkennen, ohne dass ihnen vom Menschen einprogrammiert werden muss, an welchen exakten Eigenschaften der Muster sie dies festmachen sollen. Präsentiert man ihnen beispielsweise in einer Trainingsphase unzählige Fotos von Bäumen, Katzen oder Autos, können sie anschließend auch auf unbekannten Bildern sofort Bäume, Katzen oder Autos identifizieren. Ebenso kann man sie mit gesprochenen Worten oder Schriftzeichen trainieren, und sie können anschließend Sprachbefehle oder Handschriften erkennen. Was die heutigen, sogenannten Deep-Learning-Systeme von den Neuronalen Netzen der 1980er Jahre unterscheidet, ist vor allem ihre Mächtigkeit: Waren damals nur einige Tausend künstlicher Neuronen in wenigen Schichten miteinander verbunden, so sind es bei den leistungsfähigsten Systemen von heute Milliarden von Neuronen, die in bis zu 30 Schichten gestapelt sind. Möglich machte diesen Fortschritt die enorme Steigerung der Rechenleistung und Speicherfähigkeit von Computern.

Die stärksten Supercomputer konnten Mitte der 1990er Jahre etwa 100 Milliarden Rechenoperationen pro Sekunde bewältigen – das schafft heute jedes gute Smartphone. Wir alle tragen also sozusagen einen Supercomputer von 1995 in unseren Jackentaschen. Zugleich sanken die Kosten um den Faktor 10.000, und das heutige Smartphone braucht nur ein 10.000-stel bis ein 100.000-stel der elektrischen Leistung der damaligen Superrechner. Außerdem werden auch Kameras und Sensoren – vom Satellitenempfänger bis zu Beschleunigungs-, Radar-, Wärme- und Tastsensoren – immer kleiner und kostengünstiger. Und die Datenexplosion im Internet bietet den Maschinen eine nahezu unbegrenzte Vielfalt an Lernbeispielen. Derzeit werden jeden Tag von Menschen und Maschinen zehnmal mehr neue Daten produziert, als in allen Büchern der Welt enthalten sind. All die Milliarden von Bildern, Texten, Videos und Audiodateien lassen sich als perfektes Trainingsmaterial für smarte Maschinen nutzen. Dadurch lernen sie immer besser sehen, lesen und sprechen. Mit jeder Suchanfrage, mit jeder Spracheingabe, mit jedem Übersetzungswunsch lernen sie hinzu.

Vertausendfachung der Leistungsstärke bis 2040

Diese Entwicklung ist noch lange nicht am Ende. So zeigt der Blick in die Labore von Halbleiterherstellern: Auch wenn die Verkleinerung der Strukturen bald an eine physikalische Grenze stoßen wird, gibt es dennoch viele Ideen – etwa das Übereinanderstapeln von Nanostrukturen und wesentlich energieeffizientere Bauteile –, die eine weitere Steigerung um den Faktor 1.000 bis zum Jahr 2040 erwarten lassen. Mikrochips könnten dann noch einmal um das Tausendfache schneller rechnen, tausendmal mehr Daten speichern und tausendmal mehr Daten pro Sekunde übertragen als heute – und das zum selben Preis. Oder anders ausgedrückt: Wenn heute ein Notebook 500 Euro kostet, werden wir 2040 dieselbe Leistung auf einem kleinen Chip für 50 Cent bekommen. Visionäre wie Ray Kurzweil sagen, dass wir heute für 1.000 Dollar etwa die Leistungsfähigkeit des Gehirns einer Maus mit rund 100 Millionen Nervenzellen kaufen können – bei einer Vertausendfachung wären wir 2040 dann beim Komplexitätsgrad des Gehirns eines Menschen angelangt.

Und selbst das könnte noch übertroffen werden. Denn Forscher entwickeln derzeit sogenannte neuromorphe Chips, die das Verhalten von Nervenzellen nicht per Software, sondern elektronisch nachbilden: Deren Lernvorgänge sind bereits heute zehntausendfach schneller als beim menschlichen Gehirn und millionenfach schneller als bei Supercomputern. Wollte man mit heutigen Superrechnern die neuronalen Prozesse eines einzigen biologischen Tages nachbilden, bräuchte man dafür Jahre – Neurochips schaffen das in zehn Sekunden, allerdings bisher nur in Netzwerken mit etwa einer Million Nervenzellen, noch nicht mit Milliarden. Doch die Forschung steht hier erst am Anfang.

Eine Einschränkung gibt es allerdings: den Energieverbrauch. Das menschliche Gehirn begnügt sich mit 20 Watt, ein vergleichbarer Supercomputer hingegen benötigt etwa die elektrische Leistung einer Stadt mit 20.000 Einwohnern. Die besten Neurochips liegen in der Mitte dazwischen, aber immer noch bei mindestens dem Tausendfachen des menschlichen Gehirns. Außerdem funktioniert die Lernfähigkeit des Gehirns ohne Software, ohne zentrale Steuerung und ohne Betriebssystem, und das System ist extrem fehlertolerant: Obwohl jeden Tag etwa 100.000 Neuronen verloren gehen, lassen seine kognitiven Fähigkeiten über Jahrzehnte hinweg kaum nach. Das Gehirn kann also mit verlorenen Ressourcen ebenso gut umgehen wie mit unpräzisen Informationen. Und sein geringer Energieverbrauch ist zu einem großen Teil darauf zurückzuführen, dass nicht wie im konventionellen Computer ständig Daten zwischen Speicher und Prozessor hin- und hergeschoben werden müssen – das spart nicht nur Zeit, sondern auch Energie.

Lernen wie kleine Kinder

Die Hardware wird den Forschern bei der Entwicklung smarter Maschinen eher wenige Beschränkungen auferlegen, doch wie sieht es mit der Software und der Effizienz und Effektivität der Informationsverarbeitung aus? Hier scheinen noch lange nicht die besten Lösungen gefunden worden zu sein: Während etwa Deep-Learning-Systeme Zigtausende bis Millionen von Katzen sehen müssen, um danach eine Katze zuverlässig zu erkennen, reichen kleinen Kindern ein paar Dutzend Lernbeispiele, um auch einen gestiefelten Kater oder den König der Löwen als Katze einzustufen. In diesem Sinne erreichen Kinder ihre Lernziele wesentlich wirkungsvoller und wirtschaftlicher als Computer. Zudem sind Deep-Learning-Systeme nur Meister im Vergleich von Mustern, nicht mehr. Wenn sie etwa auf Tierbilder trainiert wurden, finden sie überall Tiere, auch in Wolken oder dem Rauschen eines Bildschirms – was dann wie Halluzinationen von Computern wirkt. Ihnen fehlen völlig das Hintergrundwissen und das Verständnis für Zusammenhänge.

Mehr noch: Wenn man die Frage beantworten will, wie intelligent Maschinen werden können, muss man erst einmal klären, von welcher Intelligenz die Rede sein soll. Denn Fachleute sprechen von mathematischer, räumlicher, sprachlicher, logischer, emotionaler oder sozialer Intelligenz – unsere Intelligenz ist nicht nur das, was der IQ misst. So kann ein Neuronales Netz zwar Objekte aller Art erkennen, aber es weiß nichts über deren Bedeutung für den menschlichen Alltag. Außerdem gilt nach wie vor der alte Spruch "Computern fällt leicht, was Menschen schwerfällt – und umgekehrt" nicht nur für Computer, sondern auch für Roboter. Türen öffnen und Bälle fangen, laufen und Hindernissen ausweichen, das gehört alles zu den leichtesten Aufgaben, die man einem körperlich gesunden Menschen stellen kann, aber gleichzeitig zu den schwierigsten Aufgaben für Roboter.

Auch Menschen müssen ihre Fähigkeiten erst nach und nach erwerben. In den ersten beiden Lebensjahren entsteht zunächst die sensomotorische Intelligenz: Babys lernen krabbeln, stehen, laufen, nach Dingen greifen und ihre Bewegungsabläufe koordinieren. In den Jahren danach entwickeln sich sowohl das Sprechvermögen wie die symbolische Vorstellungskraft und die Fähigkeit zur Empathie. Zugleich lernen Kinder immer besser, vorauszudenken und ihr Handeln zu planen, doch erst mit elf oder zwölf Jahren sind Jugendliche in der Lage, Probleme systematisch zu analysieren, Hypothesen und kreative Lösungen zu entwickeln und über sich selbst nachzudenken.

Einen ähnlichen Weg gehen Forscher nun mit Maschinen. Sensomotorische Intelligenz haben die besten Roboter schon entwickelt: Sie können einigermaßen sicher stehen, laufen und Dinge aller Art greifen. Der vierbeinige Roboter Cheetah von Boston Dynamics rennt schneller als Usain Bolt, der schnellste Mensch über die 100- und 200-Meter-Distanz – und es gibt bereits feinfühlige Roboter, die weiche Erdbeeren pflücken, ohne Druckstellen zu hinterlassen. Auch das Lernen durch Beobachten und Nachahmen, das kleine Kinder so gerne einsetzen, bringt man nun Robotern bei. Beispielsweise sollen die gerade auf den Markt kommenden "kollaborativen Roboter" lernen, mit Menschen Hand in Hand zu arbeiten. Eine herkömmliche Programmierung ist nicht mehr nötig. Stattdessen führt man einfach die Arme und Greifer solcher Roboter und zeigt ihnen, wie sie Knöpfe drücken oder Bauteile montieren sollen. Diese Maschinen sind so sensibel, dass sie in Bruchteilen von Sekunden eine Bewegung stoppen, wenn ihnen ihre Sensoren mitteilen, dass sie andernfalls einen Menschen verletzen könnten.

Wie belohnt man Maschinen?

Und selbst das Belohnungslernen findet Eingang in die Welt der smarten Maschinen: Natürlich bekommen sie nicht wie Kinder Schokolade oder gute Noten, sondern ihnen genügt ein internes Punktekonto, das aufgefüllt wird, wenn sie etwas richtig gemacht haben, oder ein Schulterklopfen oder Lächeln, das sie mithilfe ihrer Kameras und Sensoren wahrnehmen und als Lob werten. So lernt etwa der kleine Roboter iCub am italienischen Institut für Technologie in Genua wie ein menschliches Kind im Kindergarten. Er betrachtet seine Spielsachen, dreht sie hin und her – "begreift" sie im wahrsten Sinne des Wortes –, fragt seine menschlichen Lehrer, wie die Dinge heißen, und lernt, wie man den Tisch ab- und das Zimmer aufräumt. Genauso lernt er Klavier spielen oder wie man einen Spielzeug-Bogen spannt und hält, um mit dem Pfeil die Zielscheibe zu treffen. Auch im japanischen Osaka arbeiten Forscher mit dem wissbegierigen iCub-Roboter. Belohnungen gibt es immer dann, wenn er etwas Neues gelernt oder eine Aufgabe gut gelöst hat. Diese Art des Lernens ist vielleicht die vielversprechendste Methode, um Roboter alltagstauglich zu machen: Sie müssen Menschen im Alltag begleiten und sich einprägen, was sie tun sollen, um sich nützlich zu machen.

Entscheidend ist dabei – wie bei Menschen auch – die Qualität der Lehrer. Ein misslungenes Beispiel war der Chatbot Tay, der im Frühjahr 2016 lernen sollte, wie sich Menschen im Internet unterhalten. Binnen 24 Stunden musste Microsoft ihn wieder vom Netz nehmen, weil er zum Rassisten geworden war, der den Holocaust leugnete und Hitler lobte. Dieses Programm hatte ganz offensichtlich von den falschen Leuten gelernt. Wie man zuverlässige und sich ethisch korrekt verhaltende, selbstlernende Maschinen baut, wird sicherlich in Zukunft eine wichtige Aufgabe sein und neue Berufszweige eröffnen. Die ersten Lehrstühle für Maschinenethik existieren bereits.

Das Ziel der Forscher ist klar: Roboter und smarte Maschinen aller Art sollen einmal in der Lage sein, Menschen auch in komplexen, sich ständig ändernden Umgebungen zu helfen – wie perfekte Butler, ob beim Aufräumen oder Putzen zu Hause, beim Kochen oder Einkaufen oder beim Autofahren im Stadtverkehr. Dass sie dafür noch sehr viel hinzu lernen müssen, ist klar, doch einen wesentlichen Vorteil haben sie: Was eine Maschine einmal gelernt hat, kann sie im Prinzip in Zukunft in ein RoboNet hochladen und anderen Maschinen ähnlichen Bautyps zur Verfügung stellen – egal, ob es darum geht, wie man Fenster putzt, einen Dinnertisch deckt oder einen Hubschrauber fliegt. Menschen hingegen müssen alles individuell lernen und können sich neue Fähigkeiten nicht einfach wie Apps herunterladen.

Maschinen mit Alltagswissen, Emotionen, Sozialkompetenz?

Auf lange Sicht können Maschinen daher vielfältigste, intelligente Verhaltensweisen erwerben, doch ein paar Beschränkungen werden für sie nur schwer zu überwinden sein: Wir Menschen besitzen beispielsweise viel implizites Wissen, Alltagskompetenz und gesunden Menschenverstand, um in unserer Umgebung zurechtzukommen. Nehmen wir nur den Satz "Die Beamten haben den Demonstranten verboten, sich zu versammeln, weil sie Gewalt befürworteten". Ein Mensch erkennt sofort, worauf sich das "sie" bezieht. Doch ein Computer tut sich hier sehr schwer, ebenso wie ein autonomes Fahrzeug wohl bremsen würde, wenn der Wind eine große Papiertüte auf die Straße weht – ein Mensch würde einfach weiterfahren.

Reines Faktenwissen lässt sich allerdings heute schon in Maschinen implementieren, wie IBM mit seinem "kognitiven" Computersystem Watson zeigt. Bereits 2011 hatte Watson die zwei weltbesten menschlichen Champions in der US-Quizshow Jeopardy besiegt, die mit Wortspielen, Rätseln und subtilen Anspielungen arbeitet. Entscheidend für den Erfolg war, dass Watson unter anderem das Internetlexikon Wikipedia, insgesamt 200 Millionen Textseiten, in seinem Arbeitsspeicher hatte. Er war in der Lage, diese Texte zu lesen, passende Informationen zu erkennen und zu kombinieren, und binnen zwei bis drei Sekunden eine – meist korrekte – Antwort auf die Quizfrage zu liefern.

Seither hat IBM das Watson-System für viele Anwendungen ausgebaut: Es berät Ärzte bei Krebsdiagnosen ebenso wie Banker, Juristen und Steuerberater oder Firmen bei der Datenauswertung in Fabriken, Gebäuden oder Verkehrs- und Energiesystemen. Ein wesentlicher Vorteil ist, dass das System mit natürlich-sprachigen und unstrukturierten Texten zurechtkommt – ob Call-Center-Protokolle, Arztbriefe, Fachartikel oder Twitter-Feeds – und dass es auf Nachfrage die Quellen für seine Bewertungen nennen kann. Dadurch wissen die Anwender stets, auf welcher Basis Watson seine Hypothesen und Empfehlungen abgeleitet hat – nicht nur für Ärzte ist dieser Dialog mit dem digitalen Assistenten entscheidend, um ihn überhaupt einsetzen zu können. Bei einem konventionellen Neuronalen Netz kann der Nutzer hingegen nicht ohne Weiteres nachvollziehen, welche Lernbeispiele für das Ergebnis letztlich relevant waren.

Sogar das Abwägen von Argumenten kann man Computern beibringen. So wurde Watson etwa die Frage gestellt, ob Video-Gewaltspiele für Jugendliche verboten werden sollten. Daraufhin durchsuchte der Computer vier Millionen Wikipedia-Artikel, fand die zehn relevantesten und destillierte daraus binnen Sekunden drei Argumente für und drei gegen ein solches Verbot. Dass ein solches Pro-und-Contra-Programm für Bankberater in Zukunft ebenso sinnvoll sein kann wie für Juristen, Versicherungsvertreter oder Ärzte, ist offensichtlich.

Doch ein Großteil unseres menschlichen Alltagswissens steht eben nicht in Wikipedia. Gesunden Menschenverstand findet man nicht im Lexikon. Maschinen können daher ein solches Alltagswissen nur erwerben, wenn sie über lange Zeit hinweg Menschen beobachten und ständig hinzulernen. Dies ist zweifellos ein langwieriges Unterfangen, und wie erfolgreich es sein wird, muss sich noch zeigen. Ähnliches gilt für das Feld der kreativen Maschinen: Computerprogramme können heute zwar Stile kopieren und neu kombinieren, also malen wie van Gogh oder Rembrandt und komponieren wie Bach oder Mozart, aber etwas völlig Neues hat bisher keine Maschine hervorgebracht.

Ein weiteres Problem ist sogar noch viel fundamentalerer Art: Maschinen, wie ausgeklügelt sie auch sein mögen, haben keinen biologischen Körper wie Menschen. Sie werden daher nie alle Erfahrungen mit Menschen teilen können: Sie müssen nicht essen und trinken, schlafen und träumen, sie wachsen nicht und bekommen keine Kinder und sie kennen den Sturm der Gefühle nicht, der Menschen ergreifen kann. Daher sei die Vorhersage gewagt: Selbst wenn smarte Maschinen Emotionen aus Gesten und Mimik lesen und wenn sie so tun, als ob sie Gefühle hätten, eine den Menschen vergleichbare emotionale und soziale Intelligenz wird ihnen verwehrt bleiben. Aus all diesen Gründen gehört eine Superintelligenz, die uns Menschen auf allen Gebieten überflügelt, wohl eher in den Bereich der Science-Fiction als zu den realen Gefahren.

Wer macht die Arbeit von morgen?

Viel mehr Sorgen müssen wir uns allerdings um zwei andere Entwicklungen machen: um autonome Kampfroboter und um die Auswirkungen auf Arbeitsplätze. Das erste Problem lässt sich nur lösen durch eine weltweite Ächtung dieser Maschinen, wie es bei Biowaffen oder Atombomben im Weltall gelungen ist. Erste internationale Anstrengungen in diese Richtung gibt es bereits, aber sie müssen intensiviert werden. Auch dass sich durch den Einsatz von smarten Maschinen mit Künstlicher Intelligenz praktisch alle Jobs – egal in welcher Branche – erheblich verändern werden, ist offensichtlich. Vor allem Routinetätigkeiten in den Büros, bei denen es um die Beschaffung und Verarbeitung von Informationen geht, können künftig durch Maschinen übernommen werden: Das betrifft den Buchhalter ebenso wie den Steuerberater, den Logistiker oder Finanzanalysten. Ähnliches gilt für Putzkräfte, Lagerarbeiter oder Lkw-, Bus- und Taxifahrer.

Wenig betroffen sind hingegen kreative Jobs wie Forscher, Designer und Künstler sowie Berufe, die eine hohe Sozialkompetenz erfordern, wie Pflegekräfte, Lehrer und Manager. Zudem werden sich zwar viele Jobbeschreibungen verändern, aber nicht unbedingt die Arbeitsplätze wegfallen. So werden in Zukunft Ärzte die Hilfe von Computerassistenten in Anspruch nehmen, aber sie werden nicht durch Roboter ersetzt – allein schon deshalb, weil oft die Intuition der Ärzte und der Kontakt mit den Patienten der halbe Weg zur Heilung sind. Kurz gesagt: Die einfacheren Arbeiten machen Maschinen, die komplexeren die Menschen, die weiterhin als Lenker und Denker gebraucht werden, als Planer und Entscheider, als kreative Problem- und Konfliktlöser, als diejenigen, die Qualität und Sicherheit gewährleisten, und als die entscheidenden Partner, die emotionale und soziale Intelligenz gegenüber ihren Kunden und Zulieferern beweisen müssen.

Hinzu kommt, dass auch eine Menge neuer Berufe entstehen. Die smarten Maschinen müssen auch erst einmal entworfen und konstruiert werden, es muss sichergestellt werden, dass sie gefahrlos und zuverlässig betrieben werden können, und sie müssen trainiert und auf die Einsatzfelder optimal angepasst werden. Der Blick in die Vergangenheit bestätigt, dass neue Technologien immer auch neue Berufe mit sich bringen: Anfang der 1980er Jahre, als die Computer massentauglich wurden, gab es noch so gut wie keine Software-Entwickler – heute sind es weltweit über 20 Millionen.

Mein Fazit lautet daher: Smarte Maschinen mit Künstlicher Intelligenz sind zweifellos eine der größten technisch-wirtschaftlich-sozialen Herausforderungen, vor denen die Menschheit derzeit steht. Aber sie sind auch eine Chance für all die globalen Aufgaben, die wir bewältigen müssen: ob im Kampf gegen den Klimawandel und beim Umbau der Energiesysteme, ob bei der Gestaltung lebenswerter Städte oder bei der Unterstützung der wachsenden Zahl pflegebedürftiger Menschen. Wenn wir es richtig machen, werden uns die smarten Maschinen weit mehr nützen als schaden.

ist promovierter Physiker, Wissenschafts- und Technikjournalist sowie Buchautor. Er ist Geschäftsführer des Redaktionsbüros SciPress, war bis 2015 Leiter der Innovationskommunikation von Siemens und gründete das Zukunftsmagazin "Pictures of the Future". Zuletzt erschienen: "Smarte Maschinen – wie Künstliche Intelligenz unser Leben verändert" (Hanser, 2016). E-Mail Link: ulrich.eberl@scipress.de Externer Link: http://www.zukunft2050.wordpress.com