3D-Illustration von Gehirnzellen

2.2.2018 | Von:
Ulrich Eberl

Was ist Künstliche Intelligenz – was kann sie leisten?

60 Jahre Auf und Ab in der KI-Forschung

Doch was sind die Treiber dieser Entwicklung? Wie ist es möglich, dass sich das Gebiet der Künstlichen Intelligenz in den vergangenen Jahren so explosionsartig entwickelt hat, und was ist an technischem Fortschritt in den nächsten Jahrzehnten noch vorstellbar? Könnten uns Maschinen dereinst sogar in allen Belangen übertreffen – wie es der Astrophysiker Stephen Hawking oder der Tesla-Gründer Elon Musk befürchten? Eindringlich warnen sie vor einer "Superintelligenz", die uns vielleicht genauso behandeln würde, wie wir mit lästigen Mücken umgehen. "Künstliche Intelligenz könnte die letzte Erfindung sein, die die Menschheit machen wird", meint der in Oxford arbeitende Philosoph Nick Bostrom.[3] Wie realistisch ist so etwas?

Um diese Fragen beantworten zu können, hilft zunächst ein Blick in die Vergangenheit. Der Begriff "Künstliche Intelligenz" stammt aus dem Jahr 1956, als der US-Wissenschaftler John McCarthy eine Konferenz in New Hampshire so betitelte.[4] Auf dieser Tagung diskutierten Forscher erstmals über Computer, die Aufgaben lösen sollten, die über das reine Rechnen hinausgingen, etwa Texte analysieren, Sprachen übersetzen oder Spiele spielen. So hatte der Elektroingenieur Arthur Samuel für einen IBM-Großrechner ein Programm für das Brettspiel Dame geschrieben. Am Anfang kannte diese Software nur die erlaubten Züge des Spiels, und so verlor sie stets gegen Samuel. Doch dieser ließ ein weiteres Programm mitlaufen, das – entsprechend den Strategien, die er selbst kannte – bei jedem Zug die Gewinnwahrscheinlichkeit für die aktuelle Aufstellung auf dem Brett bewertete. Zugleich hatte Samuel eine geniale Idee: Er ließ den Computer gegen sich selbst spielen und herausfinden, ob diese Wahrscheinlichkeiten geändert werden sollten. Spiel für Spiel, immer wieder. Dabei lernte der Computer hinzu und verbesserte die Genauigkeit seiner Vorhersagen. Was dann passierte, scheint heute eine Selbstverständlichkeit, war 1956 aber eine Sensation: Der Computer wurde ein so guter Dame-Spieler, dass Samuel keine Chance mehr gegen ihn hatte. Ein Mensch hatte erstmals einer Maschine etwas beigebracht, bei dem sie durch stetiges Lernen besser wurde als ihr eigener Lehrer.

Nach demselben Prinzip entwarfen die Forscher der Google-Tochter DeepMind 2017 ihr Programm AlphaGo Zero.[5] Sie gaben ihm nur die Regeln des Go-Spiels vor und ließen es dann ständig gegen sich selbst spielen. Binnen drei Tagen erreichte AlphaGo Zero vom einfachsten Anfängerniveau die Spielstärke eines Profis und übertraf bereits die Version, die 2016 gegen den menschlichen Weltmeister Lee Sedol mit 4:1 gewonnen hatte. Nach drei Wochen verfügte AlphaGo Zero dann schon über eine Spielstärke, die noch nie ein Mensch in diesem jahrtausendealten Spiel erreicht hatte – und das, ohne dass das Programm jemals Spiele von Menschen studiert hätte.

Besonders bemerkenswert dabei ist, dass Go nahezu unendliche Spielvarianten erlaubt. Die Anzahl der möglichen Züge auf einem Go-Brett übertrifft die Zahl der Atome im Universum bei Weitem. Daher kann die Software unmöglich alle denkbaren Spielzüge durchrechnen. Bei Schach war das in gewissem Maße noch machbar: 1997 besiegte der IBM-Rechner Deep Blue den damaligen Weltmeister Garri Kasparow unter Turnierbedingungen – im Wesentlichen aufgrund seiner Rechenleistung, mit der er pro Sekunde 200 Millionen Schachstellungen analysieren konnte. AlphaGo Zero hingegen muss Stellungen sozusagen "intuitiv" bewerten, allein aufgrund seiner gelernten Erfahrung aus bisher gespielten Partien und der Ähnlichkeiten von Stellungen.

Dieses Erlernen von Mustern und der Umgang mit ihnen stehen im Zentrum des Qualitätssprungs der neuen smarten Maschinen. Es geht nicht mehr nur um pure Rechengeschwindigkeit: Hier haben Computer schon lange die Menschen hinter sich gelassen, und auch auf dem Gebiet der Logik sind Algorithmen kaum zu schlagen. So entstanden schon vor 60 Jahren Computerprogramme, die eigenständig logische Theoreme mathematisch beweisen konnten. Über Jahrzehnte versuchten Forscher daher, mit sogenannten Expertensystemen alle Probleme zu bewältigen, etwa durch die Anwendung von Wenn-Dann-Regeln im Sinne von: "Wenn die Nase läuft und der Patient Halsweh hat und hustet, aber nur geringes Fieber hat, dann ist die Wahrscheinlichkeit größer, dass es sich um eine simple Erkältung handelt und nicht um eine gefährliche Virusgrippe."

Doch Rückschläge blieben nicht aus, denn oft sind solche regelbasierten Systeme gar nicht einsetzbar – vor allem bei Alltagsaufgaben, die wir Menschen scheinbar mühelos beherrschen: etwa beim Verstehen von Sprache oder beim Erkennen von Bildinhalten. Wenn man einem Computer beibringen will, einen Baum zu erkennen, genügt es nicht, ihm zu beschreiben, wie ein Stamm oder Äste aussehen. Denn auch ein Strommast hat so etwas wie einen Stamm und Äste – und im Winter verlieren viele Bäume ihr Laub, sodass sich auch Blätter nicht als Unterscheidungsmerkmal eignen. Es lassen sich zahllose solcher Fälle finden, in denen man mit vorgegebenen Regeln nicht weiter kommt. In den 1970er Jahren wandten sich daher viele Forscher frustriert vom Gebiet der Künstlichen Intelligenz wieder ab. Finanzierungsprogramme wurden gekürzt oder ganz gestrichen – im Rückblick wird dies als "Winter der Künstlichen Intelligenz" bezeichnet.

Vorbild Gehirn

Seither gibt es immer wieder ein Auf und Ab, es entstehen Hypes und verschwinden wieder, doch seit Mitte der 1980er Jahre das revolutionär neue Konzept der Neuronalen Netze seinen Aufschwung nahm – mit einem weiteren Boom in den vergangenen Jahren –, wächst auch die Zahl der kommerziellen Erfolgsgeschichten. Ein Neuronales Netz orientiert sich, vereinfacht ausgedrückt, an der Funktionsweise der Nervenzellen, der Neuronen, im Gehirn. In ihm sind mehrere Schichten künstlicher Neuronen auf komplexe Weise miteinander verbunden, um Informationen zu verarbeiten. Da die Stärken dieser Verbindungen variieren können und auch Rückkopplungen möglich sind, sind diese Netze lernfähig. Das Prinzip dahinter ist recht einfach: Wird eine Verbindung immer wieder benutzt, steigt ihre Verbindungsstärke und damit ihre Bedeutung – im Gehirn ist das genauso. Wenn wir oft genug gelernt haben, dass eine rote Ampel "Halt! Gefahr!" bedeutet, dann ist diese Assoziation sofort da, wo immer wir eine rote Ampel sehen.

Insbesondere eignen sich solche Neuronalen Netze dazu, Muster zu erkennen, ohne dass ihnen vom Menschen einprogrammiert werden muss, an welchen exakten Eigenschaften der Muster sie dies festmachen sollen. Präsentiert man ihnen beispielsweise in einer Trainingsphase unzählige Fotos von Bäumen, Katzen oder Autos, können sie anschließend auch auf unbekannten Bildern sofort Bäume, Katzen oder Autos identifizieren. Ebenso kann man sie mit gesprochenen Worten oder Schriftzeichen trainieren, und sie können anschließend Sprachbefehle oder Handschriften erkennen. Was die heutigen, sogenannten Deep-Learning-Systeme von den Neuronalen Netzen der 1980er Jahre unterscheidet, ist vor allem ihre Mächtigkeit: Waren damals nur einige Tausend künstlicher Neuronen in wenigen Schichten miteinander verbunden, so sind es bei den leistungsfähigsten Systemen von heute Milliarden von Neuronen, die in bis zu 30 Schichten gestapelt sind. Möglich machte diesen Fortschritt die enorme Steigerung der Rechenleistung und Speicherfähigkeit von Computern.[6]

Die stärksten Supercomputer konnten Mitte der 1990er Jahre etwa 100 Milliarden Rechenoperationen pro Sekunde bewältigen – das schafft heute jedes gute Smartphone. Wir alle tragen also sozusagen einen Supercomputer von 1995 in unseren Jackentaschen. Zugleich sanken die Kosten um den Faktor 10.000, und das heutige Smartphone braucht nur ein 10.000-stel bis ein 100.000-stel der elektrischen Leistung der damaligen Superrechner. Außerdem werden auch Kameras und Sensoren – vom Satellitenempfänger bis zu Beschleunigungs-, Radar-, Wärme- und Tastsensoren – immer kleiner und kostengünstiger. Und die Datenexplosion im Internet bietet den Maschinen eine nahezu unbegrenzte Vielfalt an Lernbeispielen. Derzeit werden jeden Tag von Menschen und Maschinen zehnmal mehr neue Daten produziert, als in allen Büchern der Welt enthalten sind. All die Milliarden von Bildern, Texten, Videos und Audiodateien lassen sich als perfektes Trainingsmaterial für smarte Maschinen nutzen. Dadurch lernen sie immer besser sehen, lesen und sprechen. Mit jeder Suchanfrage, mit jeder Spracheingabe, mit jedem Übersetzungswunsch lernen sie hinzu.

Fußnoten

3.
Nick Bostrom, Superintelligenz: Szenarien einer kommenden Revolution, Berlin 2014, S. 131ff.
4.
Vgl. Stuart Russell/Peter Norvig, Künstliche Intelligenz, München 2012, S. 40ff.
5.
Vgl. David Silver et al., Mastering the Game of Go without Human Knowledge, in: Nature 550/2017, S. 354–359.
6.
Vgl. Eberl (Anm. 2), S. 47ff.
Creative Commons License

Dieser Text ist unter der Creative Commons Lizenz veröffentlicht. by-nc-nd/3.0/ Der Name des Autors/Rechteinhabers soll wie folgt genannt werden: by-nc-nd/3.0/
Autor: Ulrich Eberl für Aus Politik und Zeitgeschichte/bpb.de
Urheberrechtliche Angaben zu Bildern / Grafiken / Videos finden sich direkt bei den Abbildungen.