Der Match zwischen Schachweltmeister Garry Kasparov und IBMs Superrechner Deep Blue gilt als ein Wendepunkt in der Computergeschichte. Dabei war ein anderes Spiel viel wichtiger. Es fand am 13. April 2019 statt zwischen einer Künstlichen Intelligenz (KI) statt namens OpenAI Five, die unter anderem von Tesla-Gründer Elon Musk finanziert wird, und einem menschlichen Team namens Dota-2-Team OG. Und die Folgen dauern bis heute an.
Wenn Sie, geneigter Leser, nicht in der Welt der Online-Spiele zu Hause sind, dann sagt Ihnen vermutlich auch der Begriff Moba nichts. Laut Wikipedia sind das so genannte Multiplayer Online Battle Arena, auch bekannt als Action Real-Time Strategy (ARTS), ein Computerspiel-Genre aus der Unterkategorie der Echtzeit-Strategiespiele. Ein bekannter Vertreter dieses Genres ist das Spiel World of Warcraft, das allerdings aus dem Jahr 2004 stammt und deshalb schon als ziemlich betagt gilt. Dota 2 gehört hingegen zur aktuellen Generation von Action-Echtzeit-Strategiespielen, bei dem zwei Teams von jeweils fünf Spielern gegeneinander antreten, um strategisch Gegner umzubringen, Zielobjekte zu erobern und schließlich die Basis des Gegners zu belagern und zu zerstören.
Beim „OpenAI Five Arena“ im April 2019 in San Francisco saßen die fünf menschlichen Spieler, OG die sich ein halbes Jahr vorher den Weltmeistertitel erkämpft und dabei mehr als 11 Millionen US-Dollar Preisgeld gewonnen hatten, einem Team aus fünf so genannten rekurrente neuronale Netzen gegenüber, die sich vorher gegenseitig trainiert hatten. In Fachkreisen nennt man sowas Reinforcement Learning, oder verstärkendes Lernen: Im Gegensatz zum traditionellen überwachten Lernen (Supervised Learning) werden dabei in einer Simulationsumgebung in vielen Durchläufen nach der Versuch-und-Irrtum-Methode („Trial-and-Error“) Daten generiert, die am Ende die erfolgversprechendste Strategie ergeben.
Im Vorfeld des Turniers haben die fünf KIs von OpenAI zehn Monate lang ununterbrochen gegeneinander gespielt, was umgerechnet einer Spielzeit von etwa 45.000 Jahren entspricht. Am Ende war das Ergebnis eindeutig: 2:0 musste sich das Weltmeister-Team gegen die KIs geschlagen geben.
Hat der Computer damit den Menschen endgültig in Sachen Intelligenz überholt? Um diese Frage zu beantworten, entwarf der Computerwissenschaftler Feng Liu an der Chinese Academy of Sciences in Peking ein Intelligenztest, das herauszufinden sollte, wie intelligent bereits heute handelsübliche KI-Maschinen wie Siri, Cortana oder Google Assistant sind und wie sie im Vergleich mit Menschen abschneiden.
Der Test basiert auf dem Standard-Intelligenzmodell. Demnach müssen Systeme in der Lage sein, Daten zu sammeln, sie zu bearbeiten, kreativ mit ihnen umzugehen und das Resultat auszugeben. Die Testergebnisse werden in einer Skala von eins bis hundert ausgegeben. Ein durchschnittlicher 18jähriger kommt dabei auf 97 Intelligenzpunkte, ein Zwölfjähriger auf 84,5 und ein Sechsjähriger auf 55,5 Punkte, Die beste KI, nämlich Google Assistant, schnitt im Frühjahr 2016 mit 47,28 Punkten also schlechter ab als ein Kleinkind.
Bevor wir aber Entwarnung geben, sei angemerkt: Als Liu den Test im Jahr 2014 das erste Mal durchführte, kam Google Assistant nur auf 26,4 Punkte. Das System hat also seine Intelligenz im Laufe von nur zwei Jahren verdoppelt! Legt man auch hier Moore’s Law zugrunde, führt Verdopplung alle zwei Jahre unweigerlich zu exponentiellem Wachstum von künstlicher Intelligenz: 2, 4, 8, 16, 32, 64, und so weiter. Oder wie es mein Freund Gerd Leonhard in seinem Buch Technology vs. Humanity beschrieb: „Erst geht es ganz langsam, und dann plötzlich ganz, ganz schnell!“
Auch wenn die Systeme immer schneller, die Algorithmen immer mächtiger werden: Noch immer ist das, was wir heute zur Verfügung haben, recht schwach. Als „Weak AI“ oder „Narrow AI“ bezeichnen Computerwissenschaftler nämlich jene KIs, die nur für einen bestimmten Zweck gebaut worden sind. Sie sind also nur in der Lage, eine ganz bestimmte Aufgabe zu lösen – aber das sehr gut! Sie bauen zwar auf mathematische und computerwissenschaftliche Methoden auf, sind in ihrer Fähigkeit, Probleme zu lösen, aber streng limitiert. Ihnen fehlt jegliches Verständnis für das Problem, das sie lösen sollen. Schwache KI – man ist versucht, „dumme künstliche Intelligenz“ dazu zu sagen, wenn das nicht ein Widerspruch in sich wäre – sind durchaus in der Lage, bestimmte Aufgaben besser zu lösen als ein Mensch, aber sie sind eben nur auf diese eine beschränkt. Typische Beispiele für schwache KI sind Siri & Co., aber auch Industrieroboter und autonome Fahrzeuge.
Das was man sich gemeinhin unter „starker KI“ vorstellt sind Maschinen, die intelligenter sind als Menschen und alles können, was wir können. Diese strong AI (auch als general AI bezeichnet) stünde intellektuell auf einer Stufe mit dem Menschen oder sogar eine Stufe über ihnen. Sie wären in der Lage, alle jede ihr gestellte Aufgabe zu lösen, dabei selbstbestimmt zu handeln, im Voraus zu denken und zu lernen, und sie wären sprachfähig, also in der Lage, in einer natürlichen Sprache zu kommunizieren.
Solche KI gibt es nicht – jedenfalls noch nicht. Experten gehen allerdings davon aus, dass wir vielleicht in den nächsten 20 bis 40 Jahren so weit sein werden.
Wenn das passiert, dann haben wir die nächste Stufe erreicht, nämlich die der künstlichen Superintelligenz (Artificial Superintelligence, oder ASI). Ein solches System wäre schlauer als der schlauste Mensch, der je gelebt hat (tut uns, leid, lieber Albert Einstein…). Das ist das, wovor viele Menschen Angst haben, denn in einer solchen Welt wäre der Mensch vermutlich nicht mehr die dominante Spezies. Superintelligente Maschinen wären in der Lage, noch intelligentere Maschinen zu bauen, was zu einem exponentiellen, also explosionsartigen Anstieg der künstlichen Intelligenz führen würde, die die Menschen bald weit hinter sich lassen würde. Ray Kurzweil, der Seriengründer und Bestsellerautor, bezeichnet diesen Zustand als „technologische Singularität. Er geht davon aus, dass diese spätestens im Jahr 2045 erreicht sein wird.
Andere Experten halten die Singularität für ein Hirngespinst. In einem 2018 veröffentlichten Aufsatz (Will Artificial Intelligence Surpass Human Intelligence?) kommen Jiachao Fang, Hanning Su und Yuchong Xiao von der University of Texas at Austin zu dem eindeutigen Schluss: „Maschinen können dem Menschen nie überlegen sein, weil sie in Dingen wie emotionale Erkenntnis und Kreativität dem Menschen weit unterlegen sind.“
Es besteht für die Menschheit also vielleicht noch Hoffnung.