Genau genommen wurde das Gebiet der Künstlichen Intelligenz im Sommer 1956 erfunden, als sich die damals führenden Forscher auf dem jungen Gebiet der Kognitivwissenschaft zu einem Workshop an der Dartmouth-Universität im US-Bundestsaat New Hampshire trafen. Das Dartmouth Summer Research Project on Artificial Intelligence war ein Stelldichein der großen Namen in dem damals noch winzigen Forschungsfeld, zum Beispiel John McCarthy von Stanford, der den Begriff der „Artificial Intelligence“ als Erster prägte, Claude Shannon von den Bell Labs, der „Vater der Informationstheorie, Marvin Lee Minsky, der später das AI Laboratory am MIT gründen sollte, Nathaniel Rochester, der den legendären IBM 701 konstruierte, der erste für wissenschaftliche Zwecke bestimmte Rechner, der den Übergang zu voll elektronischen Computern bei IBM markierte. Sechs Wochen lang trafen sich diese Gurus mit einer wechselnden Schar von Experten und Anhängern der Idee im ersten Stock der mathematischen Fakultät der Eliteuni. Im Grunde war es eine Mischung aus Sommer-Camp und Brainstorming, aber es hat die Geschichte der Computerwissenschaft und der Maschinenintelligenz bis heute maßgeblich beeinflusst.
Zugleich war der Dartmouth-Workshop auch das erste Beispiel für den beispiellosen Hype, der dieses Thema seitdem begleitet. Einige Teilnehmer sagten damals im Sommer 1956 voraus, dass es innerhalb von nur einer Generation, also spätestens in etwa 20 bis 25 Jahren, Maschinen geben würde, die ebenso intelligent sein würden wie der Mensch. Herbert Alexander Simon, der 1978 den Wirtschafts-Nobelpreis gewinnen sollte, und sein Kollege Allen Newell, der 1975 den A.M. Turing Award gewinnen sollte, so etwas wie der Nobelpreis für Computerwissenschaftler, sagten 1958 voraus, dass in zehn Jahren ein Computer der amtierende Schachweltmeister sein würde.
Nun, wie wir wissen sollte es fast 40 Jahre, nämlich bis 1997 dauern, ehe IBM’s Superrechner Deep Blue das Schachgenie Garry Kasparov besiegen und sich damit den Weltmeistertitel holen würde. Das hielt die KI-Pioniere aber nicht davon ab, lautstark die Werbetrommel für ihr Fachgebiet zu rühren – mit großem Erfolg: Firmen und Regierungsstellen überschlugen sich in den 60er und 70er Jahren darin, ihnen Millionen von Dollar zu geben, um ihren Traum zu verwirklichen.
Den Sommerträumen von Dartmouth sollte aber ein langer, bitterer „AI Winter“ folgen, der ungefähr von 1974 bis 1980 dauern sollte. Die Welle der Begeisterung verebbte, weil die erwarteten Durchbrüche ausblieben, und in der Folge versiegten auch die Geldströme. Es gab dafür verschiedene Gründe: Die Computer waren zu schwach, um das Problem der so genannten kombinatorische Explosion zu lösen. Diese besagt in der Mathematik, dass ein an sich sehr geringfügiges Ansteigen der Anzahl der Datenelemente oder Parameter einer Option zu einem gewaltigen Anwachsen des Zeitaufwands führt, die für die Berechnung der Lösung erforderlich ist. Je mehr Daten ein Computer verarbeiten muss, desto langsamer wird er. Erst mit dem Siegeszug der Halbleitertechnologie und dem von Gordon Moore beschriebenen exponentiellen Anwachsen der Informationsdichte von Computerchips (das vielzitierte Moore’sche Gesetz) ließ sich dieser Flaschenhals in den meisten Anwendungen beseitigen.
Es gab aber noch ein Problem. Es hieß das Moravec‘sche-Paradoxon und wurde in den Achtzigerjahren von Hans P. Moravec definiert, einem austro-kanadischen Robotikforscher an der Carnegie Mellon University. Künstliche Intelligenz, so Moravec, ist besonders gut in der Lage, Dinge schnell zu lernen und zu übernehmen, die Menschen sehr schwerfallen, wie zum Beispiel abstrakte Muster erkennen oder mathematische Berechnungen durchführen. Andererseits fällt es Maschinen aber sehr schwer, Dinge zu tun, die selbst für ein Kleinkind im Wortsinn „kinderleicht“ sind, wie sich frei im Raum zu bewegen, ohne irgendwo anzustoßen, oder sich auf Vorgänge in der näheren Umgebung zu konzentrieren, oder einen anderen Menschen und seine Absichten zu erkennen. Wie es aussieht unterschätzen wir Menschen die uns angeborenen Fähigkeiten massiv. Tatsache ist, dass wir diese komplizierten Fähigkeiten fast von Geburt an beherrschen. Oder wie Moravec selbst es beschreibt:
Wir alle sind wunderbare Olympioniken im Wahrnehmungs- und Bewegungsbereich, so gut, dass wir das Schwierige einfach aussehen lassen können. Abstraktes Denken ist jedoch ein neuer Trick, vielleicht weniger als 100.000 Jahre alt. Wir haben es noch nicht gemeistert. Es ist nicht alles so schwierig, es scheint nur so, wenn wir es tun.
Moravec führte das einsetzende Nachlassen von Interesse an KI auf die unrealistischen Prognosen der Branche. „Viele Forscher haben sich in einem Spinnennetz von Übertreibungen einfangen lassen“, schrieb er 1993. Ihre Versprechen seien viel zu optimistisch gewesen. „Natürlich griff das, was sie abgeliefert haben, viel zu kurz. Sie dachten aber, dass sie nicht mehr zurückkonnten, also versprachen sie noch mehr“ – weil sie sonst ihre Fördergelder verlieren würden.
Genau das trat ein. DARPA, Behörde des Verteidigungsministeriums der Vereinigten Staaten, die Forschungs-Projekte für die Streitkräfte der Vereinigten Staaten durchführt, die nationale Wissenschaftsakademie NRC und die britische Regierung kürzten so gut wie alle Mittel für die KI-Forschung, Tausende von Wissenschaftlern verloren ihre Jobs und wanderten ab in andere Diszipline – oder in die Privatwirtschaft.
Gleichzeitig setze eine Welle der Kritik an KI aus moralisch-ethischen Bedenken ein. Der deutschstämmige Computerwissenschaftler Joseph Weizenbaum, der am MIT lehrte, argumentierte 1976 in seinem Buch Die Macht der Computer und die Ohnmacht der Vernunft, dass die Vertreter dieser Informatik-Fachrichtung (die er spöttisch „künstliche Intelligentsia“ nannte) versuchen würden, den Menschen auf ein informationsverarbeitendes System zu reduzieren, was für ihn nur Ausdruck ihrer „naturwissenschaftlichen Fachidiotie“ sei.
Eine Antwort auf Dartmouth und der erste KI-Winter