Wir stehen in der Computerei am Ende einer Ära und kurz vorm Übergang zu einer ganz neuen, nämlich dem Zeitalter lernfähiger Maschinen. Das wird tiefgreifende Folgen für die Art und Weise haben, wie wir mit Daten umgehen und wird unser Verhältnis zum Computer auf eine neue Ebene hieven, keine Frage. Die heute verwendete Von-Neumann-Architektur, die der in Budapest geborene US-Mathematiker John von Neumann bereits 1945 beschrieb und die bis heute Grundlage aller gebräuchlichen Rechnersysteme ist, arbeitet nach dem SISD-Prinzip (Single Instruction, Single Data), können also immer nur eine Information nach der anderen abarbeiten. Das führt zum so genannten „Von-Neumann-Flaschenhals“, einer Engstelle, die vom deutschstämmigen Informatiker und Erfinder der Programmiersprache Fortran, John W. Backus, beschrieben wurde.
Solche Computer können immer nur eine Sache auf einmal machen (im Englischen auch als „word-at-a-time thinking“ bezeichnet), erzwingt also einen expliziten Sequentialismus. Da bei ihnen Datenspeicher und Verarbeitungschip getrennt sind, können sie nur vom Programmierer vorgegebene Arbeitsschritte ausführen, nach dem Motto: „Wenn x, dann y“. Solche Computer sind erstens zu langsam und zweitens nicht intelligent genug, um mit den riesigen Informationsmengen zurecht zu kommen, die im Zusammenhang mit Big Data anfallen.
Ohne hier auf die ziemlich komplizierten technischen Hintergründe einzugehen genügt es zu sagen, dass der Computer, wie wir ihn kennen, demnächst gegen die „Memory Wall“ fahren wird. Damit wäre aber ein Grundgesetz der Computertechnik infrage gestellt, nämlich Moore’s Law, die nach dem Intel-Mitbegründer Gordon Moore benannte Erkenntnis, dass sich die Leistungsfähigkeit von Halbleiterchips ungefähr alle 18 Monate verdoppelt.
Bei IBM arbeitet man schon seit einiger Zeit an so genannten neurosynaptischen Halbleiterelementen, die der Arbeitsweise des menschlichen Gehirns nachempfunden und in der Lage sind, selbstständig Verbindungen zwischen einzelnen Informationseinheiten herzustellen, so wie unsere Gehirne Synapsen bilden, also neuronale Verknüpfungen, über die eine Nervenzelle in Kontakt steht zu einer anderen Zelle. Synapsen dienen der Signalübertragung, können aber auch durch anpassende Veränderungen Information speichern. Das Ergebnis ist die bislang nur dem Menschen eigene Fähigkeit, aus scheinbar unverwandten Informationen neue Rückschlüsse zu bilden – der überspringende kreative „Funke“, der uns zu völlig neuen Erkenntnissen führen kann, von Einsteins Relativitätstheorie zu intelligenten Prognosen über Marktverhalten, und der uns zumindest in begrenztem Umfang erlaubt, komplexe Sachverhalte zu begreifen und zu entwirren, also Ordnung aus scheinbarem Chaos zu machen.
Wird der Computer also eines Tages denken lernen. Und wird er dadurch zu einer mächtigen Gefahr für uns Menschen, nach dem Motto: „Die Geister, die ich rief, ich werd sie nicht mehr los?“ Generationen von Science Fiction-Autoren haben diese Urängste in uns geschürt, und wer erlebt hat, wie IBMs Supercomputer „Watson“ alle menschlichen Kandidaten beim populären amerikanischen TV-Quizzspiel „Jeopardy!“ an die Wand spielte, der konnte sich eines mulmigen Gefühls nicht ganz entledigen. Sind wir schon soweit, oder sind wir es demnächst?
Ich habe mich neulich im IBM-Hauptquartier in Ehningen mit Martina Koederitz darüber unterhalten. Sie ist Deutschlandchefin des größten IT-Konzerns der Welt und damit so etwas wie „Frau Watson“, jedenfalls für mich. Ihre Antwort verdient es, hier festgehalten und wiedergegeben zu werden. Nein, sagte sie, Watson wird niemals denken können. Er wird aber eine immer intelligentere Maschine. Und weiter: „Ich würde nie behaupten, dass Computer denken lernen, sondern er wird die Fähigkeit entwickeln, Informationen nicht nur zu speichern, sondern aus ihnen zu lernen und mit jeder neuen Information eine neue Verkettung anzulegen, aus der eine neue Zusatzinformation entstehen kann.“
IBM bezeichnet das als „Cognitive Computing“, was bedeutet, dass Watson in der Lage ist, Informationen aus sehr unterschiedlichen und inhaltlich weit entfernten Quellen zu verknüpfen, um daraus neue Erkenntnisse zu gewinnen. Die Frage bleibt, was der Computer mit diesen Erkenntnissen anfangen kann und wird, und ob wir Menschen dabei immer noch die Kontrolle behalten werden.
Koederitz bleibt bei solchen Fragen auf die Sache fokusiert. Solche Computer, sagt sie, werden uns helfen, große Datenmengen mit einer gewissen Intelligenz besser auszuwerten, und sie werden dadurch zu sehr hilfreichen Assistenten für den Menschen werden. Sie zitiert das Beispiel des Gesundheitssystems, wo Watson-Technologie bereits heute getestet wird, um Unmengen von Patientendaten nach Mustern und Erkenntnissen aus sehr unterschiedlichen Quellen zu durchsuchen und Verknüpfungen herzustellen und daraus neue Erkenntnisse zu gewinnen, damit der Arzt in der Diagnostik, der Therapie und der Medikation auf einen größeren Erfahrungsschatz zugreifen kann, als er ihn selbst besitzt. Nach wie vor bleibe es aber die Aufgabe des Mediziners, diese Erfahrungen gezielt auf den individuellen Patienten anzuwenden, der gerade vor ihm sitzt. Watson stellt also nicht die Diagnose, sondern er schlägt nur verschiedene Behandlungsformen vor.
„Watson nähert sich der richtigen Therapieform an und macht Vorschläge – mehr nicht“, so Koederitz. „Natürlich ist der Arzt dann letztendlich derjenige, der die Entscheidung treffen und mit dem Patienten abstimmen muss. Aber ohne diese Technologie ist jeder Mediziner häufig überfordert. Das gilt für jeden Bereich, in dem wir es mit sehr großen Mengen von Informationen aus unterschiedlichsten Quellen zu tun haben, und dort tut sich der Mensch naturgemäß schwer, all die möglichen Erkenntnisse und Erfahrungen, die schon da sind, zu einem bestimmten Zeitpunkt – nämlich jetzt! – so zu verknüpfen, dass das bestmögliche Ergebnis herauskommt.“
Wenn das stimmt, dann ist auch klar, dass kognitive Computersysteme und neuosynaptische Chips die Grundlage bilden werden für unentbehrliche und hochintelligente Assisstenzsystemen, die dem Menschen helfen werden, uns in der wachsenden Informationsflut von Big Data und in hochkomplexen Systemen zurecht zu finden, von der Wettervorhersage und Klimaforschung, aber auch Wirtschaftsprognosen oder Verkehrssteuerung. In den IBM Labors wird schon an ersten konkreten Szenarien gearbeitet, die allesamt wie aus einem Zukunftsroman zu stammen scheinen.
So könnten demnächst autonome Roboter nach Naturkatastrophen die Sucharbeit nach menschlichen Überlebenden übernehmen. Beim Projekt „Tumbleweed“ ist daran gedacht, eine ballförmige Maschine loszuschicken, die über so genannte „multi-modale“ Sensoren verfügt und die Lage und Identität von verletzten oder eingeklemmten Menschen feststellen und Rettungstrupps zu ihnen leiten können. Das Gerät würde auch die Umfeldrisiken abwägen und Vorschläge für die beste Rettungsstrategie machen. Außerdem könnte es beruhigen auf die Opfer einreden oder ihnen sagen, was sie selbst tun können, um sich aus ihrer misslichen Lage zu befreien.
Im Bereich der Umwelttechnik könnte Watson-Technologie direkt in Sensorbojen eingebaut werden, um Schifffahrtsstraßen zu überwachen und vor drohenden Zusammenstößen und anderen Katastrophen zu warnen. Watson-bestückte Thermometer könnten nicht nur die Körpertemperatur messen, sondern auch bakterielle Verunreinigungen anhand ihres typischen Geruchs erkennen und Behandlungsalternativen vorschlagen. Und eine Watson-Brille könnte wie ein „digitaler Blindenhund“ Sehbehinderte sicher durch den Verkehr führen.
Ich habe beim Gespräch Frau Koederitz auch nach einem leider oft vernachlässigten Aspekt der Watson-Technologie angesprochen, nämlich die Enegerieeffizienz. Big Data bedeutet nicht nur immer mehr Daten, sondern immer mehr Energie, die zum Speichern, Verarbeiten, Analysieren und Weiterleiten benötigt wird. Schon heute können im Londoner East End keine neuen Rechenzentren mehr gebaut werden, weil dort nicht genügend Strom zur Verfügung steht. Experten schätzen, dass die IT weltweit inzwischen mehr als zehn Prozent der zur Verfügung stehenden Energie aufbraucht. Wenn Big Data die Datenmengen, wie prognostiziert, bis 2015 um das Vierfache anwachsen lassen wird, geht uns irgendwann einmal der Strom aus.
Auch solche düsteren Vorhersagen nimmt Martina Koederitz unaufgeregt hin. „Vor zehn Jahren hätten wir auch nicht gewusst, dass wir im Jahre 2014 überwiegend mit mobilen Endgeräten im Internet unterwegs sein würden, oder dass wir mit Smartphones weniger telefonieren und viel mehr im Internet surfen würden“, sagte sie. Selbstverständlich sei es eine Herausforderung, der gerade die IBM sich immer wieder stelle, nämlich Computertechnik energieeffizienter zu machen: „Wir haben in den letzten Jahren den Energieverbrauch unserer IBM internen Rechenzentren um 80% allein durch klassische Konsolidierung und Virtualisierung beispielsweise mit Hilfe unserer Mainframe-Technologien erreicht. Da steckt nach wie vor viel Potential in den aktuellen Plattformen. Als wir mit Watson in einer Quizshow aufgetreten sind, wollten wir der Welt ja nicht etwa zeigen, dass IBM vorhat, in die Spielebranche einzusteigen, sondern dass wir mit diesen neuartigen Computersystemen in der Lage sind, auf die Herausforderungen einer vernetzten, digitalen und damit ungeheuer datenintensiven Welt zu reagieren und nach Antworten zu suchen. Unsere Chefin, Ginni Rometty, spricht ja gerne davon, dass wir am Anfang einer Dekade des ‚smarter computing‘ stehen. Deshalb haben wir in den letzten Jahren auch sehr viel investiert, um neue Computing-Architekturen marktreif zu machen die einerseits sehr energiesparend sind, die aber andererseits besser in der Lage sind, mit riesigen Datenmengen umzugehen. Ich glaube, dass wir hier auf einem sehr guten Weg sind.“