Eine Maschine gewinnt in mehreren Matches gegen einen Menschen in einem Spiel, das über 2500 Jahre alt ist. Ist das wichtig? Und ob: Es verändert die Art und Weise, wie wir künftig mit Computern interagieren können - und sie mit uns.
In Science-Fiction-Filmen wird das Thema als besorgniserregend dargestellt, doch ist künstliche Intelligenz wirklich so bedrohlich? Oder kann sie eher unterstützend helfen, beispielsweise im medizinischen Bereich, um Krankheiten zu erkennen?
Computer besiegt Weltmeister im komplexen Brettspiel
Nachdem Googles Software AlphaGo im vergangenen Jahr bereits den Europameister im Spiel "Go" besiegt hatte, trat der Computer nun gegen den amtierenden Weltmeister Lee Sedol an. Go ist ein rund 2500 Jahre altes Spiel und stammt aus China. Es gilt als eines der komplexesten Spiele, die jemals entworfen wurden. Durch die Vielzahl an Spielzügen und Möglichkeiten könnte man sein Leben damit verbringen, immer neue Dinge zu lernen.
Bei Go setzen zwei Spieler abwechselnd Spielsteine auf ein 19x19 Felder großes Brett. Einer verfügt über schwarze, der andere über weiße Steine. Wenn ein Stein komplett mit gegnerischen Steinen umzingelt ist, wird er vom Spielfeld entfernt. Am Ende gewinnt der Spieler, der die meisten Felder auf dem Brett besetzt.
AlphaGo bezwang den Weltmeister nach fünf Runden mit 4:1. "Ich habe nicht erwartet zu verlieren", sagte Lee, der noch im Februar ankündigte, dass er haushoch gewinnen werde. Es habe ihn überrascht, dass AlphaGo das Spiel so perfekt beherrsche. Beim Stand von 3:0 entschuldigte er sich bei seinen Fans und meinte: "Ich war machtlos."
Ein Meilenstein für die künstliche Intelligenz
Dieser Erfolg gilt als Meilenstein für die Entwicklung der künstlichen Intelligenz. Forscher gingen eigentlich davon aus, dass ein noch ein Jahrzehnt dauern wird, bis ein Computer in der Lage ist, einen professionellen Go-Spieler zu besiegen. Durch die Komplexität der fast unbegrenzten Positionen auf dem Spielfeld verlassen sich menschliche Spieler oft auf ihre Intuition. Und das galt bisher als nicht machbar für eine Maschine. Der Computer überraschte im Spiel gegen Lee Sedol laut Kommentator Kim Seong Ryong jedoch mit Spielzügen, auf die nie ein menschlicher Spieler in dieser Situation gekommen wäre.
Lee haben verloren, weil er "nur ein Mensch sei", sagte sein früherer Trainer Kwon Kyp Yong. Er habe durchgängig gut gespielt, doch durch seine "mentale Verletzbarkeit" (Druck und Stress) konnte er nicht die Oberhand gewinnen. Überlisten konnte Lee die Maschine im letzten Match nur fast. Er entschied sich nach einer halben Stunde für einen Spielzug, den der Computer nicht erwartet hatte. Dadurch hat AlphaGo im nächsten Zug einen schweren Fehler gemacht. Doch AlphaGo wurde entwickelt, um seine Siegchancen zu erhöhen. Dadurch entstehen auch Spielzüge, die ein Mensch so erstmal nicht begreifen kann. Zum Ende des fünften Spiels stand Lee enorm unter Stress, da die Zeit auf seiner Uhr abgelaufen war. Das bedeutet, dass er jeden Spielzug innerhalb von 60 Sekunden ausführen musste. Verfehlt er diese Auflage drei Mal, hat er verloren.
Neuronale Netze lassen Computer selbst lernen
AlphaGo basiert auf künstlichen neuronalen Netzen. Das sind Netzwerke aus Hardware und Software, die das Neuronennetz des menschlichen Gehirns nachahmen. Dadurch kann das System große Mengen digitaler Daten analysieren und lernen. Füttert man das Netz beispielsweise mit sehr vielen Fotos einer Kuh, wird es in der Lage sein, eine Kuh zu erkennen. Genauso funktionierte das mit Spielzügen professioneller Go-Spieler. Zusätzlich hat die Maschine gelernt, Zeit zu verwalten. Dadurch hatte AlphaGo am Ende des Spiels einen großen Vorteil gegenüber dem Weltmeister.
AlphaGo hört außerdem nicht auf zu lernen. Es spielt gegen sich selbst und lernt so wiederum auch aus den Spielzügen, die es selbst generiert hat - und nicht nur von den menschlichen Eingaben. Manchmal wird es dadurch Züge spielen, auf die kein Mensch gekommen wäre - und wird dadurch ein besserer Spieler, der menschliche Profis besiegt.
Wo führt das alles hin?
Die Firma hinter AlphaGo, DeepMind, wurde 2014 von Google übernommen. Doch man setzt nicht die intelligentesten Forscher nur darauf an, damit ein Computer ein Brettspiel gewinnt. Die Erkenntnisse sollen genutzt werden, um die bestehenden Google-Dienste zu verbessern. Von Nutzen ist das künstliche neuronale Netz beispielsweise für die Google-Suche, die Spracherkennung oder auch selbstfahrende Autos. Produkte werden in erster Linie hintergründig verbessert, sodass wir es gar nicht merken, schreibt The Verge.
Google möchte diese Forschung auch nutzen, um die Technologie auf Smartphones nutzbar zu machen. Außerdem soll der medizinische Bereich unterstützt werden. DeepMind Health wird sich beispielsweise um das Erstellen von Apps kümmern, die Medizinern dabei helfen, schnell über bevorstehende Komplikationen informiert zu werden. Der Fokus soll dabei zu Beginn auf der Erkennung von Nierenversagen liegen. Zusammen mit dem Royal Free Krankenhaus in London soll mit "Streams" eine App entstehen, die Ärzten und Schwestern alle wichtigen Patientendaten anzeigt.
Das Konkurrenzprodukt zu Googles Computer stammt von IBM. Der "Watson" bekam viel Aufmerksamkeit, als er 1997 Schachweltmeister Garry Kasparov besiegte. Auch gewann er 2011 die Quizsendung Jeopardy. Über die vergangenen Jahre wurde der IBM-Computer weiterentwickelt. Inzwischen wird er bereits in Thailand und Indien in zwei Krankenhäusern eingesetzt, um die Ärzte bei der Diagnose von Brust-, Lungen- und Darmkrebs zu unterstützen. Dabei stellt es die Krankheit nicht selbst fest, zeigt dem Arzt aber anhand der Patientengeschichte und Untersuchungs- sowie Laborergebnissen Dinge auf, die er kontrollieren sollte. Außerdem schlägt er Behandlungsmöglichkeiten vor. Kathy McGroddy, Vizepräsident von Watson Health, sagte gegenüber The Verge: "Watson lernt seit vielen Jahren Bildanalyse. Jetzt haben wir zusätzlich Bilddaten aus der Akquisition von Merge Healthcare, um diese Fähigkeiten zu beschleunigen. So wird Watson in der Lage sein, nicht nur Anomalien in medizinischen Bildern zu identifizieren, sondern auch verstehen, was sie im Zusammenhang mit weiteren Informationen, wie zum Beispiel Daten aus dem Fitnesstracker Fitbit des Patienten, bedeuten."
Bisher waren für die Berechnungen durch neuronale Netze große Computer mit viel Leistung und Energieverbrauch notwendig. Ingenieure des MIT haben im Februar eine Lösung vorgestellt, die auch in Smartphones funktioniert. Der Grafikchip Eyeriss soll Berechnungen effizienter erledigen als es die aktuellen Smartphones bisher machen. Als Anwendungsgebiet sehen die Forscher vor allem das Internet der Dinge. Auch batteriebetriebene Roboter können davon profitieren, da die Berechnungen nicht, wie beispielsweise die Spacherkennung für Apples Siri in der Cloud, sondern lokal durchgeführt werden. Das verbraucht insgesamt weniger Energie und funktioniert schneller.