Google entdeckt das Denken

Das Unternehmen erleidet Rückschläge beim Versuch, Wissen vollautomatisch zu schürfen. Der Mensch ließ sich nicht aus der Schleife nehmen.

6 Minuten
eine große Maschine auf einem Feld [AI]

Google weiß alles.

Die Suchmaschine fischt Antworten binnen Sekundenbruchteilen aus den Tiefen des World Wide Web. Gleich, was man fragt, sei es „Wie entferne ich eine Klette aus dem T-Shirt?“, „Welche veganen Restaurants gibt es in der Nähe?“, oder „Wie heißt die gelb-schwarz gestreifte Spinne im Garten?“: Stets hat sie Antworten parat.

Als würde das berühmte Zitat des Sokrates für Google nicht gelten. „Ich weiß, dass ich nicht weiß“, sagte der griechische Philosoph im Jahr 399 vor Christus. Sokrates akzeptierte, dass Erkenntnis Grenzen hat.

Das weiß Google zwar auch. Dennoch lautet der Anspruch des Unternehmens aus Mountain View, Kalifornien: alles wissen. Auf das begrenzte menschliche Gehirn setzen die Visionäre aus dem Silicon Valley daher nicht. Sondern auf Daten und künstliche Intelligenz (KI).

Schon im Jahr 2000 sagte Larry Page, einer der beiden Gründer: „KI wäre die ultimative Version von Google. Wir hätten die ultimative Suchmaschine, die alles im Web verstehen würde.“

Wer die Daten hat, hat das Wissen

Bald ging es um mehr als nur alle Webseiten. Unternehmen wie Google, die Zugriff auf Massen von Daten haben, brauchten keine wissenschaftliche Methodik mehr, behauptete der britisch-amerikanische Journalist Chris Anderson 2008. Ein Moloch, der alles misst – Bewegungsprofile, Pulsfrequenzen, Luftqualität –, deckt alle Zusammenhänge auf, die in den Daten stecken. Die Welt wird nicht erklärt, sondern freigelegt. Mit Hilfe von KI.

Google ist auf diesem Weg.

Das Unternehmen, genau gesagt dessen Muttergesellschaft Alphabet, infiltriert die Welt mit seinen Datensaugern. Mehr als 85 Prozent aller Handys laufen unter Googles Betriebssystem Android. Die Geräte zeichnen „Zeitachsen“ von Nutzern auf, die zeigen, wann diese welche Cafés, Supermärkte, Bahnhöfe oder Hotels besucht haben. Sogar ein Android-Handy, das 24 Stunden an einem Ort bleibt und scheinbar untätig ist, sendet einer Studie der Vanderbilt University in Nashville zufolge über 300 Mal Daten zu Googles Servern. Alphabet weitet sein Arsenal an Datensaugern aus. Ein Ziel ist die Wohnung, in die es mit seinem Smart-Home-Lautsprecher „Google Nest“ eindringt. Auch selbstfahrende Autos, entwickelt von Alphabets Tochterfirma Waymo, liefern Daten nach Mountain View.

Um Wissen aus der Datenflut zu schürfen, braucht Google künstliche Intelligenz. Auch hier ist es führend. Vor einigen Jahren schlug die KI „AlphaGo“ der britischen Google-Tochter Deepmind einen der weltbesten Spieler des asiatischen Brettspiels Go, den Südkoreaner Lee Sedol. Das galt als Meilenstein der KI, weil Go wesentlich komplexer ist als Schach. Sein Variantenreichtum ist astronomisch hoch. Weil es selbst für einen Supercomputer unmöglich ist, alle denkbaren Züge vorauszuberechnen, glaubten viele Go-Experten nicht an den Sieg einer Maschine über Lee Sedol. Dieser gelang denn auch auf anderem Weg: Dank einer Technik namens Deep Learning, bei der die KI wieder und wieder gegen sich selbst spielt und aus der gesammelten Erfahrung eine Art Intuition entwickelt.

Auch die These vom Ende der Wissenschaft untermauerte Google mit einer seiner künstlichen Intelligenzen im Jahr 2016. Diese übersetzte zwischen Koreanisch und Japanisch, obwohl sie nie Texte der beiden Sprachen verglichen hatte. Googles KI trainierte stattdessen mit Millionen von Beispiel-Übersetzungen zwischen Englisch und Koreanisch, sowie zwischen Englisch und Japanisch. Dabei habe der Algorithmus offenbar etwas wie eine „Interlingua“ erlernt, schrieb das „Google Brain Team“ auf seinem Blog, eine Art Drehkreuz zwischen allen drei Sprachen. Kurz gesagt: Die KI hat ohne menschliches Zutun nützliches Wissen aus den Daten gesaugt.

Bestätigt sich die These von der vollautomatischen Wissensmaschine?

Die Pannen der Datenkrake

Nein. Denn nun erlitt Google einige Rückschläge auf dem Weg dorthin.

Es erfährt, dass es auf das Denken des Menschen nicht verzichten kann. Einer der führenden KI-Forscher des Unternehmens, Patrick Riley, berichtet im Magazin Nature offen über die Fehlschläge.

Der Forscher warnt vor der nebulösen Art, mit der Algorithmen vermeintliche Erkenntnisse gewinnen. Die Software sei derart komplex, dass es „unmöglich ist, zu erörtern, wie die Eingaben genau verarbeitet werden“, schreibt Riley. Das öffne die Türen weit, um in Sackgassen zu geraten und über Fallstricke zu stolpern.

Eine der Fallen, in die Rileys „Google Accelerated Science Team“ mehrfach geriet, überschreibt der Informatiker mit „versteckte Variablen“. Künstliche Intelligenz knüpft ihre Prognosen oft an Kriterien, die nur zufällig einen Zusammenhang mit der Fragestellung aufweisen. Rileys Team arbeitete mit einem Startup zusammen, das einen Fusionsreaktor entwickelt. Dazu wird ein Gas aus elektrisch geladenen Atomen, ein so genanntes Plasma, von einem Magnetfeld in der Schwebe gehalten und möglichst hoch erhitzt. Wie stark die Anlage das Plasma aufheizt, hängt von vielen Bedingungen ab, wie etwa die Spannung, die an die Magneten angelegt wird. Die Maschine besitzt sozusagen hunderte Stellschrauben. Die Frage: Welche der unzähligen Varianten, diese zu justieren, erzeugt die höchste Temperatur? Eine KI wurde mit Messdaten von mehreren Monaten Testbetrieb mit Tausenden verschiedenen Einstellungen und der jeweils erzielten Temperatur gefüttert. Sie lernte, salopp gesagt, wie man die Stellschrauben drehen muss, um dem Plasma möglichst viel Energie zuzuführen und somit zu erhitzen. „Wir waren erfreut, als wir zu einem Modell kamen, das für bestimmte Einstellungen gut vorhersagte, ob die Energie des Plasmas hoch sein würde“, schreibt Riley. Doch das Team blieb skeptisch und testete seinen Algorithmus: Bei einem neuen Training gaben die Forscher der KI nur den Zeitpunkt jedes Experiments, sowie die erzielte Energie, nicht aber die Justierungen der Stellschrauben. Kurz: Sie ließen die Physik außen vor. Trotzdem sagte die KI genauso treffsicher voraus, wann das Plasma besonders heiß sein würde. „Offenbar hat sich das System an zeitlichen Trends orientiert und nicht an physikalischen Phänomenen“, schreibt Riley. Wie das Wetter oder die Konjunktur schwankte das Geschick der Fusionsforscher mit ihrer Maschine zwischen Hochs und Tiefs. Die KI erlernte die Zyklen und nutzte sie für seine Prognosen. Das ist etwa wie ein Aktienkäufer, der in der Baisse kauft, weil er aus Erfahrung weiß, dass die nächste Hausse nicht weit ist. Wissenschaftlicher Wert: Null.

Einen weiteren Fehlschlag überschreibt Riley mit „Falsche Zielvorgabe“. Googles Team trainierte einen Algorithmus, diabetische Retinopathie auf Bildern der Netzhaut zu erkennen. Diese Krankheit kann zur Blindheit führen, wenn sie nicht rechtzeitig erkannt wird. Rileys Team ging den üblichen Weg: Es sammelte Aufnahmen von Netzhäuten und fragte Augenärzte nach ihren Diagnosen. Sofern die Befunde stimmten, sollte die KI die Muster auf den Bildern, die die Krankheit anzeigen, lernen und neue Aufnahmen in „gesund“ oder „nicht gesund“ einordnen können. Doch das klappte nicht. Denn oft waren sich die Ärzte nicht einig über die Diagnose. Ein Mehrheitsentscheid sei auch keine gute Idee, schreibt Riley, denn manchmal stimme die Meinung der Minderheit.

Das Team erkannte, dass die Fixierung auf eine einzelne Krankheit nicht funktionierte. „Wir hätten fragen sollen: 'Soll der Patient zum Arzt gehen’“, sagt Riley. Erst das Gesamtbild gibt eine sichere Diagnose. „Wir laufen Gefahr, präzise Systeme zu entwickeln, die die falschen Fragen beantworten“, resümiert der Forscher.

„Big Data“ strahlt nicht mehr

Riley warnt vor einem Big-Data-Desaster: „Da diese Algorithmen immer breiter angewendet werden, werden sich die Risiken von Fehlinterpretationen, falschen Schlussfolgerungen und vergeudetem wissenschaftlichen Aufwand erhöhen.“

Er mahnt bessere Qualitätskontrollen an. Bei jedem neuen Laborgerät versuchten Forscher, seine Funktionsweise und Fehlerquellen zu verstehen. Das müssten sie bei lernfähigen Algorithmen genauso handhaben, meint Riley.

Googles Fehlbarkeit fügt sich in ein größeres Bild. Die Strahlkraft von „Big Data“ erblasst. Möglichst viele Daten zu raffen und sie von einer KI zu gewinnbringenden Kenntnissen zu destillieren: Diese Vorstellung entpuppt sich als naiv. Das zeigte sich schon vor Jahren bei Algorithmen, die afroamerikanischen Straftätern systematisch ein höheres Rückfallrisiko bescheinigten als weißen, oder bei einer KI des Herstellers IBM, die Krebsmedizinern potenziell tödliche Behandlungstipps gab. Ein weiteres Beispiel: Eine Big-Data-Auswertung von zwei Millionen Stimmberechtigten zu ihrem Wahlverhalten habe keine besseren Ergebnisse geliefert als es eine Umfrage unter 500 zufällig gewählten Bürgern getan hätte, wie der US-Forscher Xia Li Meng jüngst ausrechnete.

Inzwischen gibt es einen Gegentrend zum blinden Big Data Hype. Forschung, die Datenqualität verbessern und eine KI schaffen soll, die ihre Entscheidungen für Anwender nachvollziehbar macht, steht hoch im Kurs. Immer öfter zeigt sich: Den Menschen aus der Schleife zu nehmen, ist unverantwortbar.

Dass es nicht allein die Masse an Daten macht, gibt kleineren Firmen eine Chance, die Herrscher der Datenwirtschaft auszustechen. Ein Beispiel dafür ist die Kölner Firma DeepL. Der Online-Übersetzer des 30-köpfigen Teams wurde in Medienberichten als besser als die Angebote der Großen wie Google und Microsoft gepriesen, zumindest was Alltagssprache angeht. Nach Expertenmeinung liege das an der sorgfältigen Auswahl von Texten und deren Übersetzungen.

Das menschliche Gehirn ist wieder im Spiel. Googles noch so umfassendes Wissen bleibt genauso relativ, wie das des Sokrates.

VGWort Pixel