Wie gefährlich ist ein Algorithmus, der schreibt wie ein Mensch?

Die Sprachsoftware GPT-3 des amerikanischen Unternehmens OpenAI schreibt selbständig Geschichten und andere authentisch wirkende Texte. Experten für künstliche Intelligenz fordern eine europäische Reaktion darauf.

Die Bosse der amerikanischen Tech-Giganten eint der Glaube an eine bessere Welt durch Technologie. Doch an einer der größten Visionen scheiden sich ihre Geister: Eine Maschine, die genauso intelligent ist wie ein Mensch oder sogar darüber hinaus. Eine solche „allgemeine künstliche Intelligenz“ wäre mindestens so lernfähig wie ein Mensch, könnte selbständig beliebige Ziele verfolgen und alle möglichen Aufgaben lösen. Am Ende könnte sie, so fürchten manche, die Menschheit unterdrücken, etwa um den Planeten vor deren Tun zu bewahren. Elon Musk, unter anderem Chef der Firma Tesla, sieht in einer allgemeinen KI ein Risiko für die Existenz der Menschheit, die es vorbeugend zu regulieren gelte. Es sei wahrscheinlicher, dass so eine KI den Menschen helfen würde, statt ihnen zu schaden, entgegnet Jeff Bezos, Gründer von Amazon. Das glaubt auch Facebook-Chef Mark Zuckerberg und nennt Musks Warnung „unverantwortlich“. Doch vor Kurzem zeigte eine Sprachsoftware namens GPT-3, dass die Sache vielleicht doch etwas komplizierter ist, als Bezos und Zuckerberg glauben.

Vor allem ein Argument der Entwarner gerät unter Druck. Es lautet: Um eine allgemeine oder auch „starke“ KI müsse man sich derzeit keine Sorgen machen, da sie noch nicht einmal am Horizont sichtbar sei. Bislang lösten Algorithmen lediglich eng begrenzte Aufgaben, so die Argumentation, auf die sie spezifisch trainiert wurden, etwa das Erkennen von Gesichtern auf Bildern. Darin können sie zwar besser sein als Menschen. So erkennt ein Algorithmus anhand von Fotos Hautkrebs zuverlässiger als Dermatologen. Außerhalb seiner Insel aber sei ein Algorithmus dumm wie Stroh, heißt es oft.

Doch es gibt inzwischen Algorithmen, deren Können nicht scharf eingegrenzt ist.

Im Frühjahr dieses Jahres stellte die britische Firma Deepmind, ebenso wie Google eine Tochter des US-Konzerngiganten Alphabet, eine KI vor, die sich mehrere Atari-Computerspiele selbst beibrachte. Darunter waren auch komplexe Spiel-Welten, die der Algorithmus selbständig erforschte, um ihre Regeln kennenzulernen. Über alle Spiele gemittelt, schnitt der Algorithmus besser ab als ein durchschnittlich spielender Mensch. Die KI kam also mit der Vielfalt der virtuellen Welten zurecht, statt nur auf eines der Spiele spezialisiert zu sein.

Entwickler sind besorgt über das eigene Produkt

Im Sommer stellte die Firma OpenAI aus San Francisco einen anderen Algorithmus vor, der sich auf einem weit sensibleren Feld ähnlich flexibel zeigt: der menschlichen Sprache. Die Software GPT-3 schreibt plausibel klingende Geschichten, Artikel oder beantwortet Fragen, fast wie ein Mensch. OpenAI hat ausdrücklich das Ziel, eine starke KI zu entwickeln. Was zunächst paradox klingt, da der KI-Kritiker Elon Musk sie 2015 mitgegründet hat. Der Silicon-Valley-Tycoon wollte damit jedoch zu einer transparenten Entwicklung dieser Technologie beitragen. Die Idee dahinter: Würden neu entwickelte Algorithmen der künstlichen Intelligenz für jedermann geöffnet, dann würden sie der Menschheit eher dienen, als wenn sie hinter den Wällen von Techkonzernen entwickelt werden. Doch schon mit GPT-2, der Vorgängerversion des aktuellen Produkts, bekam OpenAI kalte Füße: „Aufgrund unserer Besorgnis über bösartige Anwendungen der Technologie“, halte man den Algorithmus unter Verschluss, teilte das Unternehmen 2019 mit. Damals hatte Elon Musk die Firma schon verlassen, wegen möglicher Interessenskonflikte als Chef von Tesla, blieb allerdings ein Sponsor.

Wie Victor Frankenstein vor dem von ihm geschaffenen Monster bekommen Software-Entwickler Angst vor ihrer KI. Doch warum?

Was GPT-3 tut und wie, ist nicht neu. Es nutzt eine als Deep Learning bekannte Methode, die vom menschlichen Gehirn inspiriert ist. Eine Software simuliert Nervenzellen (Neuronen) und deren Vernetzung. Die Neuronen folgen in mehreren Schichten aufeinander. Jedes Neuron einer Schicht ist mit allen Neuronen der folgenden Schicht verbunden. Wenn es ein Signal abgibt, geht es an alle folgenden Neuronen. Doch jede einzelne Verbindung verstärkt das Signal unterschiedlich. Jede dieser Signalstärken, auch „Parameter“ genannt, passt sich beim Lernprozess an, ähnlich wie im Gehirn, wo sich Gelerntes in Form der Übertragungsstärke von Synapsen niederschlägt.

Dieser Lernprozess lief bei GPT-3 automatisch. Die Entwickler gaben ihm nur ein Ziel vor: Prognostiziere das nächste Wort eines unvollständigen Textes. Beim Training bekommt es den Anfang eines Textes und rät, welches Wort folgt. Wenn es falsch lag, werden die Parameter nachjustiert, bis es richtig prognostiziert. Am Ende spiegeln die Parameter die statistischen Beziehungen zwischen Wörtern wieder, beispielsweise welche Wörter häufig im Kontext zueinander auftreten.

Künstliche Intelligenz als digitale Materialschlacht

Ähnlich arbeiten auch andere Textgeneratoren. Das Besondere an GPT-3 ist quantitativer Art. Erstens die Textmenge, anhand der es trainiert hat. Diese umfasste Milliarden von Webseiten, sowie zwei Buchsammlungen im Internet und die englischsprachige Wikipedia. Insgesamt scannte die KI fast 500 Milliarden Wörter. Der zweite Vorteil ist die schiere Größe des neuronalen Netzes von GPT-3. Es besitzt 175 Milliarden Parameter, und damit mehr als hundert Mal so viel, wie die Vorgängerversion GPT-2. Sein Bedarf an Rechenkraft ist genauso enorm. Das Training erfolgte auf einem Rechnerverbund der Firma Microsoft. Ein einzelner Prozessor hätte über 300 Jahre dafür gebraucht. Einmal trainiert, ist das Programm weitaus genügsamer: Zum Schreiben von 100 Seiten Text braucht es 0,4 Kilowattstunden an elektrischer Energie.

Der neue Textgenerator trumpft also in einer Materialschlacht, in der es um Datenmengen und Rechenpower geht. Bei Deep Learning bedeutet Quantität indessen Qualität. Je mehr Beispiele das neuronale Netz beim Lernen sieht, desto zuverlässiger werden seine Vorhersagen. Und je mehr Parameter es hat, desto mehr Wissen steckt in ihm, ähnlich wie beim Gehirn, dessen erstaunliche Leistungen auf der massiven Vernetzung zwischen den 100 Milliarden Neuronen basiert.

So verwundert es nicht, dass GPT-3 verwundert. Es vervollständigt Texte, beantwortet Fragen, fasst zusammen, übersetzt und imitiert sogar den Stil und Sprachfarben, mit dem der Text eingeleitet wird. Den Text eines Rap-Songs führt es in ähnlicher Art weiter. Die Ergebnisse erstaunen, etwa wenn der Algorithmus einen Anfangssatz zu einer ganzen Geschichte weiterspinnt. Dabei kann eine durchaus glaubwürdige Abenteuer-Erzählung herauskommen, wie ein Beispiel hier zeigt. Der Medienhype um GPT-3 im Sommer erklärt sich durch solche Leistungen. Für OpenAI war er die beste Werbung. Die Firma verkauft Zugang zu dem Textgenerator, manche Anwendungen nutzen ihn schon, wie etwa zur Beantwortung von gesundheitsbezogenen Fragen. GPT-3 ist nicht einmal auf menschliche Sprache festgelegt, sondern kann auch Software-Code vervollständigen.

Erstaunliches „Verhalten“, aber keine Intelligenz

GPT-3 zeigt einige Charakteristika einer starken KI. Es ist nicht auf ein Themengebiet begrenzt, auch nicht auf eine spezielle Art der Sprachverarbeitung wie Übersetzen. Darüber hinaus demonstriert es etwas, das künstlicher Intelligenz bislang meist fehlt: Weltwissen. Es vervollständigt Texte wie „Die Hauptstadt von Frankreich heißt ...“ richtig oder antwortet auf „Sollte ich Schokolade essen, wenn mein Blutzuckerspiegel über 100 liegt?“ mit einem Rat, wie ihn auch ein Arzt geben könnte (Die Antwort lautete bei meinem Test: „Schokolade ist gesund, aber sie ist nicht die beste Wahl, wenn Ihr Blutzuckerwert hoch ist“).

Doch der Nutzer stößt auch schnell an die Grenzen des Algorithmus. Die KI macht Fehler, die ein Mensch nicht machen würde, antwortet zum Beispiel auf „Wie viele Augen hat mein Fuß?“ mit „Ihr Fuß hat zwei Augen.“ Dann wieder wirkt die Software wie ein Nerd, der alles wörtlich nimmt. Auf meine Frage: „Kann ich Schokolade essen, wenn mein Blutzucker über 100 liegt?“ antwortet sie: „Ja, Sie können Schokolade essen, wenn Ihr Blutzucker über 100 liegt.“ Manche Antworten sind absurd: So schlägt GPT-3 vor, eine zu enge Tür zu zersägen, um einen Tisch hindurchzubringen.

Auch Experten dämpfen den Hype. „GPT-3 ist sicherlich noch keine allgemeine KI, das ist noch weit weg davon“, sagt Kristian Kersting, Professor für KI und Maschinelles Lernen an der Technischen Universität Darmstadt. Hinrich Schütze von der Ludwig-Maximilians-Universität München erklärt, warum die Software das nicht leisten kann. Der Algorithmus habe nicht Sprache gelernt, sagt der Computerlinguist, „sondern nur, wie man sich typischerweise ausdrückt“. Daher sehe der generierte Text auf den ersten Blick sehr natürlich aus, wie vom Menschen geschrieben. „Aber auf den zweiten Blick merkt man, dass kein echtes Sprachverständnis da ist“, sagt Hinrich. GPT-3 habe Ausdrucksweisen lediglich auswendig gelernt. GPT-3 wisse beispielsweise nicht, was das Wort „gewinnen“ bedeutet und könnte schreiben, dass die Ukraine gegen die Deutschland gewonnen habe, auch wenn die Ukrainer nur ein Tor, die Deutschen aber zwei geschossen hätten – ohne dass der Software der offenkundige Widerspruch auffiele. Um ein System bauen zu können, das Sprache versteht, brauche man ein wissenschaftliches Verständnis von Sprache. Informatiker müssten hierzu mit Linguisten zusammenarbeiten. Eine starke KI müsste also wirklich die Regeln von Sprache lernen, statt nur die statistische Wahrscheinlichkeit für das nächste Wort zu berechnen.

Blind für Wertvorstellungen

Die Medienethikerin Jessica Heesen von der Universität Tübingen indessen bezeichnet GPT-3 als einen „Sprung“. Heesen weist auf tief greifende ethische Fragen hin, die eine solche Sprachsoftware aufwirft. Zum einen lässt sich der Algorithmus von Menschen missbrauchen. Je authentischer die künstlich erzeugten Texte wirken, desto vielfältiger sind die Möglichkeiten hierfür. Die Entwickler von GPT-3 zählen selbst einige auf: Desinformation oder Spam verbreiten, Phishing oder das Fälschen behördlicher Dokumente. Studenten könnten sich Seminararbeiten sehr leicht schreiben lassen, fügt Heesen hinzu. „Das wird keiner merken“, sagt sie. Heesen fordert eine Kennzeichnungspflicht für algorithmisch erstellte Texte. Das sei wichtig für die Vertrauensbildung. „Wir Menschen sind darauf angewiesen, zu wissen, was durch eine künstliche Intelligenz erstellt wurde und was durch einen Menschen“, sagt die Medienethikerin. Noch eine andere Gefahr sieht Heesen, falls künstlich erstellte Texte unmarkiert blieben: Dass KI-Systeme mit Texten trainieren, die andere KI-Systeme geschrieben haben. „Dann kommen wir in eine unkontrollierte Feedbackschleife, in der falsche Artikel entstehen könnten“, sagt Heesen. Das wäre vor allem für die Wissenschaft eine Katastrophe, meint sie. Denn es wäre dann nicht mehr nachvollziehbar, was eigentlich richtig ist, „weil alles sich nur noch in so einer Feedbackschleife befindet“.

Nicht nur die möglicherweise falsche oder irreführende Texte machen Ethikern Sorgen, sondern auch ein Manko, das Sprachsoftware wie GPT-3 in sich trägt: Sie sei blind für Wertvorstellungen, wie Heesen betont. Der Algorithmus nutzt bereits geschriebene Texte als Trainingsmaterial. Diese spiegeln die Welt so wieder, wie sie ist. In der Ethik aber frage man, wie die Welt sein sollte, sagt Heesen. Die Frage „Wie sollen wir leben?“ richtet sich per se auf die Zukunft. Da der Algorithmus aber lediglich Muster in Daten erkenne, reproduziere er nur Übliches.

Ein viel diskutiertes Problem in diesem Zusammenhang: Diskriminierende Algorithmen. Die Daten für das Training kommen aus der Praxis und die steckt voller Voreingenommenheiten, welche die Algorithmen im späteren Einsatz ebenfalls zeigten. Der Fachbegriff dafür heißt „Bias“ (von Englisch: Hang, Tendenz). Eine Software des österreichischen Arbeitsmarktservice beispielsweise gestand Frauen und nicht-österreichischen Staatsbürgern schlechtere Jobchancen zu als österreichischen Männern.

Eine Frage der Datenqualität

Mitarbeiter von OpenAI haben auch in den Texten von GPT-3 solche Voreingenommenheiten entdeckt. Die Forscher ließen die Software Wortbeiträge mit Bezug zu Themen wie Religion, Ethnie oder Geschlecht erzeugen. Dabei zeigten sich ähnliche Assoziationen wie in der echten Welt. Beispielsweise kam das Wort „Islam“ häufiger im Kontext mit Wörtern wie „Gewalt“ und „Terrorismus“ vor, als das mit „Christentum“ oder „Hinduismus“ geschah.

Um solchen Schieflagen vorzubeugen, sei es sehr wichtig, die Qualität der Trainingsdaten zu prüfen, sagt die Medienethikerin Heesen. Unerwünschte Begriffe lassen sich zwar automatisch ausfiltern. Doch das Problem des Bias sei viel fundamentaler, warnt die Expertin. Ein Filter könne den gesamten Kontext der Texte nicht verändern. „Denn diese Kontexte sind wir alle“, sagt sie. Sie seien in die Gesellschaft eingewoben. Die künstlich erzeugten Texte würden diesen Bias zwangsläufig widerspiegeln. Daher sei es wichtig, „dass die Trainingsdaten durch Dritte überprüft werden können, zum Beispiel durch Zertifizierungen“, sagt Heesen.

Experten fordern Zugang für alle

Trotz Regulierung bliebe ein Textgenerator, dessen Texte sich nicht von denen eines Menschen unterscheiden lassen, ein machtvolles Instrument. Erst recht gälte das für eine starke KI. GPT-3 zeigt, dass mit schon verfügbaren Algorithmen große Sprünge gelingen können. Der Fortschritt war neben der Programmierung auch eine Frage von Datenmengen, Aufbereitung von Daten und schierer Rechenkraft. Im Rennen um eine starke KI haben die Tech-Giganten von der amerikanischen Westküste die Nase vorn, da sie in unvergleichlichem Maß über Daten und Rechenkraft verfügen.

Das Spielfeld müsse jedoch möglichst für alle offen gehalten werden, finden deutsche Experten. „Wir Europäer müssen GPT-3 als Weckruf sehen“, sagt der KI-Experte Kristian Kersting. Europa müsse eine „Gegenströmung“ aufbauen, Algorithmen also, die offen seien. Nur das garantiere gleiche Chancen. „Es sollte ein europäisches GPT-X geben“, sagt Kersting in Anspielung auf das europäische Cloudprojekt Gaia-X. Diese europäische Sprachsoftware sollte für Bürgerinnen und Bürger sowie Firmen frei nutzbar sein. Das würde der Gesellschaft helfen, KI besser zu verstehen. Das Know-How für die Entwicklung eines GPT-X sei vorhanden. Die Politik gebe innerhalb der Coronakrise viel Geld für KI aus, die mehr in diese Richtung gelenkt werden sollte, findet Kersting. Die Technologie hinter GPT-3 sei Standard, pflichtet Hinrich Schütze von der LMU München bei. „Das können wir in Europa auch“, sagt der Computerlinguist. Die Herausforderung bestehe im Aufbau der Infrastruktur, etwa die für das Training nötige Rechenkraft. „Wir brauchen mehr Produkte, die aus Europa kommen“, meint auch Jessica Heesen. Die Technologie müsse für den Mittelstand und Startups zugänglich gemacht werden.

Bis es soweit ist gelangt die Debatte über Gut oder Böse einer künftigen starken KI wohl nur in den Fokus der Öffentlichkeit, wenn sich prominente Unternehmer wie Elon Musk dazu äußern.

Flatrate ab 8 € RiffReporter unterstützen
KI für alle