Wie gefährlich ist ein Algorithmus, der schreibt wie ein Mensch?

Die Sprachsoftware GPT-3 des amerikanischen Unternehmens OpenAI schreibt selbständig Geschichten und andere authentisch wirkende Texte. Experten für künstliche Intelligenz fordern eine europäische Reaktion darauf.

9 Minuten
Das Gesicht einer Frau hinter transparentem Software-Code

Die Bosse der amerikanischen Tech-Giganten eint der Glaube an eine bessere Welt durch Technologie. Doch an einer der größten Visionen scheiden sich ihre Geister: Eine Maschine, die genauso intelligent ist wie ein Mensch oder sogar darüber hinaus. Eine solche „allgemeine künstliche Intelligenz“ wäre mindestens so lernfähig wie ein Mensch, könnte selbständig beliebige Ziele verfolgen und alle möglichen Aufgaben lösen. Am Ende könnte sie, so fürchten manche, die Menschheit unterdrücken, etwa um den Planeten vor deren Tun zu bewahren. Elon Musk, unter anderem Chef der Firma Tesla, sieht in einer allgemeinen KI ein Risiko für die Existenz der Menschheit, die es vorbeugend zu regulieren gelte. Es sei wahrscheinlicher, dass so eine KI den Menschen helfen würde, statt ihnen zu schaden, entgegnet Jeff Bezos, Gründer von Amazon. Das glaubt auch Facebook-Chef Mark Zuckerberg und nennt Musks Warnung „unverantwortlich“. Doch vor Kurzem zeigte eine Sprachsoftware namens GPT-3, dass die Sache vielleicht doch etwas komplizierter ist, als Bezos und Zuckerberg glauben.

Vor allem ein Argument der Entwarner gerät unter Druck. Es lautet: Um eine allgemeine oder auch „starke“ KI müsse man sich derzeit keine Sorgen machen, da sie noch nicht einmal am Horizont sichtbar sei. Bislang lösten Algorithmen lediglich eng begrenzte Aufgaben, so die Argumentation, auf die sie spezifisch trainiert wurden, etwa das Erkennen von Gesichtern auf Bildern. Darin können sie zwar besser sein als Menschen. So erkennt ein Algorithmus anhand von Fotos Hautkrebs zuverlässiger als Dermatologen. Außerhalb seiner Insel aber sei ein Algorithmus dumm wie Stroh, heißt es oft.

Doch es gibt inzwischen Algorithmen, deren Können nicht scharf eingegrenzt ist.

Im Frühjahr dieses Jahres stellte die britische Firma Deepmind, ebenso wie Google eine Tochter des US-Konzerngiganten Alphabet, eine KI vor, die sich mehrere Atari-Computerspiele selbst beibrachte. Darunter waren auch komplexe Spiel-Welten, die der Algorithmus selbständig erforschte, um ihre Regeln kennenzulernen. Über alle Spiele gemittelt, schnitt der Algorithmus besser ab als ein durchschnittlich spielender Mensch. Die KI kam also mit der Vielfalt der virtuellen Welten zurecht, statt nur auf eines der Spiele spezialisiert zu sein.