Eloquente künstliche Intelligenz: Warum ChatGPT so überzeugend flunkert.

Die Sprach-KI schreibt plausibel klingende Texte, bis hin zu ganzen Essays. Aber Vorsicht: Was nach Fakten klingt, sind bei ChatGPT oft keine. Warum das so ist und was Forscher dagegen tun.

6 Minuten
Ein Mädchen mit Brille und Kreide, das ein wenig altklug wirkt. vor einer Tafel Einem „altklugen Kind“ ähnlich sei auch der Schreibstil von ChatGPT, meint Aljoscha Burchardt vom Deutschen Zentrum für Künstliche Intelligenz in Berlin.

Wie ein „altkluges Kind“ klinge die Sprach-KI „ChatGPT“ manchmal, meint Aljoscha Burchardt vom Deutschen Zentrum für künstliche Intelligenz in Berlin. In einem souveränen und überzeugenden Ton antwortet die KI auf Fragen – nur oft stimmen die angeführten Fakten nicht.

Auch dort fabuliert ChatGPT, wo man es am wenigsten toleriert: in der Wissenschaft. „Welches ist die meistzitierte wirtschaftswissenschaftliche Arbeit aller Zeiten?“, fragte der australische Ökonom David Smerdon die Software der kalifornischen Firma OpenAI. Das sei der Artikel „A Theory of Economic History“ (zu Deutsch: „Theorie der Wirtschaftsgeschichte“) von Douglass North und Robert Thomas, publiziert 1969 im „Journal of Economic History“, gab die KI zurück. Der Artikel sei 30.000 Mal zitiert worden. Zwar sind die genannten Autoren tatsächlich einflussreiche Ökonomen und auch die Zeitschrift existiert. Nur leider haben die beiden nie einen Artikel dieses Titels verfasst. ChatGPT hat die Referenz erfunden.

Wenn die künstliche Intelligenz „halluziniert“

KI-Fachleute nennen eine solche Melange aus Fakten und Fiktion „Halluzination“. ChatGPT und andere Sprachmodelle, wie man derlei eloquente Algorithmen auch nennt, halluzinieren häufig. Fachleute arbeiten an dem Problem, können es aber allenfalls lindern, nicht grundsätzlich lösen. So halluziniert OpenAI’s neuestes Sprachmodell GPT-4 immer noch, auch wenn die Wahrscheinlichkeit für eine richtige Antwort um 40 Prozent gegenüber der Vorgängerversion GPT-3.5, auf der ChatGPT basiert, gesteigert werden konnte. Die eigentliche Crux ist, dass die erzeugten Texte keine Hinweise enthalten, was Fakt ist und was Fiktion.