Künstliche Intelligenz: ChatGPT meist nur mit neuer Software als Autor zu entlarven

Um täuschend echt wirkende Texte von Sprach-KIs wie ChatGPT zu erkennen, entwickeln Informatiker Detektionssoftware und Wasserzeichen. Diese haben aber ihre Grenzen.

6 Minuten
Jemand fragt die Sprach-KI ChatGPT auf einem Smartphone nach Tipps für einen Kindergeburtstag.

Manchmal kann man ahnen, dass ein Satz nicht von einem Menschen stammt. „Fußball ist Dada, ein Spiel ohne Regeln“, schreibt die Künstliche Intelligenz „ChatGPT“ der kalifornischen Firma OpenAI auf die Aufforderung hin, ein Gedicht über Fußball im Dada-Stil zu schreiben.

Doch so leicht entlarvt sich die Sprach-KI selten. Die meisten Texte, sogar Essays oder Hausarbeiten, schreibt der Bot derart natürlich, dass Menschen sie kaum von menschengemachten Texten unterscheiden können.

Sie foppt sogar Wissenschaftler, wie ein Team um Catherine Gao von der Northwestern University in Chicago jüngst fand. Die Forscher ließen ChatGPT Kurzfassungen von medizinischen Fachartikeln schreiben und legten diese zusammen mit den originalen Zusammenfassungen einer Gruppe von Medizinern vor. Diese sollten die Fälschungen herauspicken, hielten jedoch ein Drittel der künstlich generierten Texte für echt. Herkömmliche Plagiatssoftware ließ sich noch leichter täuschen: Sie stufte alle von ChatGPT verfassten Kurzversionen als original ein.

OpenAI selbst hat einen Detektor für Texte von ChatGPT veröffentlicht

ChatGPT ist das erste Sprachmodell, wie diese Art eloquenter KI auch genannt wird, das einer breiten Masse bekannt geworden ist – und das auch genutzt wird, etwa von Schülern. Einige Schulen und Universitäten haben den Einsatz der KI schon beschränkt, auch in Deutschland: Die Universität Tübingen untersagt ihren Wissenschaftlern und Studenten die Nutzung von ChatGPT für Studienleistungen oder wissenschaftliche Publikationen.