Künstliche Intelligenz: Mit Geräten plaudern wie in der Science Fiction

Algorithmen lernen Sprache und Weltwissen anhand vieler Texte. Bald soll es auch eine deutsche Version eines solchen „Sprachmodells“ geben.

6 Minuten
Ein humanoider Roboter unterrichtet Geschäftsleute (künstlerische Darstellung).

Erst klingt der Dialog über Liebe ganz alltäglich. Doch dann sagt „Hal“ in dem Youtube-Video des Informatikers Alif Jakir: „Ich glaube, dass man absolut jeden lieben kann, egal wer er ist.“

Spätestens jetzt wirkt das Gespräch unnatürlich, obwohl die künstlich generierten Gesichter echt aussehen. Denn auch das Gespräch selbst ist synthetisch, erzeugt von einer speziellen Art künstlicher Intelligenz (KI), einem so genannten „Sprachmodell“.

Es heißt „GPT-3“ und hat im letzten Jahr die Welt verblüfft, der australische Sprachphilosoph David Chalmers wollte in der mit Eloquenz gepaarten Vielseitigkeit von GPT-3 sogar Anzeichen einer menschenähnlichen Intelligenz erkennen.

Deutsche Forscher wollen es mit den Tech-Giganten aufnehmen

GPT-3, entwickelt von der kalifornischen Firma OpenAI, war damals das rechenstärkste Sprachmodell. Es produziert selbständig Texte, die sich lesen, wie von Menschen verfasst. Wortgewandt behandelt die KI beliebige Themen, beantwortet Fragen, schreibt Geschichten, Dialoge oder Gedichte, übersetzt oder wandelt Alltagssprache in Programmiercode.

Das Sprachmodell zeigte, dass KI ein recht breites Wissen über die Welt lernen und ausdrücken kann. Ein Qualitätssprung, der einen Wettlauf um noch rechenstärkere Sprachmodelle ausgelöst hat, an dem sich große US-amerikanische Techfirmen wie Google oder der Chiphersteller Nvidia beteiligen. Im Sommer trat China, das sich als zweite KI-Macht neben den USA positionieren will, mit seinem Sprachmodell „Wu Dao 2.0“ in das Rennen ein. Im Dezember stellte die britische Google-Schwester Deepmind ihr Sprachmodell „Retro“ vor, das in einer externen Text-Datenbank „spickt“, wodurch Rechenkraft eingespart werden soll. Jetzt erhält der Wettlauf einen unerwarteten neuen Teilnehmer: Deutschland.

„Sprachmodelle sind eine entscheidende Entwicklung“, sagt Jörg Bienert vom KI-Bundesverband, ein Netzwerk aus deutschen KI-Unternehmen und -Experten. Sie seien Basis für eine ganze Reihe von Anwendungen wie Chatbots oder automatisches Auswerten von Dokumenten.

Mit dem Netz sprechen wie mit einem Freund

„Menschen werden immer natürlicher mit Computern sprechen“, ergänzt Jessica Heesen, Medienethikerin an der Universität Tübingen. Ein Dialog zwischen Mensch und Smartphone könnte sich dann so anhören: „Finde bitte das Dokument, das ich für den Vortrag am Samstag erstellt habe.“ Das Handy fragt nach: „Meinst du das mit der Umsatzgrafik drin?“ Sprachmodelle könnten zur Benutzeroberfläche des Netzes werden. „Wer Computer sprechfähig macht, wird eine große Vormachtstellung auf dem Markt haben“, meint Heesen.

Die computergenerierte Figur „Sophia“, die mit Hilfe der Sprachsoftware GPT-3 über Liebe spricht.
Die computergenerierte Figur „Sophia“, die mit Hilfe der Sprachsoftware GPT-3 über Liebe spricht.

Bienert sieht das als Herausforderung für den alten Kontinent. „Europa läuft Gefahr von amerikanischen Produkten abhängig werden, wie bei Suchmaschinen“, warnt er. Amerikanische Firmen würden dann die Daten europäischer Nutzer erhalten und mit diesen ihre Sprachmodelle weiter verbessern. Ein sich selbst verstärkender Kreislauf setze ein, der zu übermächtigen Monopolen führe, fürchtet Bienert.

Offenbar sieht es Bundeswirtschaftsministerium ähnlich. Denn es fördert das Projekt OpenGPT-X, das ein europäisches Sprachmodell bauen soll. Beteiligt sind neben dem KI-Bundesverband acht weitere Partner, darunter KI-Firmen wie AlephAlpha aus Heidelberg, das Deutsche Forschungszentrum für Künstliche Intelligenz, sowie mögliche Anwender wie der Westdeutsche Rundfunk WDR.

Es geht uns nicht nur um höher, schneller, weiter“

OpenGPT-X soll nach Deutsch auch die anderen europäischen Sprachen lernen, betont Projektleiter Nicolas Flores-Herr vom Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme in Sankt Augustin. Darüber hinaus wolle das Projekt „europäische Werte umsetzen“ und das Sprachmodell für die europäische Industrie attraktiv machen. „Es geht uns nicht nur um höher, schneller, weiter“, betont Flores-Herr.

Allerdings ist Größe ein wichtiger Faktor. Ein Sprachmodell ist eine gigantische Statistik darüber, wie Wörter in Beziehung zueinander stehen. „Wolken“, zum Beispiel, wird häufig im Kontext mit „regnen“ auftreten. Die Software erlernt solche Beziehungen anhand Milliarden Seiten realen Textes aus Webseiten und Büchern.

Technisch erfolgt das Lernen mit so genannten neuronalen Netzen. Ähnlich wie im Gehirn tauschen darin künstliche Neuronen über künstliche Synapsen Signale untereinander aus. Beim Lernen justieren die einzelnen Synapsen, wie stark sie das Signal eines Neurons an ein anderes übertragen. Das Gelernte steckt schließlich in den Übertragungsstärken der vielen Synapsen.

Der Computer ahnt, ob es regnet oder schneit

Im letzten Jahr besaß GPT-3 die meisten künstlichen Synapsen, 175 Milliarden. Dieses Jahr verzehnfachte Wu Dao 2.0 diese Zahl auf 1,75 Billionen. OpenAI arbeitet bereits am nächsten Sprung: GPT-4 soll hundert Billionen Synapsen erhalten, ähnlich viele wie im menschlichen Gehirn.

Je mehr künstliche Synapsen ein Sprachmodell besitzt und je mehr Text es beim Training verarbeitet hat, desto besser kann es raten, wie es ein Satzfragment ergänzen muss. Bei „Wolken ziehen auf, es wird bald …“ wäre „regnen“ eine gute Wahl. In winterlichem Kontext jedoch wäre „schneien“ passender. Auf diese Weise reiht die KI Wort an Wort, sodass auch längere Texte entstehen.

Die riesigen neuronalen Netze fressen viel Rechenkraft. Microsoft baute eigens für das Training von GPT-3 den nach eigenen Angaben fünftstärksten Superrechner der Welt. Im Gegenzug darf die Firma ihren Kunden Zugriff auf das Sprachmodell anbieten. Auch OpenGPT-X kann Superrechner nutzen, etwa am Forschungszentrum Jülich. Damit sollen Modelle trainiert und für konkrete industrielle Anwendungen optimiert werden. Als Nutzer ist etwa der WDR am Projekt beteiligt.

Die Atmosphäre des Lokalderbys einfangen

„Wir wollen ausprobieren, was wir mit OpenGPT-X machen können“, sagt Dirk Maroni, Leiter der Abteilung Informationsmanagement bei dem Sender. Auch er sieht in den Sprachmodellen einen Qualitätssprung in der KI. Zwar können auch andere Algorithmen gut lesbare Sport- oder Wetterberichte erzeugen. „Ein großes Sprachmodell aber könnte solche Texte lebendiger machen, etwa indem es die spezielle Atmosphäre eines Lokalderbys miteinbezieht.“ Sie seien auch flexibel im Sprachstil und könnten beispielsweise Texte in leichter Sprache verfassen.

Maronis Team will testen, wie gut OpenGPT-X lange Texte versteht, etwa Transkripte von Podcasts oder Wortbeiträge. Das Sprachmodell könnte knappe Inhaltsangaben für die Mediathek erstellen. „Unser Ziel ist ein Mehr an hochwertigen Inhalten für unsere Beitragszahler“, sagt Maroni. Eine Konkurrenz für die Journalisten des Hauses sieht er nicht, eher eine Unterstützung ihrer Arbeit „Die Journalisten werden sich mehr auf das Inhaltliche und Kreative konzentrieren können“, glaubt Maroni.

Ein europäisches Sprachmodell findet Maroni wichtig. Durch sein Training mit deutschen, französischen oder italienischen Texten würde es europäische Wertvorstellungen aufsaugen.

Riskante Anwendung von KI“

Sprachmodelle reflektieren allerdings auch Vorurteile, die in einer Gesellschaft kursieren. So assoziierten Texte von GPT-3 Berufe mit höherem Bildungsniveau eher mit Männern als mit Frauen oder „Islam“ mit „Terrorismus“.

Die mögliche Diskriminierung von Gruppen mache Sprachmodelle zu „riskanten Anwendungen von KI“, warnt Jessica Heesen. Die Qualität der Texte für das Training sei entscheidend. „Die Daten liegen nicht einfach vor“, sagt die Medienethikerin. Sie müssten sorgfältig von Menschen erhoben und ausgewählt werden. Beim Training der KI flössen somit deren eigene Wertvorstellen mit ein. „Mit solchen Dingen muss man umgehen lernen“, sagt Heesen.

Das ist den Machern von OpenGPT-X bewusst. „Wir werden versuchen, das Thema Diskriminierung von vorne herein in den Griff zu bekommen“, sagt Flores-Herr. Ein Forschungsprojekt werde sich der gendergerechten und inklusiven Sprache von OpenGPT-X widmen, erklärt der Forscher. Das Team werde Trainingsdaten entsprechend filtern und umarbeiten, also „veredeln“, wie Flores-Herr sagt. So soll die Sprachsoftware, anders als GPT-3, die Vorurteile erst gar nicht erlernen.

Ziel: eine 24-sprachige KI

Um genügend Text in allen 24 Sprachen der EU zu erlangen, „werden wir uns strecken müssen“, befürchtet Flores-Herr. Wikipedia-Artikel reichten längst nicht aus. Eine gute Datenquelle sei das European Language Grid, ein EU-finanziertes Projekt, das Sprachtechnologien und Datensätze sammelt. „Damit sollten wir in wenigen Jahren ein mehrsprachiges Modell haben“, sagt der Forscher.

Für konkrete Anwendungen könnte zusätzlich Expertise in Datenform genutzt werden. „Zum Beispiel Wissensnetze“, sagt Flores-Herr, also Netze, die die Beziehungen zwischen Begriffen darstellen. „So könnte das Fachwissen eines Anwenders, etwa einer Bank, in das Modell einfließen“, sagt Flores-Herr. Da solche Daten wertvolles Wissen direkt in das Sprachmodell speisen, könnte OpenGPT-X die Konkurrenz in einigen Nischen übertrumpfen.

Flores-Herr hofft, dass Interessenten bald Schlange stehen werden, um OpenGPT-X zu nutzen. „Wir zielen nicht nur auf Industrie und Forschung, sondern auch auf den Mittelstand ab“, sagt der Forscher. Das neue Sprachmodell werde für alle offen sein, im Sinne einer europäischen Infrastruktur. Wie gut das gelingt, muss sich im Verlauf des Projekts zeigen. Es sei Forschung mit offenem Ausgang, wie Flores-Herr betont: „Wir werden viele Überraschungen erleben und spannende Erkenntnisse haben.“

Verantwortlich im Sinne des Presserechts

Dr. Christian J. Meier

Walter-Trautmann-Weg 24
64823 Groß-Umstadt

www: https://scicaster.wixsite.com/christian-j-meier

E-Mail: meierchristianj@gmail.com

Weitere Mitarbeiterinnen und Mitarbeiter

Lektorat: Steve Przybilla

VGWort Pixel