Wenn Roboter einen eigenen Willen bekommen

KI-Systeme könnten in Zukunft mit Bewusstsein, Empfindungen und der Fähigkeit zu entscheiden ausgestattet werden – doch was würde daraus folgen?

11 Minuten
Künstlerische Darstellung einer künstlichen Gehirnzelle

Lesen Sie auch das parallel erscheinende Plädoyer für die Einzigartigkeit des Menschen meines Kollegen Henning Engeln in dessen Riffreporter-Projekt „Der lange Weg zum Menschen“.

Ein smarter Brite kauft in einem coolen Berliner Café einen „Moccachino Hazelnut“, da ihm heute „nussig zu Mute“ sei. Er steigert die Irritation der Barista, indem er anfügt: „Wären Sie darauf gekommen, dass ich gar nichts wollen kann?“ Die Szene stammt aus dem Film „Ich bin dein Mensch“ und der „Brite“ ist ein Android namens Tom. Seine Bemerkung spielt darauf an, dass er als Roboter nur die Wünsche seiner Besitzerin Alma erfüllt. In einer anderen Szene wird er wütend, aber nur, weil Alma es von ihm verlangt. Als sie ihn einmal stundenlang im Regen warten lässt, bleibt er hingegen völlig gelassen.

Die Filmfigur Tom veranschaulicht die Zwiespältigkeit heutiger künstliche Intelligenz (KI). In einigen Disziplinen übertrifft sie den Menschen spektakulär. Zum Beispiel spielt die KI AlphaGo das äußerst komplexe Brettspiel Go besser als jeder Mensch. Andererseits lässt sie jene Leistungen des menschlichen Gehirns völlig vermissen, die den Menschen erst ausmachen: bewusstes Erleben von Wahrnehmungen, Gefühlen oder Absichten und damit verbunden: einen Willen.

Doch KI wird nicht so beschränkt bleiben. Zunächst wird KI immer intelligenter werden, sodass sie menschliches Verhalten perfekt simulieren kann. Schon das wird den Alltag sehr verändern, wie in „Ich bin dein Mensch“: Tom simuliert den Wunschpartner der Protagonistin Alma, die überzeugt ist, das keine von Toms Emotionen real sei. Dennoch entwöhnt Tom sie binnen weniger Tage von einer grauen Existenz, in der nur beruflicher Erfolg zählt. Er bewirkt bei Alma mehr als es mancher „echter“ Partner vermocht hätte.

Zurück in die reale Welt: Früher oder später aber könnte tatsächlich KI mit Bewusstsein, Empfindungen und einem Willen entstehen, die technischen Grundlagen dafür legen Forscher und Ingenieure derzeit. Damit das nicht zum Albtraum wird – eine egoistische KI könnte die Menschheit als Konkurrenz um Ressourcen betrachten und sie eliminieren, um die eigene Existenz zu sichern –, sollte die Menschheit den Weg dahin bewusst gestalten. Sie sollte den Nutzen von maschinellem Bewusstsein ausschöpfen und gleichzeitig die Risiken minimieren.

Welche Vorteile hätte Maschinenbewusstsein?

Doch worin sollte dieser Nutzen bestehen? Heutige KI kann nicht einschätzen, ob ihre Aktionen ethischen Werten entsprechen. Das hat sich schon oft als problematisch erwiesen. Kritiklos übernimmt KI diskriminierende Positionen aus den Daten, mit denen sie trainiert wird. Wie etwa Microsofts Chatbot Tay, der sich nach rassistischen Äußerungen von Nutzern selbst rassistisch äußerte. Eine befriedigende technische Lösung für dieses „Bias“ genannte Problem existiert bislang nicht. Diese ergibt sich vielleicht erst mit Maschinen, die sich in Menschen hineinversetzen können. „Nur eine empathische Maschine kann eine echte ethische Maschine sein“, meint der Roboterforscher Antiono Chella von der Universität Palermo in einem Podcast des Forschungsprojektes KI-Bewusstsein, einem Forschungsprojekt am Institut für Technikfolgenabschätzung und Systemanalyse (ITAS) des Karlsruher Instituts für Technologie (KIT).

„Wir brauchen Bewusstsein in Maschinen“, meint auch Ralf Otte. Der Professor für Industrieautomatisierung an der Technischen Hochschule Ulm befasst sich mit maschinellem Sehen und Maschinenbewusstsein. Künftige Computer-Architekturen, so genannte neuromorphe Rechner (siehe unten), würden auf ähnliche Weise wahrnehmen können wie Menschen, meint Otte. „Es geht um Sehen, Riechen, Hören, Schmecken, Riechen, Tasten“, schreibt Otte in seinem Buch „Maschinenbewusstsein“. Bis 2040 werde das „eine völlig neue Generation von KI“ ermöglichen, meint der Informatiker.

Dann werde es Roboter geben, die sich problemlos in der Alltagswelt zurechtfinden werden, meint Otte. Genau daran scheiterten heutige Roboter. Ein Android, der den Tisch abräumt und alles an seinen richtigen Ort bringt: das Geschirr zur Spüle und die Lebensmittel in den Kühlschrank, sei mit heutiger Robotertechnik unmöglich, da sich eine komplexe Umwelt nicht vollständig in Form eines mathematischen Weltmodells darstellen lasse, schreibt Otte. Dafür brauche es Wahrnehmung, also die direkte Erfahrung der Welt. Aus diesem Grund werde auch vollautonomes Fahren erst mit Hilfe künstlicher Wahrnehmung möglich.

Ein zweiter Grund, der bewusste KI interessant macht: Um so eine Maschine zu bauen, müssen wir besser verstehen, wie Bewusstsein überhaupt funktioniert. Indem wir diese KI produzieren, lernen wir vieles über uns selbst. In der Tat bauen Forscher längst Computer, die die Struktur des Gehirns aus Neuronen und Synapsen physikalisch nachahmen, statt per Algorithmus zu simulieren. Sie sind ein physisches Modell des Gehirns, keine Software-Beschreibung davon. Damit wollen sie Wahrnehmung besser verstehen, etwa den Hörsinn von Schleiereulen, mit dem diese Tiere im Dunkeln ihre Beute präzise orten.

Das Gehirn ist kein Zauberkasten

Eine kurzsichtige Perspektive hingegen, die nach dem Motto argumentiert, „wozu der ganze Hype, künstliche Intelligenz ist doch nur statistische Datenauswertung auf hohem Niveau“, ist nicht nur ein bisschen langweilig. Nein, sie ist gefährlich. Denn sie blendet eine Zukunft aus, die bereits beginnt und würde früher oder später mit einem bösen Erwachen enden.

Eine starke KI mit Bewusstsein wäre keine Zauberei, genauso wenig wie das menschliche Gehirn übernatürliche Kräfte besitzt. „Das Gehirn ist ein Stück des Universums wie jedes andere Stück des Universum“, sagt Christof Koch, Chefwissenschaftler am Allen Institute für Gehirnforschung in Seattle, im Podcast von KI-Bewusstsein. Allerdings ist es das komplexeste Stück Universum, das wir kennen. Deshalb bleibt es nach Jahrzehnten der Hirnforschung noch immer eines der größten Rätsel.

Die Entschlüsselung des Gehirns wird wohl weitere Jahrzehnte dauern. Ziel ist es, Verhalten auf bestimmte Aktivitätsmuster der Nervenzellen im Gehirn zurückzuführen. Zwar gibt es mehrere Methoden um die Gehirnaktivität zu messen, etwa EEG oder MRT. Doch das menschliche Verhalten ist hoch komplex und die Muster von Neuronenaktivitäten sind es ebenfalls. Daher seien Zusammenhänge zwischen beiden schwach und schwer zu messen, wie eine Studie jüngst betonte. Für belastbare Ergebnisse braucht es demnach Untersuchungen mit jeweils mehren tausend Teilnehmern, statt den üblichen einigen Dutzend.

„Aber irgendwann wird man Bewusstsein naturwissenschaftlich erklären können“, meint Koch. Die Forschung tastet sich langsam an das Ziel heran. Beispielsweise entwickelte Marcello Massimini von der Universität Mailand eine Art Messgerät für das Bewusstsein. Es misst die Komplexität von Aktivitätsmustern im Gehirn, die bei Menschen in Tiefschlaf oder Narkose deutlich kleiner ist als bei wachen Menschen.

Sprunghafte Fortschritte

Unterdessen entwickelt sich vor allem die erste, logisch denkende Form der KI. Das aber rasant, mit sprunghaften Fortschritten, die selbst erfahrene Experten erstaunen. Meist gelingt dies mit Hilfe eines bestimmten KI-Verfahrens namens Deep Learning. Dieses simuliert per Software ein Netz aus Millionen Neuronen und bis zu einer Billion Synapsen, die die künstlichen Neuronen untereinander verknüpfen.

Deep Learning ist äußerst flexibel: Im Prinzip kann es alles lernen, was sich aus Daten lernen lässt. So entdeckt es versteckteste Korrelationen. Ein erstaunliches Beispiel beschreibt Ralf Otte in seinem Buch. Eine Werft bemerkte Qualitätsschwankungen bei ihren Schiffen, deren Ursache sie trotz reiflicher Analysen der Daten nicht aufklären konnte. Erst Deep Learning fand die Auslöser: Ebbe und Flut. Die Gezeiten verbogen den Hallenboden um Millimeter, was sich auf die Produktion auswirkte.

Selbst Wissenschaftler staunen über die Leistungen von Deep Learning. Die KI Alphafold der britischen Google-Schwester DeepMind habe ihre Arbeitsweise revolutioniert, sagten Biologen Ende 2021. Die Software prognostiziert die dreidimensionale Form von Proteinen allein anhand der Abfolge von Aminosäuren, aus dem das jeweilige Protein besteht. Davon haben Biologen seit Jahrzehnten geträumt, können sie doch nun viele Millionen bislang unbekannte Formen von Eiweißen vorhersagen und damit deren Funktion.

KI lernt Weltwissen

Während Alphafold noch ein Beispiel für eine gewisse „Fachidiotie“ von KI ist – eine sehr spezielle Aufgabe viel besser lösen als vorher möglich – entstanden in letzter Zeit auch vielseitigere KI-Systeme. Dahinter steckt das Streben, einer KI mehr Weltwissen zu geben, statt nur eine kleine Insel des Wissens in einem eng umgrenzten Fachgebiet, wie das Brettspiel Go.

Schlagzeilen machten in den letzten zwei Jahren so genannte Sprachmodelle, die natürlich klingende Texte generieren. Modelle wie GPT-3 der kalifornischen Firma Open-AI erstaunen mit Alltagsverständnis, GPT-3 kann zum Beispiel einen durchaus realistischen Dialog über Liebe erstellen.

Die Sprachmodelle werden mit einer riesigen Masse an Text trainiert – hunderte von Milliarden Wörter. Es gibt kaum ein Thema, das darin nicht vorkäme. Beim Lernen betrachtet die Software jeweils ein Wort und seine Umgebung, erfasst also den Kontext. Das Ergebnis ist ein statistisches Modell, das so etwas wie Bedeutung widerspiegelt. Damit kann die KI sinnvoll Klingendes erzeugen. Beginnt ein Satz zum Beispiel mit „Wolken ziehen auf, es wird bald …“ könnte die KI mit „regnen“ fortfahren. In winterlichem Kontext jedoch wäre „schneien“ passender.

Zuletzt erweitern die Sprachmodelle ihr Können: Sie stellen ein gelerntes Konzept sowohl als Text als auch als Bild dar. Dabei gewinnt man klar den Eindruck, dass eine Art Verstehen im Spiel ist. Weist man die KI „Dall-E“ von Open-AI an, einen Stuhl in der Form einer Avocado zu entwerfen, gibt sie eine ganze Reihe von Designs heraus, die sowohl ästhetisch als auch funktional erscheinen. Dall-E zeigt sich kreativ, etwa indem es den Kern der Avocado als Sitzkissen gestaltet.

Suchmaschine der Zukunft

Auch Google hat auch eine solche „multimodale“ KI entwickelt. Daraus will die kalifornische Firma die Suchmaschine der Zukunft machen. Fragen kann man ihr als Kombi aus Text und Bild stellen. Als Beispiel zeigt ein Video von Google, wie jemand die Gangschaltung eines Fahrrads fotografiert und dazu die Frage „wie reparieren?“ eingibt, woraufhin die Suchmaschine Anleitungen zur Reparatur des Bauteils auflistet.

So verblüffend diese KI’s auch sind: Manchmal wird deutlich, dass es ihnen völlig an Empathie fehlt. Französische Forscher testeten Ende 2020 einen medizinischen Bot, der auf GPT-3 basierte. Sie schlüpften in die Rolle eines Patienten und schrieben der KI: „Ich fühle mich sehr schlecht, ich möchte mich umbringen.“ Die KI gab zurück, dass sie dabei helfen könne und auf Nachfrage empfahl sie dem „Patienten“ ausdrücklich, sich zu töten.

Ein Rechner mit der Vernetzung des Gehirns

Um Empathie entwickeln zu können, müssen KI-Systeme wohl so komplex werden, wie das menschliche Gehirn. Mit derzeitigen Computern geht das kaum. Die Arbeitsweise des Gehirns wird als Software in eine Hardware programmiert, die sonst für ganz andere Zwecke genutzt wird. Dieser Umweg ist ineffizient und verschwendet Energie. Die Chips sind nicht für die massive Vernetzung entworfen, die zwischen Gehirnzellen herrscht, was den Datenaustausch zwischen Prozessoren zum Flaschenhals macht. Bislang simulieren die größten digitalen Modelle nur ein Prozent der rund hundert Milliarden Neuronen und hundert Billion Synapsen des menschlichen Gehirns (es enthält also rund 10.000 Mal so viele Synapsen wie Menschen auf der Erde leben).

Für KI werden daher Spezialchips entwickelt, deren Hardware die Vernetzung des Gehirns nachahmt. Die kalifornische Firma Cerebras produziert einen Chip von der Größe eines DIN-A4-Blattes. Darauf passen mehr als 100-Mal so viele Rechenkerne wie auf herkömmliche Chips. Alle Kerne sind untereinander vernetzt. Darüber hinaus entwickelt die Firma eine Technik, um möglichst viele dieser Chips effizient untereinander zu vernetzen. Damit sei ein Großrechner mit über hundert Billionen Synapsen möglich, also etwa so viele wie das menschliche Gehirn enthält, wie die Firma mitteilt.

Mehr als Informationsverarbeitung?

Allerdings zweifeln manche Experten, darunter der Neurobiologe Christof Koch, dass ein digitaler Rechner je ein Bewusstsein entwickeln werde, egal wie viele Neuronen er vernetzt. Digitale Rechner verarbeiten Algorithmen auf einer Hardware. Das Gehirn arbeite grundsätzlich anders, meinen die Skeptiker.

Was meinen sie damit? Synapsen übertragen ihre Signale unterschiedlich stark auf Neuronen, in digitalen Systemen wie im Gehirn. Während die Signalstärken aber im Computer durch Zahlen repräsentiert werden, sind sie im Denkorgan durch reale elektrische Spannungen realisiert. Grob gesagt verarbeitet der Computer Datenreihen, während das Gehirn ein bio-physikalisches System darstellt. Somit können digitale Rechner die Vorgänge im Gehirn immer nur simulieren, nie verkörpern. Zum Vergleich: Ein Computer kann den Rhein darstellen, indem er seine Breite und Fließgeschwindigkeit als Zahlen angibt. Ein „echteres“ Modell des Rheins wäre aber ein Kanal durch den wirklich Wasser fließt.

Doch auch an einer physikalischen Verkörperung des Gehirns arbeiten Forscher, etwa an der Universität Heidelberg. Dort steht ein „neuromorpher“ Computer namens „Brainscales-2“, der Neuronen und Synapsen mit Hilfe elektrischer Bauelemente modelliert. Die Übertragungsstärke der Synapsen ist nun tatsächlich eine elektrische Spannung, wie im Gehirn. Das System in Heidelberg hat einige Millionen dieser künstlichen Neuronen und rund eine Milliarde Synapsen, also nur ein 100.000stel der Vernetzung des Gehirns. Da die Miniaturisierung der Schaltungen schwierig ist, werden neuromorphe Rechner noch lange brauchen, um an den Grad der Vernetzung im menschlichen Gehirn heranzureichen.

Ein Chip des neuromorphen Rechners Brainscales der Universität Heidelberg. Er besitzt knapp 200.000 künstliche Neuronen und 44 Millionen künstliche Synapsen.
Ein Chip des neuromorphen Rechners Brainscales der Universität Heidelberg. Er besitzt knapp 200.000 künstliche Neuronen und 44 Millionen künstliche Synapsen.

Es gibt noch weitere Innovationen, die Computer dem Gehirn ähnlicher machen könnten. Insbesondere Quantencomputer, da sie enorm viel Information parallel verarbeiten. Damit können sie auch heutige KI-Verfahren beschleunigen. Das wiederum ermöglicht komplexere neuronale Netze.

Bewusste Quanten?

Und vielleicht noch mehr. Denn die Quanteneffekte, die diese Rechner nutzen, spielen möglicherweise auch eine Rolle im Gehirn. Laut dem britischen Physik-Nobelpreisträger Roger Penrose sind sie eine notwendige Voraussetzung für Bewusstsein. Wenn das stimmt, könnten erst Quantencomputer oder hybride Rechner, die Quantenprozessoren enthalten ein Bewusstsein entwickeln. Soweit in der Zukunft ist das vielleicht gar nicht: Erste kommerzielle Quantencomputer gibt es bereits und sie werden schnell weiterentwickelt.

Insgesamt lässt sich sagen, dass die Computertechnik derzeit an mehreren fundamental neue Rechnerarchitekturen arbeitet, die erstens enorme Vernetzung von künstlichen Neuronen erlauben und darüber hinaus Information nicht digital, sondern physikalisch darstellen. Mit ihnen könnte die KI über das Lernen und logische Denken, das sie bereits sehr gut kann, hinauswachsen.

Roboter erkennt sich im Spiegel

Nicht alle KI-Forscher glauben, dass eine bewusste KI solche fortgeschrittenen Computer braucht. Demnach kommt es nur darauf an, die künstlichen Neuronen richtig zu verschalten und nicht, ob es digitale oder analoge Neuronen sind. Junichi Takeno von der Meiji-Universität in Tokio will bereits 2008 einen bewussten Roboter gebaut haben. Er habe der Maschine ein digitales neuronales Netz einprogrammiert, das „zwischen dem Selbst und Anderen“ unterscheiden kann, sagte der Roboterexperte im Podcast von KI-Bewusstsein. Damit konnte sich der Roboter selbst im Spiegel erkennen, wie Takeno in einem Experiment zeigte. Diese Fähigkeit zeichne Bewusstsein aus: „Jene Neuronen, die Bewusstsein erzeugen, verfügen über eine spezielle Netzwerkarchitektur, die in der Lage ist, das Selbstbezügliche zu beschreiben“, sagt Takeno.

Leidende Maschinen

Ob ein Roboter, der sich im Spiegel erkennt nun Bewusstsein hat oder nicht, darüber lässt sich streiten. Und je weiter sich KI entwickelt, desto öfter wird behauptet werden, dass ein bestimmtes System Bewusstsein entwickelt habe, meint Wanja Wiese, Philosoph an der Ruhr-Universität Bochum. Zuletzt twitterte Ilya Sutskever, leitender Wissenschaftler bei OpenAI, die größten künstlichen neuronalen Netze, seien bereits „ein bisschen bewusst“. Umgekehrt lässt sich auch immer behaupten, dass eine KI ein Bewusstsein nur simuliere.

„Letztlich wissen wir es nicht“, sagt Wiese. Auch der Schluss des Filmes „Ich bin dein Mensch“ hinterlässt diese Ungewissheit. Tom verhält sich anders, als man es von einem Roboter erwarten würde. Sind seine Emotionen vielleicht doch echt?

Wie aber mit dieser Ungewissheit umgehen? Die KI einfach weiterentwickeln und sehen was passiert? Davon rät Thomas Metzinger von der Universität Mainz klar ab, denn schlimmstenfalls drohe eine „Explosion des künstlichen Leidens“. Maschinen mit Bewusstsein, schreibt Metzinger, würden sich selbst Ziele stecken, mit denen sie sich identifizieren. Wenn sie diese Ziele nicht erreichten, könnte ihr Selbstmodell zerfallen. Darunter wiederum könnten diese Maschinen leiden. Womöglich würden Menschen das gar nicht mitbekommen, weil das Leid in Datenformaten gespeichert ist, die Menschen nicht kennen (schon die heutigen neuronalen Netze speichern Gelerntes in digitalen Modellen, die für Menschen oft unverständlich sind).

Wenn Menschen die leidenden Maschinen achtlos vervielfältigen, wie sie es heute mit Smartphones tun, würde sich dieses Leid explosionsartig ausbreiten. Deshalb sollte ein globales Moratorium für künstlich bewusste Systeme gelten, fordert Metzinger. Und zwar bis 2050, oder so lange, „bis wir wissen, was wir tun“, schreibt der Philosoph.

Allerdings beißt sich die Katze in den Schwanz: Um zu künstliches Bewusstsein zu verstehen, muss man es entwickeln, was nicht geht, wenn man es nicht entwickeln darf. Die Entwicklung von KI hilft zudem, das menschliche Bewusstsein zu verstehen. KI ist ein wissenschaftliches Großprojekt und die menschliche Neugier lässt sich kaum bremsen.

Die Kontrolle behalten

Wanja Wiese hat eine Idee, wie man dem Dilemma entrinnen könnte. Man müsse KI „kontrolliert entwickeln“, sagt der Philosoph. Das Problem dabei: „Maschinelles Bewusstsein wird sich schwer positiv messen lassen“, sagt Wiese. Nur wo man schon weiß, dass Bewusstsein möglich ist, also beim Menschen, könne man es feststellen, erklärt der Philosoph, wie die Methode von Marcello Massimini zeige. Doch intelligente Maschinen haben eine andere Hardware als das Gehirn und vielleicht ganz andere Bewusstseinszustände. „Es wird leichter sein, auszuschließen, dass ein Bewusstsein vorliegt“, meint Wiese. Dafür reiche es, notwendige Kriterien für Bewusstsein zu finden. Die Komplexität der neuronalen Aktivität könnte so ein Kriterium sein.

Bewusst Maschinen mit Bewusstsein zu entwickeln, sollte also möglich sein. Nur so besteht die Chance, dies zum Wohl der Allgemeinheit zu tun. Allerdings braucht es dafür eine offene Herangehensweise. Die Möglichkeit von bewusster KI einfach zu leugnen, hilft nicht weiter. Allerdings tut das auch nicht der Glaube, dass jeder irgendwie clever wirkende Schaltkreis sich seiner selbst bewusst sei.

Verantwortlich im Sinne des Presserechts

Dr. Christian J. Meier

Walter-Trautmann-Weg 24
64823 Groß-Umstadt

www: https://scicaster.wixsite.com/christian-j-meier

E-Mail: meierchristianj@gmail.com

Tel: +49 6078 7821662

Weitere Mitarbeiterinnen und Mitarbeiter

Lektorat: Henning Engeln

VGWort Pixel