Kollege Computer packt an

Ein Zukunftsszenario, neu designed

die ZukunftsReporter – wir berichten aus Welten, in denen wir bald leben könnten

Vor zwei Jahren zeichnete unser Szenario zur Künstlichen Intelligenz in der Wirtschaft ein bedrohliches Bild: „Der Computer greift nach dem Chefposten“ hieß es. Heute malen wir uns eine andere Zukunft aus – eine, in der wir den Computer unsere Arbeit machen lassen. Wie es zu diesem Sinneswandel kam, erläutern wir zusammen mit den wissenschaftlichen Hintergründen im zweiten Teil des Beitrags.

Von seinem Vorgarten aus blickt José Roberto da Silva Schäfer in die Rheinebene bis nach Mannheim. Ab der Mittagszeit brennt die Sonne vom Himmel, aber jetzt am Morgen lässt es sich im Schatten der Odenwälder Berge gut aushalten. „Papa, guck mal, was ich gebaut habe“, ruft seine Tochter hinter ihm. „Ja, sofort, Liebes“, antwortet er und setzt seine Brille auf. In einigen Kilometern Entfernung erkennt er im Heidelberger Technologiepark das Gebäude, in dem seine Firma drei Stockwerke belegt. Dann steht die verschlüsselte Verbindung, und er sieht nicht mehr die Rheinebene vor sich, sondern seine Kolleginnen und Kollegen aus dem Vorstand. Er ist jetzt im virtuellen Konferenzraum der Firma Quantaxx.

„Guten Morgen, José“, begrüßt ihn die Chefin. „Wir wollten dich hinzuziehen, weil wir Helenes Analyse nicht verstehen.“ Der Computer, den alle in der Firma Helene nennen, absolviert mehr Rechenoperationen pro Sekunde als ein menschliches Gehirn und organisiert deshalb die Produktion. In den vergangenen Monaten sind Helene weitere Aufgaben übertragen worden wie zuletzt die Risikobewertung neuer Produkte und Dienstleistungen. Nun hat der Computer empfohlen, die verschluckbare Magensonde Helico vom Markt zu nehmen – ausgerechnet, nachdem sie durch den Selbstversuch eines Restaurantkritikers bekannt geworden war. Der Journalist hatte einen Mordanschlag aufgeklärt, indem er sich selbst der Gefahr einer Vergiftung aussetzte, sie aber dank Helico rechtzeitig erkannte. Die Nachfrage nach der Sonde war binnen weniger Tage explodiert.

Der Erfolg gibt der KI Recht

Schäfer hebt ratlos die Arme, um zu signalisieren: „Ich weiß auch nicht alles.“ Die Kamera seiner Brille registriert diese Bewegung und projiziert sie in den Konferenzraum. Aber er versteht natürlich das Anliegen seiner Chefin. In den meisten Fällen akzeptieren seine Kolleginnen und Kollegen die Empfehlungen Helenes. Zum Beispiel, wenn der Computer vorschlägt, bestimmte Maschinen in der Fertigungshalle auszutauschen, obwohl sie noch funktionieren. Manchmal entdecken die Ingenieure dann Anzeichen von Verschleiß und freuen sich über die rechtzeitige Warnung. Aber meistens folgen sie dem Rat, ohne nach den Gründen zu fragen. Der Erfolg gibt ihnen Recht Helenes Prognosen zu vertrauen: Seit drei Jahren läuft die Produktion ohne Zwischenfälle. Nur bei wichtigen Entscheidungen möchten Vorstand und Aktionäre genauer wissen, warum sie der Künstlichen Intelligenz vertrauen sollten. Dann fragen sie Schäfer.

„Papa, guck doch endlich!“ Seine Tochter zieht Schäfer am Hosenbein. Er beugt sich zu ihr: „Josefina, hab bitte einen Moment Geduld. Ich bin in einem Gespräch.“ Die Brille versteht, dass er sich kurz aus der Konferenz ausklinkt, und stellt die Brillengläser für einen Moment auf durchsichtig, so dass Schäfer seine Tochter anschauen kann. Für seine Kollegen wirkt das sicher komisch, denkt er sich, denn sie sehen nicht, mit wem er spricht. Die Brille filmt nur seine Mimik und Gestik und verknüpft beides mit einem virtuellen Abbild seines Körpers. Seine Kollegen sehen ihn wahrscheinlich sogar im Anzug mit Krawatte.

„Unsere Pressemitteilung zur Markteinführung von Helico hatte Helene auch schon beanstandet“, wirft die Marketingchefin ein, während sich Schäfer neben seine Tochter auf den Rand des Sandkastens setzt. „Ist Helenes Empfehlung vielleicht eine Reaktion auf Vorbehalte in der Öffentlichkeit gegen Quantentechnologien, wie wir sie bei Helico verwenden?“, fragt Schäfer. „In den sozialen Kanälen ist derzeit alles ruhig“, antwortet die Leiterin des Marketings. Schäfer versucht es mit einer zweiten Theorie: „Ist etwas über ein Konkurrenzprodukt aus Asien bekannt?“ Diesmal reagiert die Chefin: „José, diese Optionen haben wir alle schon durchgesprochen, bevor du dich in die Sitzung eingeklinkt hast. Auch von bisher unentdeckten Mängeln in der Sonde wissen wir nichts. Wir tappen im Dunkeln.“

Eine verzerrte Sicht auf die Realität?

„Also gut, Helene, dann lass mal sehen“, sagt Schäfer. „Darf ich auch gucken, Papa?“, unterbricht ihn seine Tochter. Schäfer reicht ihr wortlos ein kleines Display aus seiner Hosentasche, auf dem Helenes Antwort ebenfalls angezeigt wird. „Ach, da sind ja wieder nur Zahlen“, beklagt sich die Tochter und sucht nach dem Schalter, um das Display auf die private Fotogalerie umzustellen. Nach ein paar Versuchen findet sie die Bilder, die sie gestern Abend im Kinderzimmer mit ihren Stofftieren aufgenommen hat.

Schäfer schaut sich derweil Helenes Grafiken und Tabellen an, die im virtuellen Konferenzraum in der Luft zu schweben scheinen. Um die KI für die Risikoanalyse vorzubereiten, erhält sie von der Universität Heidelberg künstlich erzeugte Datensätze über simulierte Markteinführungen unter unterschiedlichen Voraussetzungen. „Mit Markteinführungen haben wir noch nicht so viele Erfahrungen“, sagt Schäfer nachdenklich. „Da könnte es einen Bias in den Simulationen geben.“ Einem Bias aufzusitzen ist die große Sorge der KI-Experten: Der Computer sagt dann keine erwartbaren Phänomene voraus, sondern reagiert lediglich auf eine systematische Verzerrung in den Daten, mit denen er trainiert worden ist. Schäfers Chefin trommelt mit den Fingern auf dem Konferenztisch und Schäfer ahnt schon, was sie nun sagen wird: „Was nützen uns Empfehlungen, wenn wir nicht sicher sein können, dass sie auf einer soliden Grundlage errechnet werden?“

Nach dem Studium hatte sich Schäfer mit zwei Freunden selbstständig gemacht und eine App entwickelt, die alte Fotos auf Festplatten und in Datenbanken thematisch sortiert. Die App trainierte sich selbst: Sie suchte in den Bildern nach wiederkehrenden Mustern und lernte aus den sozialen Kanälen des Nutzers, um welche Menschen, Orte und Hobbys es ging. So wurden automatisch Familien- und Urlaubsalben erstellt – ein beliebter Service. Mit seinen Kollegen machte Schäfer ein kleines Vermögen und suchte sich anschließend eine neue Herausforderung. So kam er zu Quantaxx, einem Spin-off der Universität Heidelberg und eines Max-Planck-Instituts, das auf der Grundlage der Quantentechnologie Miniatursensoren entwickelt.

Die Konsumenten bleiben ein Rätsel

Seiner Chefin antwortet Schäfer trocken: „Wenn man Computer auf unvorhergesehene Situationen vorbereiten will, geht man immer ein Risiko ein.“ Und dann fasst er seinen Eindruck von den Zahlen zusammen: „Also – Helene hat die Markteinführung unter 5000 Bedingungen durchgespielt, und das Verhalten der Konsumenten scheint den größten Einfluss auf das Ergebnis zu haben. Wer weiß, vielleicht werden die Leute ängstlich, wenn sie ihren Mageninhalt analysieren?“ „Aber das, was drin ist, haben sie doch vorher gegessen und getrunken“, wirft ein Kollege ein. „Warum sollte das die Anwender überraschen?“ „Ich weiß, es klingt irrational“, wehrt Schäfer ab. „Es wäre nicht der erste irrationale psychologische Effekt.“

Der Marketingchefin fällt eine weitere Erklärung ein und sie geht gleich in die Defensive: „Wir machen von Anfang an deutlich, dass die Sensordaten von Helico nur an das eigene Phone gesendet werden und nicht an die Cloud. Daher sehe ich eigentlich keine Schwierigkeiten mit dem Datenschutz auf uns zukommen.“ Doch Schäfer hat einen anderen Verdacht: „Ich spreche mal mit den Soziologen der Uni, die uns die Simulationen geliefert haben“, sagt er. „Vielleicht haben sie die Menschen auch nur als zu ängstliche Konsumenten programmiert?“ Vom Vorstand kommt kein Widerspruch, die Chefin ist mit dem Vorschlag einverstanden. Als Schäfer ein „sorry, Helene, ich hoffe, du verzeihst, dass ich deine Empfehlung infrage stelle“ hinterherschiebt, antwortet eine weibliche Computerstimme: „Kein Problem, José, ich bin Kummer gewöhnt.“ Diese Reaktion ist programmiert, aber die Kollegen lachen wie erwartet.

Schäfer beendet die Verbindung. Als er die Brille abnimmt, fragt ihn seine Tochter: „Ist Helene dein Boss?“ „Wo hast Du denn dieses Wort gelernt?“, fragt Schäfer zurück und hebt seine Tochter auf den Schoß. „Im Kindergarten ist Frau Schüttler der Boss, das hat der Papa vom Fridolin gesagt.“ Schäfer nickt verständnisvoll und überlegt einen Moment. „Nein“, sagt er, „Helene ist nicht mein Boss. Sie hilft mir nur bei der Arbeit.“

Einige der im Text genannten Technologien gibt es schon, an anderen wird gearbeitet. Im zweiten Teil dieses Beitrags erklären wir Ihnen die Hintergründe.

In der ersten Version dieses Zukunftsszenarios, die vor knapp zwei Jahren erschien, stand die Angst vor einer Übermacht der Maschinen im Vordergrund. In der Geschichte „Der Computer greift nach dem Chefposten“ entwickelt sich der Firmencomputer Helene selbstständig weiter und überrascht den Vorstand mit der Empfehlung, ein neues Produkt wieder vom Markt zu nehmen. Doch zwei Debatten mit Bürgerinnen und Bürgern in Düsseldorf und Stuttgart (der Bericht folgt) haben uns ZukunftsReportern gezeigt, dass viele Menschen diese Angst gar nicht teilen. In den beiden Debatten war zwar Kritik an den großen IT-Konzernen zu hören, doch die meisten Teilnehmerinnen und Teilnehmer hoben die Vorzüge der Künstlichen Intelligenz hervor: Sie haben keine Angst vor dem Verlust des Arbeitsplatzes, sondern erhoffen sich einen erfüllteren Alltag. Endlich nehmen einem die Maschinen die lästigen Routinearbeiten ab, so dass mehr Zeit bleibt für Kreatives und Lebenswertes. Das neue Zukunftsszenario spiegelt diesen Gedanken wider.

Beibehalten haben wir die Undurchsichtigkeit der Künstlichen Intelligenz. Es ist schwierig nachzuvollziehen, wie KI-Systeme Entscheidungen treffen. In der Forschung gibt es daher den Wunsch nach einer „erklärbaren“ KI, auf Englisch: explainable AI. Für Ärzte reicht es beispielsweise nicht aus, wenn der Computer nur eine Diagnose angibt, denn sie müssen den Befund ihren Patienten erklären – und dafür Verantwortung übernehmen. Ein Team des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI) arbeitet an einem Verfahren, in dem der Computer nicht nur korrekt zwischen Muttermal und Hautkrebs unterscheidet, sondern auch angibt, wie stark unterschiedliche Faktoren wie Färbung und Asymmetrie die Diagnose beeinflussen. Diese Faktorenanalyse scheine zu funktionieren und für Hautärzte nachvollziehbar zu sein, berichtet Muhammad Naseer Bajwa vom DFKI. Ein Fachbeitrag von ihm und seinen Kollegen zu diesem Thema sei von der International Joint Conference on Neural Networks (IJCNN) angenommen worden. Die ZukunftsReporter haben im Szenario „Dr. Algorithmus – wenn der Computer die Gesundheit checkt“ den Einsatz von Computerdiagnosen untersucht.

Die in diesem Text angedeutete KI basiert auf dem maschinellen Lernen. Auch die Begriffe „neuronales Netz“, „Deep Learning“ und „Data Mining“ verweisen auf dieses Verfahren, bei dem ein Computersystem anhand von vielen Beispielen lernt. Wie die Nervenzellen im Gehirn sind die elektronischen Schalter des Computers miteinander vernetzt. In langen Trainingssessions werden die vielen Verbindungen zwischen den Schaltern gestärkt oder geschwächt, bis der Input den gewünschten Output ergibt. Das erlernte Wissen steckt dann im Muster der starken und schwachen Verbindungen.

Ein typisches Beispiel ist das Erkennen bestimmter Objekte, etwa von Verkehrsschildern. Als Input dienen die Pixel der Kamera, der Output sind die Klassifizierungen Stopp-Schild, Vorfahrts-Schild, Geschwindigkeitsbegrenzung usw. Zwischen Input und Output liegen viele miteinander verbundene Schalter. Jedes Mal, wenn das System ein Schild falsch erkennt, werden die Verbindungen zwischen den Schaltern leicht geändert, bis das Ergebnis irgendwann zuverlässig stimmt. Das System ist dann aber auf Verkehrsschilder spezialisiert und versagt bei allen anderen Typen von Fotos. Richtig intelligent ist es daher nicht, aber die Qualität der Klassifizierung ist trotzdem hoch: Heutige Computer erkennen Straßenschilder auch im Dunkeln oder wenn sie halb verdeckt sind.

Die Qualität der KI hängt grundsätzlich von ihren Trainingsdaten ab. Wenn man das System zum Beispiel nur mit sauberen und gut beleuchteten Straßenschildern trainiert, wird es die Schilder nur unter perfekten Bedingungen erkennen. Dass man einen Computer auch ungewollt falsch trainieren kann, musste die Firma Microsoft erleben, als sie im März 2016 einen intelligenten Chat-Bot namens Tay auf Twitter startete. In wenigen Stunden schnappte Tay so viel Rassismus und Menschenverachtung auf, dass Microsoft den Chat-Bot wieder abschaltete. In unserem überarbeiteten Szenario werden künstlich erzeugte Simulationen genutzt, weil nicht genügend reale Szenarien für das Training des Firmencomputers zur Verfügung stehen. Dieser Ansatz wird in der Forschung verfolgt, um mehr brauchbare Trainingsdaten zu erzeugen. Hierbei spielt die Frage, welche Verzerrungen (Englisch: biases) in den Daten stecken könnten, eine entscheidende Rolle.

Die Technik zur virtuellen Konferenzschaltung in diesem Szenario ist durch Forschung am Max-Planck-Institut für Informatik in Saarbrücken inspiriert. Zwei Beispiele, die dank KI-Systemen jetzt schon funktionieren: (1) Aus wenigen Aufnahmen einer normalen Webcam können die Informatiker den Körper einer Person mit Kleidung dreidimensional rekonstruieren. (2) Mit einer Kamera, die an einer Baseballkappe befestigt ist, können die Forscher die Körperhaltung des Trägers ermitteln.

Ob sich solche KI-Technologien durchsetzen, hängt vielleicht auch von ihrem Stromverbrauch ab. Die RiffReporter-Kolleg*innen von „KlimaSocialberichten über das Bemühen um eine Green-IT-Strategie. Die Diskussion darüber steht noch am Anfang, doch es ist abzusehen, dass die Emissionen digitaler Technologien stark zunehmen werden.

Im Zukunftsszenario wird eine Geschichte erwähnt, in der ein Restaurantkritiker einen Mord aufdeckt. Das ist eine Anspielung auf einen anderen Beitrag der ZukunftsReporter, in dem es um künstliches Fleisch geht: Es heißt „Die Wahrheit über dein Steak“. An verschluckbaren Magensensoren wird auch ohne Quantentechnologien gearbeitet, wie dieser Artikel im Wissenschaftsmagazin „Science“ zeigt.


Dieser Beitrag erscheint in der RiffReporter-​​Koralle „die ZukunftsReporter“. Eine Übersicht unserer Artikel finden Sie hier. Wir freuen uns, wenn Sie unsere Arbeit mit einem freiwilligen Beitrag finanziell unterstützen. Herzlichen Dank! Einmal in der Woche schicken wir Ihnen gern unseren kostenlosen Newsletter über unsere Arbeit und Nachrichten, die wichtig für die Zukunft sind.

Uns interessiert Ihre Meinung: Bitte schreiben Sie uns unter [email protected]

Diese Beiträge zur Künstlichen Intelligenz könnten Sie auch interessieren:

Flatrate ab 8 € RiffReporter unterstützen
die ZukunftsReporter