Wir müssen reden - Fünf Fragen zum Einsatz von künstlicher Intelligenz

Ein Aufruf zu einer längst notwendigen Debatte

Die Zukunftsreporter – Ihre Korrespondenten aus möglichen Welten, in denen wir leben werden oder leben wollen


Künstliche Intelligenz wird bereits in vielen Bereichen unseres Lebens eingesetzt, doch die Reichweite und Tiefe der damit verbundenen Veränderungen überschauen wir noch nicht. Viele Menschen vergleichen den Einsatz der KI mit dem Einzug der Roboter in die Fabrikhallen. Doch das ist nur ein kleiner Teil dessen, was uns erwartet. Wir Zukunftsreporter und andere Autoren der Riffreporter haben einige Beispiele auf der Basis von aktueller Forschung zu Zukunftsszenarien ausgearbeitet - als Einstieg in eine Diskussion, die nicht nur in akademischen Zirkeln stattfinden sollte, sondern die ganze Gesellschaft erreichen muss.

Uns interessiert Ihre Meinung: Bitte schreiben Sie uns unter hallo@zukunftsreporter.online.

Frage 1: Wie menschlich soll KI sein?

Erinnern wir uns an die Anfänge: Die ersten Schach-Programme lernten vom Vorbild Mensch aus den dokumentierten Partien der Schach-Großmeister. Die ersten Roboter in einer Maschinenhalle erledigten die gleichen Tätigkeiten wie die Menschen. Computer hatten das Ansehen eines hochbegabten Spezialisten, der aber auf eine besondere Anwendung beschränkt ist. In Science-fiction-Filmen werden Computer häufig entweder als kalte, seelenlose Dienstleister dargestellt oder sie weisen deutliche menschliche Züge auf. Einige Roboter aus dem Kino zeigen starke Emotionen. Auch der Begriff "neuronale Netzwerke" gaukelt vor, dass es Parallelen zwischen dem menschlichen Gehirn und der künstlichen Intelligenz gebe. Dieser Vergleich führt aber in die Irre. Computer treffen ihre Entscheidungen auf einem ganzen anderen Weg als der Mensch, Man kann trefflich darüber streiten, ob Computer überhaupt Intelligenz ausbilden können. Trotzdem hat sich der Begriff künstliche Intelligenz durchgesetzt. Aber künstliche Intelligenz handelt nicht menschlich, auch wenn wir das vielleicht gern wollen.

Der Rechner tut manche Dinge, die wir in einer ähnlichen Weise erledigen würden. Nehmen wir als einfaches Beispiel einen KI-gesteuerten Staubsauger. Das Gerät auf Knopfdruck los und am Ende ist der Boden sauber. Der Staubsauger entwickelt dabei eine eigene Strategie, auf welchem Weg er über den Boden fährt. Er trifft seine Entscheidungen schon allein dadurch anders, dass er seine Umwelt anders wahrnimmt als ein Mensch. Ein Mensch würde vielleicht eine heruntergefallene Büroklammer aufheben und einem kleinen, in die Wohnung geratenen Marienkäfer den Tod im Staubsauger ersparen. Oder eine Spinne jagen, die sich hinter einem Sofa versteckt hält. Der Staubsaugerroboter macht das nicht.

Vielleicht scheitert das autonome Fahren nicht an der Technologie, sondern daran, dass dem steuernden Computer die menschlichen Eigenschaften vieler Autofahrer fehlen. Wird er fluchen, wenn ein anderer Fahrer überraschend die Spur wechselt, und ihn als unfähig beschimpfen? Ähnlich verhält es sich, wenn der Computer einen Tisch beim Lieblingsitaliener bestellt. Das spart uns Zeit, aber wie soll sich der sprechende Assistent verhalten? Soll er vorgaukeln, er wäre ein Mensch? Vielleicht fragt sich dann die Wirtin im Lokal, warum der Stammgast heute so reserviert und unpersönlich reagiert. Er könnte sich auch als sprechender Computer vorstellen.

Wir sollten uns über die Rolle klar werden, die künstliche Intelligenz in unserem Leben haben soll. Die mögliche Bandbreite ist groß. Ist Alexa eine Art Freundin der Familie? Oder ist Alexa das Überwachungsutensil einer Softwarefirma und Datenkrake? Oder ist es schlicht ein technisches Gerät wie ein Kühlschrank, ein Kaffeeautomat oder eine Waschmaschine?

Lesen Sie hier wie der Begriff künstliche Intelligenz entstand

Frage 2: Wollen wir der KI die Auswahl von Informationen anvertrauen?

Wir haben uns längst an die scheinbar so praktischen Hinweise im Internet gewöhnt. Beim Kauf eines Artikels liefert ein Algorithmus einen Tipp, was andere Käufer zusätzlich erworben haben. Ein praktischer Service, der uns die Suche erleichtert. Wer ein Buch im Internet kauft, bekommt Bücher mit ähnlichem Inhalt angeboten. Der Ticketservice weist auf Musicals oder Konzerte hin, die ein ähnliches Genusserlebnis versprechen wie bei den letzten Veranstaltungen, die auf der Plattform gebucht wurden. Die Musik-App auf dem Mobiltelefon spielt ähnliche Musik wie die des Lieblingskünstlers. Die Algorithmen der sozialen Medien stellen Informationen zusammen, die dem entsprechen, was der Nutzer zuletzt gelikt, geteilt oder mit einem Kommentar versehen hat. Der Nutzer findet zwar dank der Hilfe von künstlicher Intelligenz neue Musiker, Veranstaltungen und Bücher, die er vielleicht sonst nicht entdeckt hätte. Aber er bleibt in seiner eigenen Wohlfühlumgebung, er lebt in der eigenen Welt der Annehmlichkeiten, die nicht durch andere Themen, Kritik oder fremde Kulturen gestört wird. Und er lernt nichts Neues, Überraschendes kennen.

Vermutlich geht der Segen mit einem Fluch Hand in Hand: „Wenn die Revolution in der Biotechnologie mit der Revolution in der Informationstechnologie verschmilzt, werden daraus Big-Data-Algorithmen entstehen, die meine Gefühle viel besser überwachen und verstehen können als ich selbst, und damit wird sich die Macht vermutlich von den Menschen hin zu den Computern verschieben", schreibt der Beststeller-Autor Yuval Noah Harari in seinem Buch über Formen der digitalen Diktatur.

Auch im Beruf kann die künstliche Intelligenz helfen, wichtige Informationen schneller zu finden. Was Fachleute früher Tage beschäftigte, erledigt ein Programm binnen weniger Minuten. In einer Welt, die immer mehr Daten produziert, wird es zum Regelfall, dass ein Algorithmus die Vorauswahl für den Nutzer der Daten übernimmt. Das spielt auch bei der Auswahl von Nachrichten durch Algorithmen eine wichtige und große Rolle. Aber auch dieser Teil des Fortschritts hat seine Schattenseite. Es ist durchaus denkbar, wenn nicht sogar wahrscheinlich, dass die User von Quellen ferngehalten werden, die dem Algorithmus oder seinem Betreuer nicht gefallen. Um über solche Fragen diskutieren zu können, müssten wir mehr über die Algorithmen wissen, mit denen die Maschinen gesteuert werden. Oft fehlt dieses Wissen.

Lesen Sie dazu zwei Berichte der Zukunftsreporter

Frage 3: Wollen wir uns auf die Ergebnisse der KI verlassen?

In manchen Fragen überlassen wir unser Schicksal schon heute gern dem Computer - bei der Routenplanung beispielsweise. Ob auf dem Mobil-Telefon oder im Auto - für den Weg von A nach B lassen wir uns Vorschläge machen. Wir folgen der gewählten Route umso bereitwilliger, je schlechter unsere Ortskenntnisse in der Region ausfallen. Das Risiko für die Abgabe der Entscheidungskompetenz erscheint überschaubar. Schließlich können wir jederzeit eingreifen - und manchmal tun wir es auch. Viele Autofahrer weichen einige Zeit von der vorgeschlagenen Route ab. Sie glauben, den Weg besser zu wissen. Etwa weil eine bestimmte Straße in der Innenstadt jeden Morgen überfüllt oder die Abfahrt von der Autobahn bei einem Stau nur in das Chaos auf der Landstraße führt. Am Nachmittag kann diese Entscheidung schon wieder anders ausfallen. Doch genauer betrachtet, ist es nur ein kleiner Erfahrungsschatz, mit dem der Autofahrer sich gegenüber dem Rechner im Vorteil wähnt. Die Maschine könnte diesen Rückstand schnell aufholen, wenn sie für den Lernprozess unser Verhalten besser beobachten oder mehr Daten aus der Verkehrsüberwachung nutzen könnte. Die Routenwahl wird ohne Zweifel noch besser werden, wenn die Qualität der Daten wächst.

Wir Menschen können die Leistung der Algorithmen in einem solchen Fall sehr gut bewerten - in diesem Beispiel, weil wir das Ziel auf einem angenehmen Wege erreicht haben. Das eingeübte Prinzip der Routenplanung lässt sich auf andere Anwendungsgebiete übertragen, bei denen die Zufriedenheit mit der Entscheidung der KI allerdings mehr Vertrauen in einen unbekannten Algorithmus verlangt. Solche Anwendungsgebiete liegen in der Medizin. Dort kann die KI die Erfahrung der Ärzte auswerten. Die Mediziner haben beispielsweise tausende Bilder aus Untersuchungen mit dem MRT oder dem Computertomographen mit Diagnosen belegt und die Krankengeschichte der Patienten ergänzt. Die KI nutzt das Wissen, bewertet neue Bilder und kann Diagnosen vorschlagen. Interessant ist die Frage, ob Dr. Algorithmus die besseren Diagnosen stellt, weil er im Unterschied zu Ärzten nichts übersieht. Mit einem ähnlichen Konzept könnte die KI sogar die Überlebenschancen von Patienten im Krankenhaus ermitteln.

Lesen Sie dazu zwei Szenarien der Zukunftsreporter

Frage 4: Was tun, wenn wir die Entscheidung der KI nicht mehr verstehen?

Die meisten Menschen können ganz gut erklären, warum sie sich zu einer bestimmten Entscheidung durchgerungen haben. Sie wägen ab, verfolgen mehrere Optionen und entscheiden sich schließlich für eine bestimmte Variante. Das mag die falsche Entscheidung sein, aber sie ist im Nachhinein zu erklären. Manchmal spielt das sprichwörtliche Bauchgefühl eine große Rolle. Für selbstlernende Algorithmen trifft das nicht mehr zu. Sie sind durchaus in der Lage, eigene Wege zu suchen, die im Dunkeln bleiben. Maschinen können eine andere Strategie entwickeln und ein Ergebnis präsentieren, ohne dass die Argumentation offen gelegt wird. Sie können komplexe Wege zur Lösung suchen, die der begrenzte Mensch nicht finden kann. Selbst die Entwickler der Algorithmen können nicht garantieren, dass sie am Ende den Überblick über die Logik der Maschine behalten. Häufig ist das auch gar nicht gewünscht. Warum sollte ein Computer nicht zum Hilfsmittel für Probleme werden, die so komplex sind, dass sie sich den Menschen nicht mehr erschließen? Menschen werden dafür gefeiert, wenn sie einen alternativen, aber besseren Weg der Problemlösung finden. Warum sollten wir die Chance nicht nutzen, dass auch Computer Optionen eröffnen, die uns bisher nicht offenstehen. Manchmal werden wir Glück haben, und das Ergebnis der Maschine scheint dem Anwender plausibel. Schwierig wird es, wenn die Lösung völlig überraschend und unbequem ist. Wer soll am Ende die Entscheidungsgewalt behalten - ein Rechner, der Informationen besser auswerten kann als der Mensch? Oder ein Mensch, der das Ergebnis eines Algorithmus für falsch hält, obwohl er es nicht wirklich begründen kann? Zugegeben: Das klingt heute nach einem theoretischen Problem, nach einer eher philosophischen Fragestellung, die noch nicht so häufig im Alltag vorkommt. Aber man muss kein Prophet sein, um zu wissen, dass dieses Dilemma schon auf uns wartet.

Lesen Sie dazu ein Szenario der Zukunftsreporter

Frage 5: Wollen wir KI einsetzen, um mehr über den Menschen zu erfahren?

Datingportale sind heute längst Alltag für die Partnersuche: Sie machen Vorschläge, welcher Mensch zu uns passen könnte, damit wir eine längere Zeit des Lebens mit ihm oder ihr verbringen mögen. Das Risiko dieser computergestützten Partnerwahl ist gering. Irgendwann treffen sich die Beteiligten und können nach dem ersten Date entscheiden, ob der Algorithmus eine gute Wahl getroffen hat. Die Entscheidung, ob zwei Menschen zueinander passen, treffen die Menschen noch selbst. Schwieriger wird es, wenn der Computer nicht nach einem Partner für's Leben sucht, sondern neue Mitarbeiter für die Firma. Algorithmen erobern sich heute einen Platz bei der Personalauswahl. Wenn der Rechner sich irrt, bekommt der Bewerber keine zweite Chance und das Unternehmen verpasst einen hochkarätigen Mitarbeiter.. Viele Forscher experimentieren mit Programmen, die beispielsweise Spracherkennung nutzen, um Depressionen oder Anzeichen von Demenz zu erkennen. Es scheint möglich zu sein, aus der Art und Weise, wie ein User in den sozialen Medien interagiert, auf den Gemütszustand des Anwenders zu schließen. Die Wissenschaftler, die an diesen Verfahren arbeiten, betonen zumeist, dass sie durch den Einsatz der neuen Technologie die Zahl der Selbstmorde verringern wollen. Wer allzu depressiv vor seinem Rechner sitzt, bekommt dann vielleicht Besuch von einem Mitarbeiter der Aufmunterungsbehörde oder des Gesundheitssystems. Ist das eine erfreuliche Entwicklung oder vielleicht doch zu viel Kontrolle? Können Algorithmen überhaupt Menschen und deren Fähigkeiten korrekt analysieren und gar die Eignung für einen bestimmten Zweck bewerten. Oder endet dieser Versuch nicht immer in der Einteilung des Menschen in vorgegebene Schubladen? Lässt sich das Rad noch zurückdrehen, wenn der Damm erst einmal gebrochen ist?

Lesen Sie dazu einen Bericht über einen Selbstversuch

Das waren fünf Fragen zum Einsatz von künstlicher Intelligenz. Es gibt sicher noch weitere. Künstliche Intelligenz wird unseren Alltag weiter erobern. Es bleibt also spannend. Es ist wichtig, dass wir heute darüber reden, welchen Raum wir ihr geben wollen. Wir werden diesen Artikel laufend aktualisieren, neue Beispiele und neue Beiträge ergänzen. über die wir nachdenken und debattieren müssen.

Dieser Beitrag erscheint in der RiffReporter-Koralle „Die Zukunftsreporter“. Eine Übersicht unserer Artikel finden Sie hier. Wir freuen uns, wenn Sie unsere Arbeit mit einem freiwilligen Beitrag finanziell unterstützen. Herzlichen Dank! Einmal in der Woche schicken wir Ihnen gern unseren kostenlosen Newsletter über unsere Arbeit und Nachrichten, die wichtig für die Zukunft sind.

Flatrate ab 8 € RiffReporter unterstützen
Die Zukunftsreporter