Datenkontrolle wie sie im Buche steht

Ein Aufruf zum Digitalgipfel der Bundesregierung

Rainer Kurlemann Die Handschrift aus dem Palast des Inquisitors auf Malta listet Verfahren gegen Ketzer auf. Heute lassen sich Andersdenkende automatisch ermitteln.

Die Zukunftsreporter – Ihre Korrespondenten aus möglichen Welten, in denen wir leben werden oder leben wollen

„Google, komm nach Nürnberg“, so ist dieser Tage eine Pressemitteilung überschrieben. Darin wirbt der Initiator des Nürnberg Digital Festivals, Ingo Di Bella, für den Standort Franken: „Anders als in Berlin-Kreuzberg, wo die Pläne von Google, einen Campus zu eröffnen, von Bürgerprotesten durchkreuzt wurden, sieht Di Bella in Nürnberg offene Türen und ein perfektes Umfeld für Unternehmen, die an der Spitze der Digitalisierung stehen.“ Die Rekordteilnehmerzahl von mehr als 10.000 Besuchern im Oktober beim Festival zeige, dass die Metropole „in der digitalen Epoche angekommen“ sei. Die Stadt wiederum wirbt damit, ein „Epizentrum für Digitalisierung“ zu sein. Mit Daten, das macht diese Werbekampagne deutlich, lässt sich wirklich viel Geld verdienen – aber nicht in Deutschland.

Zumindest die Bundesregierung hat die Rufe gehört und lädt am 3. und 4. Dezember zum Digitalgipfel nach Nürnberg ein: Mit rund 1000 Gästen möchte sie über das Schwerpunktthema Künstliche Intelligenz (KI) sprechen, vor allem über die Auswirkungen auf die Arbeitswelt, die Mobilität und die Gesundheit. Erst kürzlich hat sie eine Strategie zu diesem Thema verabschiedet, mit der sich Deutschland in der Forschung stärker hervortun soll. Eines der 14 Ziele dieser Strategie lautet sogar: „Wir wollen eine europäische Antwort auf datenbasierte Geschäftsmodelle und neue Wege der datenbasierten Wertschöpfung finden…“. Es geht also nicht nur darum, mit Google Geschäfte zu machen, sondern auch selbst mit Daten zu handeln.

Mehr Vielfalt würde der Branche guttun, denn Monopole sind anfällig für Missbrauch. In George Orwells Roman „1984“ wird der Fernseher vom Staat kontrolliert – und zu Propagandazwecken und zur Überwachung eingesetzt. Wohin eine Übermacht der großen IT-Konzerne führen könnte, hat der RiffReporter Christian Schwägerl in einem ähnlich düsteren Szenario ausgemalt. Ein etwas naiver Nutzer versucht darin, sich einer Widerstandsbewegung gegen die Google Security International anzuschließen. Überwacht wird er noch von echten Menschen, doch man kann sich leicht vorstellen, dass Maschinen diese Aufgabe übernehmen.

Das Szenario ist schon ein paar Jahre alt und stammt aus einer Zeit, als ein Durchbruch der Datenbrillen möglich schien: Google Glass könnte nicht nur den Alltag der Nutzer aufzeichnen, sondern auch helfen, ihr Leben zu kontrollieren. Auch wenn diese Produkte vorerst nicht den Markt erobert haben, bleiben sie eine Metapher für die Möglichkeit, persönliche Daten auszunutzen, um Menschen zu manipulieren. Die Zukunftsreporter haben ein solches Szenario des Autors Yuval Noah Harari kürzlich diskutiert: Es könnte auch eine „freundliche“ Diktatur sein, die ihre Bürger zu einem sorgenfreien, aber eben auch fremdbestimmten Leben verleitet. Künstliche Intelligenz verhindert dabei den Widerstand gegen das Regime, indem sie von Problemen ablenkt und gezielt gute Laune verbreitet.

In der KI-Strategie der Bundesregierung beschäftigen sich folgerichtig 8 der 14 Ziele mit sozialen und ethischen Fragen, die sich aus der Künstlichen Intelligenz ergeben: Sie soll stets den Bürgern nutzen, soziale Teilhabe, Handlungsfreiheit und Selbstbestimmung fördern, einen Beitrag zur Nachhaltigkeit leisten sowie die kulturelle und mediale Freiheit garantieren. Sie soll allerdings auch das Leben sicherer machen, und die Daten dürfen auch zum Wohle von Wirtschaft und Staat genutzt werden. Damit bleibt vieles möglich – und es ist zu erwarten, dass sich die Ziele in konkreten Fällen widersprechen.

Ein moralischer Kompass ist diese Strategie also noch nicht. Was wäre zum Beispiel von einem Diagnosesystem zu halten, das Patienten voraussagt, wie lange sie zu leben haben? Der RiffReporter Christian Meier hat ein solches Szenario der „Todesuhren“ beschrieben. Würde es den Patienten ermöglichen, ihre letzten Tage selbstbestimmt zu gestalten? Oder würde es bloß das Gesundheitssystem entlasten, weil es nicht mehr in die Therapie von Patienten investieren würde, die ohnehin bald sterben werden?

Um über solche Fragen diskutieren zu können, müssten wir mehr über die Algorithmen wissen, mit denen die Maschinen gesteuert werden. Doch die gelten als Geschäftsgeheimnis, und wir Nutzer dürfen uns wundern, warum wir für die Dienstleistungen der großen IT-Konzerne nicht mit Geld zahlen können, sondern nur mit unseren Daten. Wie viel sind die Daten eigentlich wert? Dieser Punkt stört auch die Nationale Akademie der Wissenschaften (Leopoldina) und sie fordert in einer Stellungnahme eine Alternative zur Einwilligung in die Datenverarbeitung. Eine App sollte sich also nicht einfach abschalten dürfen, wenn man ihr den gewünschten Zugang zum Adressbuch verweigert. Alternativ könne man die Anbieter „verpflichten, den Nutzerinnen und Nutzern ein faires Entgelt zu zahlen, wenn sie in die Erhebung und Verwertung besonders wertvoller Daten einwilligen“, schreibt die Akademie.

Neben dem Wettbewerb und der Wahlfreiheit gibt es noch eine dritte Möglichkeit, um die Kontrolle über die Daten zurückzugewinnen: den Daten-Tüv. Dass Algorithmen geprüft werden müssen wie Autos, Flugzeuge und Industrieanlagen, ist nicht abwegig. In der Stellungnahme der Leopoldina heißt es: „Es bedarf neuer Mechanismen, die eine Kontrolle der Funktionsprinzipien und Entscheidungskriterien von Algorithmen ermöglichen.“ Und die Bundesregierung verspricht in ihrer KI-Strategie, eine solche Regulierung zu prüfen, um „einen effektiven Schutz gegen Verzerrungen, Diskriminierungen, Manipulationen oder sonstige missbräuchliche Nutzungen … zu ermöglichen“.

Die Informatikerin Katharina Zweig von der TU Kaiserslautern kritisiert jedoch, dass die Bundesregierung dieses Versprechen zu pauschal formuliert: „Wirklich relevant sind … die KI-Systeme, die Entscheidungen über Menschen oder deren Besitz treffen“, sagt sie dem Science Media Center Deutschland. Automatisierte Produktempfehlungen auf der Website eines Online-Shops seien zum Beispiel weniger problematisch als eine automatisierte Auswahl politischer Nachrichten, denn bei einer Manipulation wäre der gesellschaftliche Schaden im zweiten Fall größer als im ersten. So ähnlich sieht es auch die Leopoldina.

Am größten wäre der Bedarf einer strengen Regulierung bei Systemen, die Ärzte unterstützen. Hier würde man sich wünschen, dass die Therapieempfehlungen gut begründet und damit überprüfbar sind. Doch die Analyse medizinischer Risikofaktoren ist es gerade nicht, wie der Zukunftsreporter Rainer Kurlemann in seinen Szenarien erklärt: Hier werden Muster im Erbgut gesucht, tausende Stellen auf den DNA-Strängen werden dazu untersucht. In einem Szenario beschreibt Rainer Kurlemann, wie ein Mann sein Leben neu plant, nachdem er im Alter von 25 Jahre erfährt, dass er seinen Ruhestand vermutlich nicht genießen können wird. Er ist dankbar für diese Chance.

Doch was ist mit den Menschen, die es lieber darauf ankommen lassen wollen? Und was ist mit denen, die das Gefühl haben, sie seien nicht richtig diagnostiziert worden?  Wenn wir hier eine Wahl haben wollen, müssen wir um unsere Daten kämpfen. Wir sollten den großen IT-Konzernen nicht unnötig Daten schenken, indem wir die Voreinstellungen der Apps nicht überprüfen, Cookies nicht löschen und uns im selben Browser in mehrere Dienste gleichzeitig einloggen. Und wir sollten Regierung und Behörden dabei unterstützen, bessere Regeln zu erlassen und durchzusetzen.


Dieser Beitrag erscheint in der RiffReporter-Koralle „Die Zukunftsreporter“. Eine Übersicht unserer Artikel finden Sie hier. Uns interessiert Ihre Meinung: Bitte schreiben Sie uns unter hallo@zukunftsreporter.online,

Wir freuen uns, wenn Sie unsere Arbeit mit einem freiwilligen Beitrag finanziell unterstützen. Außerdem schicken wir Ihnen gerne einmal in der Woche unseren Newsletter mit Nachrichten, die wichtig sind für die Zukunft. Nutzen Sie dazu bitte diese beiden Knöpfe:

Die Zukunftsreporter