Nachhaltigkeitsdebatte: Kann Künstliche Intelligenz das Klima noch retten?

Können digitale Technologien den notwendigen Wandel von Gesellschaft und Wirtschaft hin zur Klimaneutralität unterstützen und beschleunigen? Politik und Wirtschaft sehen in der KI einen Heilbringer, doch Stimmen aus der Zivilgesellschaft fordern einen kritischen Diskurs.

6 Minuten
Technik spielt in vielen Zukunftsszenarien eine entscheidende Rolle

„Eine vertrauenswürdige KI kann bei der Linderung dringender gesellschaftlicher Herausforderungen wie Überalterung, wachsende soziale Ungleichheit und Umweltverschmutzung von großem Nutzen sein“, hält die von der EU-Kommission eingesetzte Expertengruppe in den Ethik-Leitlinien für eine vertrauenswürdige KI fest, die in die KI-Verordnung einflossen, die vergangene Wochen vom Europäischen Parlament verabschiedet wurde.

Auch der Wissenschaftliche Beirat der Bundesregierung Globale Umweltveränderungen (WBGU) ist davon überzeugt, dass das disruptive Potenzial der Digitalisierung auch für die sogenannte Große Transformation genutzt werden kann. In seinem Hauptgutachten Unsere gemeinsame digitale Zukunft zeigt er, dass die sozioökologische mit der digitalen Transformation zusammengedacht werden müssen. Geschehe dies nicht, so warnt der WBGU, würden digitale Technologien zum Treiber statt zum Bremser des Klimawandels werden.

Milliarden für KI – aber welche?

In vorderster Linie der Digitalisierung stehen Techniken und Anwendungen des Maschinellen Lernens – gerne auch Künstliche Intelligenz genannt. Unternehmen und Regierungen mobilisieren dazu Milliarden an Investitionen und Fördergeldern. Ein wenig Geld fließt hier auch in Anwendungen, die unter dem Label Nachhaltigkeit vermarktet werden: Microsoft entwickelt in seinem Programm „AI for Earth“ digitale Werkzeuge für den „planetaren Computer“. Google richtet seit 2021 seine Produktpalette auf Nachhaltigkeitskriterien aus und versucht Ökoroutinen zu installieren.

In einer millionenschweren Förderinitiative zu KI-Leuchttürmen versucht auch das Bundesumweltministerium seit einigen Jahren Projekte voranzubringen, die Klimaschutz und ressourceneffizientes Handeln KI-gesteuert befördern. Gemessen an den 2,5 Milliarden Euro, die unter Bundeskanzlerin Merkel für die KI-Forschung reserviert wurden, ist das wenig – bislang gibt es übrigens seitens der Ampel-Regierung noch immer keinen Anlauf, die von Merkel angekündigten weiteren 2,5 Milliarden bereit zu stellen, obgleich in der Öffentlichkeitsarbeit die Chancen von KI gerne hervorgehoben werden.

Dekarbonisierung der Wertschöpfung

Aktuell steht allerdings nicht das Gemeinwohl im Mittelpunkt der KI: Es geht primär nicht darum, die Lebensumstände aller Menschen zu verbessern, geschweige denn die größten Menschheitsherausforderungen anzugehen: den Klimawandel abzuschwächen und das Artensterben zu verringern. Die Investitionen in KI werden in der Regel nach ihrem Zweck bewertet, der Maximierung des Profits einiger weniger großer Unternehmen, die eben über ausreichend Kapital verfügen, um in die neuesten Digitaltechniken zu investieren.

Der führende KI-Experte Wolfang Wahlster sieht Deutschland im Übrigen in der industriellen KI und der kollaborativen Robotik auf Rang 1. Aktuell gebe es in Deutschland mehr Hersteller und Forschungslabore für kollaborative kognitive Roboter als in anderen Teilen der Welt. KI sei die Basis, erklärt Wahlster, für „wandlungsfähige, cyber-physische Fabriken für kleine Losgrößen, in denen kollaborative Roboter Hand-in-Hand mit Facharbeitern in einer KI-basierten Null-Fehler-Produktion hochqualitative Hightech-Produkte klimafreundlich produzieren.“ Die digitalen Zwillinge könnten den CO2-Abdruck während der Produktion messen und mit KI-Algorithmen helfen, den Energieverbrauch in Smart Factories zu reduzieren. Hauptziel ist jedoch nicht die Klimafreundlichkeit, sondern die Steigerung der Effizienz im Sinne der Profitsteigerung.

Unter digitaler „Nachhaltigkeit“ verstehen viele Unternehmen nämlich noch immer vor allem ein Geschäftsmodell, das ordentlich Rendite bringt. Zwar kann KI-gestützt die gesamte Wertschöpfungskette analysiert und gesteuert werden, doch dies erfolgt nicht mit dem Ziel der ökologischen Nachhaltigkeit, sondern vielmehr der Effizienz. Der Ressourcenverbrauch zu fest definierten Wertschöpfungszyklen kann reduziert werden. Das heißt aber nicht, dass sich gleichzeitig das Wertschöpfungssystem so verändert, dass es insgesamt weniger Ressourcen verbraucht und damit mehr Suffizienz erreicht wird. Es impliziert auch nicht, dass die Wertschöpfung dauerhaft dekarbonisiert wird.

Nicht das Tool, sondern die Organisation in den Blick nehmen

Der Blick auf die Energieeffizienz allein genügt jedoch nicht, wie Rebound-Effekte immer wieder zeigen: LED-Lampen verbrauchen weniger Energie, doch die neueren LED-Leuchten sind sehr viel größer. Flachbildschirme verbrauchen deutlich weniger als Röhrenbildschirme, sind aber inzwischen um ein Vielfaches größer. Moderne Verbrennungsmotoren verbrauchen weniger Sprit, dafür wurden die Fahrzeuge größer und schwerer. Mit sogenannten spritsparenden Fahrzeugen werden längere Strecken gefahren.

Nur wenn das Gesamtsystem weniger Energie und Ressourcen verbraucht, lässt sich Klimaneutralität erreichen und Ökosysteme entlasten. Hier können regulatorische Maßnahmen helfen, doch auch an Organisationen, die KI-Tools für mehr Nachhaltigkeit von was auch immer anbieten, sollte die Frage gestellt werden: Wie weit reicht die Nachhaltigkeitswirkung der Tools? Haben sich denn auch die Organisationsziele entsprechend verändert?

Für Rainer Rehak vom Weizenbaum Institut ist klar: Auch Organisationen, die KI-Tools entwickeln, einsetzen und verbreiten, müssen bei einer Nachhaltigkeitsanalyse in den Blick genommen werden. Denn, so Rehak in einem Beitrag des neu erschienenen Bits & Bäume Journal "Shaping Digital Transformation for a Sustainable Society": „Tools werden von Akteuren eingesetzt, um Interessen und Ziele zu verfolgen, möglicherweise gegen andere Organisationen oder Einzelpersonen.“

„Wenn überhaupt“, sagt Rehak, „entstehen KI-Konflikte entlang der Linie ‘Organisation gegen Organisation‘, weshalb die Interessen der beteiligten Akteure immer im Mittelpunkt von KI-Analysen stehen sollten.“ Und wenn die Organisation nicht an Nachhaltigkeit interessiert sei, werde auch KI dafür nicht eingesetzt werden – Rebound-Effekte eingeschlossen.

KI gehe überdies aufgrund ihrer datenintensiven Technik mit einem machtzentralisierenden Effekt einher, so Rehak: „Die Tatsache, dass große Unternehmen ihre KI-Frameworks und -Dienste frei zur Verfügung stellen, ändert nichts an der Tatsache, dass KI ohne die entsprechenden und immensen Datengrundlagen kaum einen wirklichen Nutzen haben kann.“ KI sei daher „nur die jüngste Entwicklung des digitalen Feudalismus mit nur wenigen großen KI-Anbietern, die ihre Dienste vermieten“.

Nachhaltigkeit in der KI

Der KI-Einsatz selbst muss ebenso nachhaltig erfolgen, das heißt mit einem möglichst geringen CO2-Fußabdruck. Das Training großer KI-Sprachmodelle gehört jedoch zu den aufwändigeren Berechnungen, die auf Großrechnern vorgenommen werden. Für Aufsehen sorgte die Forschergruppe um Emma Strubell 2019 mit ihrer Energieanalyse von KI-Sprachmodellen: Ein einziger Trainingslauf von Googles Sprachmodell BERT soll dem Hin- und Rückflug zwischen New York City und San Francisco entsprechen. Die Trainingsläufe werden laufend wiederholt. US-Forscher um Roy Schwartz stellten fest, dass sich der Rechenaufwand für modernste KI-Forschung in den letzten Jahren um das 300.000-fache erhöht hat, weil die KI-Entwickler auf Effizienz und Genauigkeit großen Wert legen.

Ein neuer Ansatz für eine „nachhaltige KI“ setzt deshalb mit Blick auf die Umweltkosten am Lebenszyklus von KI an. Dabei geht es Aimee van Wynsberghe, Leiterin des Institute for Science and Ethics an der Universität Bonn, darum, „wie man KI so entwickeln kann, dass sie mit der Erhaltung der Umweltressourcen für heutige und künftige Generationen, mit Wirtschaftsmodellen für Gesellschaften und mit gesellschaftlichen Werten, die für eine bestimmte Gesellschaft grundlegend sind, vereinbar ist“.

Irgendwann wird auch eine Debatte darüber geführt werden müssen, für was energiefressende IT-Dienste und -Infrastrukturen eingesetzt werden – auch in der Forschung. Ein Beispiel: Die derzeit schnellsten Superrechner, die sogenannten Exascale-Rechner, sind so teuer, dass nicht jeder Forschungszweig einen Rechner für sich allein beanspruchen kann. Die Klimawissenschaftler fordern einen für sich, um einen digitalen Erdzwilling für Klimamodelle berechnen zu können. Aber auch Physiker am CERN erwarten von der Politik, für ihre Elementarteilchenmodell-Rechnungen die Mittel für einen Exascale-Rechner locker zu machen. Letztlich muss die Politik hier über kurz oder lang Prioritäten in der Förderung von Forschungsprojekten setzen.

KI-Projekte für mehr Nachhaltigkeit – sind sie Teil des Verzögerungsdiskurses?

Und selbst wenn diese Priorisierungen erfolgen, bleibt die Kernfrage, so Rainer Rehak, ob KI wirklich die beste Lösung ist, um ein bestimmtes Problem zu lösen: Wir könnten dann getrost auf KI setzen, falls wir noch nicht genau genug wissen, wie viele Insekten noch leben oder wie man noch besser Autos in der Stadt parken kann oder wieviel Energie in den Rechenzentren verbraucht wird. Falls wir aber jetzt schon genug wissen, um zu handeln, sollten wir keine kostbaren Ressourcen verschwenden, um noch mehr zu erfahren – während die wertvolle Zeit des Handelns zerrinnt.

Die KI-Nutzung wäre so gesehen eine weitere Variante eines Solutionismus, der im Sinne eines Verzögerungsdiskurses verhindert, dass die eigentliche Ursache der steigenden Treibhausgasemissionen nicht angepackt wird. Darauf macht übrigens auch der jüngste Rundbrief des Forum Umwelt und Entwicklung zu Tech[no]fixes aufmerksam, zu der Anfang Juni eine gleichnamige Konferenz in Berlin stattfand. Sie stellte aber auch fest: Der Diskurs darüber ist außerhalb einiger weniger Expert:innenrunden noch kaum ausgeprägt. Wir stehen hier gerade erst einmal am Anfang.

VGWort Pixel