Künstliche Intelligenz als Sicherheitsrisiko?

Eine vom Außenministerium geförderte Studie warnt vor neuartigen Kriegen und Angriffen auf Bürgerrechte

sakkmesterke/Shutterstock

Das Auswärtige Amt sieht in der Ausbreitung Künstlicher Intelligenz (KI) in zivilen und militärischen Anwendungen eine Herausforderung für Diplomatie und Friedenssicherung. Das wurde am Mittwochabend bei der Vorstellung einer Studie deutlich, die das Ministerium in Kooperation mit der Mercator-Stiftung und der Stiftung Neue Verantwortung in Auftrag gegeben hat. Der Leiter des für Strategieentwicklung zuständigen Planungsstabs im Außenministerium, Ralf Beste, sagte, neue Technologien wie KI trieben derzeit die Entwicklung von Staaten und politischen Machtstrukturen stärker voran als umgekehrt. KI drücke "mit Macht auf die politische Agenda". Deshalb sehe das Auswärtige Amt eine wichtige Aufgabe darin, die Entwicklung Künstlicher Intelligenz mit Blick auf Friedenssicherung und internationale politische Stabilität zu verstehen und beeinflussen.

Philippe Lorenz von der Stiftung Neue Verantwortung, einer der Mitautoren der Studie, hob hervor, dass die internationalen Investitionen in diesem Bereichen stark stiegen und die Aufmerksamkeit führender Politiker wachse. So hätten sowohl der russische Präsident Putin als auch der französische Präsident Macron in jüngster Zeit die zentrale Bedeutung von KI für die Entwicklung ihrer Länder hervorgehoben. Frankreich habe erst Ende März angekündigt, 1,5 Milliarden Euro in KI zu investieren und habe Erfolg damit gehabt, Forschungszentren von Unternehmen wie Samsung und Google Deepmind anzusiedeln. Allein Südkorea investiere 863 Millionen Dollar pro Jahr in KI-Forschung.

Maschinen statt Billigarbeiter

Deutlich größer seien aber die Investitionen privater Firmen wie Facebook, Alphabet, Alibaba und Baidu, die 2016 zusammengerechnet 20 bis 30 Milliarden Dollar betragen hätten. "Es gibt einen Wechsel von der universitären Forschung der Technologie hin zur Privatwirtschaft", sagte Lorenz. Google habe den Vorteil, über gewaltige Superrechnerleistung zu verfügen, was staatlichen Universitäten wegen der hohen Preise immer weniger gelinge.

Als inhaltliche Schwerpunkte der Studie stellte Lorenz mögliche wirtschaftliche Umbrüche durch KI, militärische Anwendungen und Auswirkungen von KI auf Demokratie und Ethik vor. Im Bereich Wirtschaft warnen die Autoren davor, dass KI für jene Staaten und Firmen, die einen erheblichen Technologievorsprung hätten, zu Vorteilen bei der Marktdominanz führen könnte, die nicht mehr einzuholen seien. "Die Vereinigten Staaten und China sind in erheblichem Maß vornedran", heißt es dazu in der Studie. Dies könnte zu einer noch größeren Konzentration von Macht und Wohlstand an der Spitze der globalen Märkte führen und den Status Quo verfestigen. Ein KI-Durchbruch einer Firma mit bereits bestehender Marktdominanz könnte ein dauerhaftes und globales Technologiemonopol schaffen.

Vor allem die möglichen Auswirkungen auf den Arbeitsmarkt heben die Autoren als Risiko für die internationale Stabilität und damit als neues Thema für die Außenpolitik hervor. Automatisierung und Robotik könnten vor allem Berufe mit geringem oder niedrigem Qualifizierungsbedarf weitgehend ersetzen und zu Arbeitslosigkeit in diesem Bereich der Bevölkerung führen. Nachdem Unternehmen seit den 1990er Jahren in Entwicklungsländern billige Arbeitskräfte gesucht hätten, könnte die nächste Welle der Entwicklung sein, diese durch KI-optimierte Technologie zu ersetzen. Neue Migrationsströme gen Norden könnten die Folge sein. Höhere Arbeitslosigkeit könnte in Europa und den USA wiederum dazu führen, dass die Toleranz gegenüber Einwanderung noch weiter sinke. Als Aufgabe für die Außenpolitik nannte Lorenz es, eine Art Frühwarnsystem für die Arbeitsmarkt-Berichterstattung zu entwickeln. "Es braucht eine verstärkte Risikobewertung für wirtschaftliche Instabilität", sagte er. Nötig sei es zudem, den Aufkauf deutscher und europäischer Firmen etwa durch chinesische Unternehmen stärker und strenger zu prüfen. Das Außenministerium solle sich stärker an der Risikobewertung für Firmenkäufe und Beteiligungen im Bereich KI beteiligen, heißt es dazu in der Studie.

Gefahr von KI-Terrorismus

Als zweiten Bereich, in dem KI-Entwicklung für die Außenpolitik relevant sei, beschreiben die Autoren der Studie Sicherheitsfragen und die Entwicklung autonomer Waffensysteme, über die bei den Vereinten Nationen seit 2014 beraten werde. In deutlichen Worten warnen sie vor einem neuen Wettrüsten. "Autonome Waffen entwickeln sich zu einem gravierenden nationalen Sicherheitsproblem", heißt es in dem Papier. Das Spektrum möglicher Anwendungen reicht Lorenz zufolge von tötungsfähigen Drohnenschwärmen und Robotern bis zum KI-gesteuerten Schlachtfeld. Wer einen Gegner habe, bei dem superschnelle Rechner statt Menschen Entscheidungen fällten, könne leicht ins Hintertreff geraten, heißt es in der Studie.

Als besonderes Problem hob Lorenz die Möglichkeit hervor, dass KI-Technologien aus dem zivilen Bereich leicht militärisch anwendbar seien. Dies könne sogar zu einer neuen Form von Terrorismus führen, bei dem etwa Rebellen oder andere private Akteure KI-kontrollierte Waffen einsetzten. Als Beispiel führen die Autoren ein Szenario an, bei dem selbstfahrende Autos so manipuliert werden, dass sie Stoppzeichen ignorieren. Der aktuelle Protest von Google-Mitarbeitern gegen eine Mitwirkung des Unternehmens am Projekt Maven des US-Militärs, bei dem es um eine KI-gesteuerte Zielerfassung geht, zeige, wie fließend die Übergänge seien, sagte Ludwig Siegele vom britischen "Economist" in der anschließenden Diskussion. Siegele wird demnächst für vier Monate als "Technology Fellow" im Auswärtigen Amt arbeiten, um im Ministerium die Diskussion über KI voranzutreiben.

1,3 Milliarden Gesichter für Privatfirma

Die Studie rät dazu, dass Regierungen schon jetzt Verhandlungen über sogenannte "rote Linien" in der KI-Entwicklung aufnehmen, die Grundlagen einer effektiven KI-Waffenkontrolle legten und ihre Bevölkerungen über Risiken aufklärten.

Seine Kurzdarstellung der möglichen Folgen von KI für Demokratie und Ethik leitete Lorenz mit einem Bild aus China ein, auf dem ein digitaler Pranger zu sehen ist, der Menschen zeigt, die an Straßenkreuzungen bei Rot über die Ampel gegangen sind. Sie seien automatisch per Gesichtserkennung erfaßt, an den digitalen Pranger gestellt und per SMS über ihr Bußgeld informiert worden. Die Möglichkeiten umfaßender Überwachung könnten Bürgerrechte und Freiheiten einschränken, sagte Lorenz. Zudem könnten Algorithmen bestehende Vorurteile und Diskriminierung einzelner Teile der Bevölkerung noch verstärken. In China versorge die Regierung Unternehmen in der KI-Forschung gezielt mit Daten, etwa den biometrischen Bildern aus 1,3 Milliarden Personaldokumenten.

Ralf Beste vom Planungsstab des Ministeriums warnte in seiner Reaktion auf dieses Szenario: "Vielleicht können autoritäre Systeme im Inneren mit Hilfe von KI effizienter regieren, während offene Gesellschaften den Fokus auf Privatsphäre legen." "Wir bewegen uns auf eine Welt zu, wo ein Teil die Skrupel nicht hat", sagte Ludwig Siegele mit Bezug auf China.

Die von AA, Mercator-Stiftung und Stiftung Neue Verantwortung geförderte Studie gibt es zum Download.

Mehr vom Autor zum Thema KI: