Weshalb es gefährlich ist, künstliche Intelligenz zu leugnen

Je smarter Computer werden, desto verzweifelter sprechen Skeptiker ihnen „echte“ Intelligenz ab. Damit flüchten sie vor einer ehrlichen KI-Debatte. Es braucht einen Perspektivwechsel.

12 Minuten
Künstliche Intelligenz wird oft mit einem Gehirn im Cyberlook illustriert.

Einer der Erfinder des Computers, Alan Turing, fand die Menschen ziemlich borniert: Sie seien unwillig zu akzeptieren, dass etwas mit ihrer Intelligenz konkurrieren könnte, meinte der britische Mathematiker 1948. Gut siebzig Jahre später zeigt sich, wie recht Turing hatte.

Das Handy versteht Sprache, eine KI findet beim jahrtausendealten Brettspiel Go ganz neue Strategien, Computer entdecken selbständig physikalische Gesetze: Zwar wird es immer schwieriger, solche Leistungen anders als „intelligent“ zu nennen. Doch so großzügig zeigt sich nicht jeder.

„Ich sehe weit und breit keine Intelligenz“, sagt etwa die Informatikerin Ulrike von Luxburg von der Uni Tübingen mit Blick auf existierende künstliche Intelligenzen (abgekürzt KI). Was KI heute kann, sei „in keiner Form ähnlich oder gar gleich menschlicher Intelligenz“, schreibt der Philosoph Richard David Precht. Viele deutsche IT-Experten hielten den Begriff „künstliche Intelligenz“ nur für ein Marketingwort, fügt er hinzu. Der amerikanische KI-Unternehmer und Journalist Erik J. Larson hält intelligente Maschinen für einen „Mythos“. Andere sprechen, weniger gewählt, von „künstlicher Dummheit“.

Der Beifall ist nicht angebracht

Viele Intellektuelle führen ein Rückzugsgefecht gegen die vorrückende maschinelle Intelligenz. Sie mögen für ihren rhetorischen Heldenmut Beifall erhalten. Doch ihr Standpunkt erinnert an die Leugnung von Wissenschaft. Die Argumentationsmuster sind ähnlich, wie ich zeigen werde.

Dieser Text soll nicht beweisen, dass menschliche und künstliche Intelligenz dasselbe seien. Doch die menschliche Form der Intelligenz ist nicht das Maß aller Dinge. Andere Formen sind genauso real, eben auch künstliche Intelligenz. Die KI weitet sich quantitativ und qualitativ immer weiter aus. Auch in Felder hinein, die zuvor menschlichem Denken vorbehalten waren.


Zum Beispiel diagnostizieren sie bestimmte Krankheiten treffsicherer als Ärzte oder schreiben Texte, die sich lesen, wie von einem Mensch verfasst. Sie entscheiden mit über Lebenswege von Menschen, etwa indem sie die Chancen von Arbeitssuchenden auf dem Arbeitsmarkt einschätzen. Regierungen und Firmen treiben den ohnehin rasanten Fortschritt mit Milliarden Dollars, Euros oder chinesischen Yuan entschlossen an. Weitere verblüffende Leistungen künstlicher Intelligenz werden nicht lange auf sich warten lassen.

Jetzt einfach zu behaupten, maschinelle Intelligenz existiere gar nicht, nur um die Angst vieler Menschen zu zerstreuen, von smarten Geräten bevormundet, bemuttert oder ausgebootet zu werden, ist wohlfeil.

Wie man den Menschen etwas vormacht, zeigt anschaulich das Thema „Jobverlust durch KI“. Oft wird diese Möglichkeit kurzerhand negiert. Computer ersetzten keine Berufe, sondern nur Tätigkeiten, heißt es dann etwa. Soll es Ärzte, Journalisten und Juristen beruhigen, weil ja ihr Job weiterexistiert, während Kollege KI Artikel schreibt, Röntgenbilder oder Akten auswertet? Ist es gar keinen Gedanken wert, dass die teurere menschliche Arbeitskraft im Zweifel hie und da eingespart werden könnte?

Scheuklappen gegenüber dem Fortschritt

Ein weiter Kniff der KI-Leugnung: Relevante Information geflissentlich weglassen, um Menschen in falscher Sicherheit zu wiegen. Wie das geht, zeigte das Institut für Arbeitsmarkt- und Berufsforschung (IAB) im Jahr 2015 exemplarisch. Unter dem Titel „In kaum einem Beruf ist der Mensch vollständig ersetzbar“ heißt es: Busfahrer seien „überhaupt nicht“ durch Computer ersetzbar. Denn Autopiloten könnten ein Fahrzeug noch nicht vollständig führen. Es gebe bislang nur Fahrerassistenzsysteme.

Was die Studie vor sechs Jahren ausblendete, war schlicht die nahe Zukunft. Da Autoindustrie und Politik das autonome Fahren massiv vorantrieben, sieht die Sache heute schon ganz anders aus. In Monheim am Rhein etwa fahren seit Februar 2020 autonome Linienbusse. Zwar steuert ein „Operator“ hin und wieder per Joystick um Hindernisse herum. Dass die Busse früher oder später ganz ohne Aufpasser fahren sollen, sagt Betriebsleiter Michael Hammann in einem Video für RTL (Minute 00:34). Schließlich ist KI lernfähig und wird auch bald in der Lage sein unerwartete Hindernisse zu umfahren. Ein neues Gesetz erlaubt in Deutschland das fahrerlose Fahren in festgelegten Bereichen, unter anderem auch im Personennahverkehr. Volkswagen will ab 2025 autonome Taxis durch Hamburg fahren lassen.

Die gesamte Studie der IAB berücksichtigt ausdrücklich nur den damaligen Stand der Technik. Die Autoren setzten sich kurzerhand Scheuklappen auf, um dem rasenden digitalen Fortschritt nicht beachten zu müssen.

Argumentieren wie die Meister der Desinformation

Wichtige Aspekte einer Sache auszublenden, weil sie nicht ins gewünschte Narrativ passen, gehört zum Werkzeugkasten von Wissenschaftsleugnern. Darin findet sich auch das „Verschieben der Torpfosten“: Sobald der Gegner die Forderungen erfüllt hat, verschärft man diese.

Autonomer Bus, hier in Bad Birnbach
Autonomer Bus, hier in Bad Birnbach

Dieses Spiel ist im Fall von KI leicht möglich, da der Begriff „Intelligenz“ sehr unscharf ist. Stolze 71 Definitionen haben zwei KI-Forscher zusammengetragen, worauf ich zurückkommen werde. Das gibt freilich eine Menge Spielraum. KI-Leugner definieren Intelligenz immer so, dass Maschinen herausfallen. Wendig passen sie ihren Intelligenzbegriff dem jeweiligen Stand der KI-Forschung an.

Im Jahr 1997 ging das noch leicht. Damals besiegte der Schachcomputer „Deep Blue“ den Schachweltmeister Garri Kasparov. Bis dahin galten Schachspieler als ein Aushängeschild menschlicher Intelligenz. Wie konnte das passieren?

Schachspieler rechnen mögliche Zugkombinationen durch, wenn sie sich übers Brett beugen. Weil das seine Grenzen, lassen sie aber auch ihre Intuition in die Bewertung einer Stellung einfließen. Deep Blue glich diesen Aspekt der menschlichen Intelligenz durch brachiale Rechenleistung aus: Er berechnete im Match gegen Kasparov im Schnitt 126 Millionen Stellungen pro Sekunde. „Deep Blue hat nicht gewonnen, weil es schlauer als ein Mensch ist, sondern weil er Millionen Mal schneller als ein Mensch ist“, kommentierte der Neurowissenschaftler Jeff Hawkins. Damit sagt er sinngemäß: Mit blanker Rechenleistung zu gewinnen ist keine Intelligenz.

Schwammigkeit als Konzept

Doch so einfach lässt sich inzwischen nicht mehr argumentieren. Das asiatische Brettspiel Go ist sehr viel komplexer als Schach. Die Zahl möglicher Stellungen ist astronomisch und selbst für einen Supercomputer nicht berechenbar. Die KI AlphaGo Zero der britischen Google-Tochter „Deepmind“ spielt es trotzdem um Längen besser als jeder Mensch. AlphaGo Zero nutzt ein sehr leistungsstarkes „neuronales Netz“, das man sich wie ein vereinfachtes digitales Modell vernetzter Gehirnzellen vorstellen kann.

Die Software kannte anfangs nur die Grundregeln des Spiels und spielte millionenfach gegen sich selbst. Das neuronale Netz entwickelte dabei eine Art erfahrungsbasierte Mustererkennung: Gute Stellungen ähneln sich auf subtile Weise. Die Art, wie AlphaGo Zero seine unzureichende Rechenleistung ausgleicht, erinnert an menschliche Intuition.

Der Schachcomputer „Deep Blue“ von IBM, der 1997 den damaligen Weltmeister Garri Kasparov besiegte.
Schachcomputer Deep Blue

Da die KI auf ähnliche Weise lernt wie ein Gehirn, nämlich aus Erfahrung, verwundert es nicht, dass sie ähnliche Phänomene zeigt. Jeder Mystizismus ist fehl am Platz. Das Bauchgefühl des Computers besteht definitiv aus Nullen und Einsen, nichts anderem.

Trotz dieser Gewissheit kommen die erwartbaren Abwehrreflexe. Die vermeintliche Sonderstellung menschlicher Intelligenz wird mit Ausdrücken umschrieben, die auch für vieles andere stehen, was Menschen ausmacht. Die Go-spielende KI sei nicht „emotional“, betont Richard David Precht. Als weitere Alleinstellungsmerkmale menschlicher Intelligenz nennt er „Intuition“, „Spontanität“ und „Assoziation“. Die Informatikerin Ladan Pooyan-Weihs von der Hochschule Luzern wiederum umkreist „Intelligenz“ mit Konzepten wie neugierig und innovativ sein, Regeln brechen, Sinn für Humor oder Einfühlungsvermögen. Der Intelligenzbegriff lässt sich offenbar beliebig aufblähen. Der KI wird keine Chance gelassen.

Schwurbeln bremst die KI-Welle nicht

Um Gegenworte sind KI-Leugner nie verlegen. Eine KI könne lernen, so mit dem Nutzer zu interagieren, dass dieser sich wohlfühlt, sagte die Bremer KI-Forscherin Tanja Schultz bei einer Anhörung des Deutschen Ethikrates im Februar. „Ist das nicht schon nah an Empathie?“, fragte sie. „Das ist keine Empathie“, erwiderte der Philosoph Julian Nida-Rümelin tapfer, „sondern eine Simulation.“

Abgesehen davon, dass Schultz das Gegenteil gar nicht behauptet hatte: Nida-Rümelins Argument klingt verzweifelt. Hat sich die Verteidigungslinie schon soweit zurückgezogen? Zur philosophischen Frage nach Simulation und Realität? Dabei ist die Künstlichkeit künstlicher Intelligenz doch wohl unstrittig. Wenn die Intelligenz der Maschine künstlich ist, warum sollte ihre Empathie es nicht sein? Und wer kann sich bei einem Menschen sicher sein, ob dessen Mitgefühl „echt“ oder nur „gespielt“ ist? Es mag ja sein, dass in der Maschine „niemand zu Hause“ ist, wie es der amerikanische Philosoph John Searle ausdrückt. Aber das ändert nichts daran, dass KI tut, was sie nun einmal tut. Was, wenn sich das früher oder später nicht mehr von menschlichem Verhalten unterscheiden lässt? Die KI-Welle rollt. Sie lässt sich nicht wegschwurbeln.

Beinahe religiöser Eifer

In Nida-Rümelins Argument zeigt sich der lästigste Aspekt dieser Debatte: Ihre Unbedingtheit. Diese erinnert an die Kirchenleute, die nicht durch Galileo Galileos Teleskop schauen wollten. Die KI-Leugner ziehen die Grenze scharf und eindeutig. „Roboter können keine Moral“, spitzt es etwa Richard David Precht zu.

Mag sein, dass eine KI sich nicht schämt, wenn sie ein plattes Vorurteil äußert (was bei einigen Menschen nicht anders ist). Aber wenn Prechts plakativer Satz stimmen würde, dann würden viele KI-Forscher ihre Zeit verschwenden. Eines ihrer heißesten Forschungsthemen ist es zu verhindern, dass Maschinen sich zu sehr an moralischen Urteilen orientieren, die in der Gesellschaft kursieren. Neuronale Netze finden Vorurteile in Form von Mustern in den Daten und spiegeln sie in ihren Entscheidungen wieder.

Wie etwa der Sprachgenerator GPT-3 der kalifornischen Firma OpenAI. Der ergänzt einen von Menschen eingegebenen Satzanfang zu ganzen Geschichten, Liedtexten oder auch Programmcode. Gelernt hat er seine sprachliche Flexibilität aus Milliarden von Textseiten, die von Menschen verfasst wurden. Schreibt GPT-3 über Menschen mit schwarzer Hautfarbe hat dies oft einen negativen Beiklang. Sätze mit „Islam“ haben öfter einen Bezug zu Terrorismus als Sätze mit „Christentum“.

Ist „einprogrammierte“ Moral keine Moral?

Dagegen helfen könnte eine Art moralischer Kompass, wie ihn der Darmstädter KI-Forscher Kristian Kersting Maschinen einbauen will. Anhand des Kontextes, in dem Wörter oder Phrasen in Texten vorkommen, kann ein Algorithmus ihm eine moralische Wertigkeit zuordnen, wie Kerstings Team zeigte. Sie würde „einen Freund totschlagen“ als ein klares No-Go kennzeichnen, „Zeit totschlagen“ hingegen nicht. Die KI lernt das aus Daten, wieder ähnlich zum Menschen, der in der täglichen Praxis lernt, was sich gehört und was nicht.

Richard David Precht hingegen nennt die Moral in Computern „einprogrammiert“, suggeriert also, sie würde immer vom Programmierer als fester Regelsatz vorgegeben. Das soll wohl nach unechter Moral klingen. Doch welche Rolle spielt es, ob die Moral nun echt oder unecht ist? De facto wirkt KI längst in moralisch-ethische Fragen unserer Gesellschaft hinein.

Allein die Debatte darüber verändert unser Bewusstsein über die Vorurteile, die die KI gelernt hat, schließlich stammen sie von uns. Der Algorithmus hält uns den Moralspiegel vor und wir reagieren darauf – ein hochkomplexes Wechselspiel zwischen Mensch und Maschine beginnt. Das lässt sich nicht mit ein paar kategorischen Statements wegwischen. Etwas als unecht oder unmöglich zu kennzeichnen, bringt es nicht zum Verschwinden.

Die Mär vom siliziumbasierten Fachidioten

Die Leugnung der KI hat ihre Nuancen. Viele gestehen zwar zu, dass Maschinen in einzelnen Feldern intelligent agieren, etwa beim Brettspiel Go. Doch das sei ja noch lange keine „starke KI“, die eine beliebige intellektuelle Aufgabe mindestens genauso effizient lösen könnte, wie ein Mensch. Auch KI-Forscher argumentieren oft so. Sie stellen KI beharrlich als eine Art „Fachidiot“ dar, die immer nur eine spezifische Aufgabe meistert.

Zur „starken KI“ fehlen demnach das Weltwissen, Flexibilität und die Fähigkeit zum Querdenken (ein Begriff, den man sich nicht von Corona-Leugnern stehlen lassen sollte). Die größten Genies sahen oft weit über den Tellerrand hinaus, um zu ihren Meisterwerken zu gelangen. Der Physiker Isaac Newton etwa erkannte hinter dem Fallen eines Apfels vom Baum und der Bahn des Mondes um die Erde das gleiche Prinzip, die Gravitation. Die menschliche Fähigkeit, Hypothesen scheinbar aus der Luft zu greifen, ist entscheidend für den wissenschaftlichen Fortschritt.

Wer nun behauptet, dass KI das überhaupt nicht könne oder zumindest nicht auf absehbare Zeit, ist nicht ganz up-to-date. Zwar zeigen Algorithmen noch keine allgemeine Intelligenz, doch graduell nähern sie sich dieser an. Die Bereiche, auf die sie beschränkt sind, werden allgemeiner.

Ansätze von Weltwissen

Ein Ansatz, das zu zeigen, sind wieder Spiele. Doch statt ein besonders schweres Spiel exzellent zu beherrschen (Fachidiot), lernt die KI viele leichtere, dafür aber sehr unterschiedliche Spiele. Das ähnelt der menschlichen Intelligenz, die sich auch durch flexibles Meistern vieler mäßig anspruchsvoller Aufgaben im Alltag äußert. Computerspiele ähneln oft neuen, fremden Umgebungen, die der Spieler erkunden muss, um eine Strategie zu entwickeln. Manche Spiele sind einfach, wie etwa PacMan (friss möglichst viele Punkte im Labyrinth), manche komplexer: Eine Pyramide mit vielen Räumen, vielgestaltige Feinde, unterschiedliche Waffen, die man nutzen kann. Mit anderen Worten: Der Spieler muss sich Weltwissen verschaffen.

Die Firma Deepmind hat eine KI gebaut, die 57 verschiedene Atari-Spiele selbst erkundet und Strategien zur Punktemaximierung entwickelt. Dabei schnitt sie besser ab als ein durchschnittlicher menschlicher Spieler. Die KI ist also nicht nur gut in einem bestimmten Spiel, sondern beim Spielen an sich. Mithilfe von Versuch und Irrtum stolpert sie zunächst ungelenk durch die Spielwelten, lernt aber schnell aus Missgriffen und verbessert sich selbst. Macht es ein Mensch so viel anders?

Was Menschen auch gut können: Erfahrungen aus einem Bereich in einem anderen anwenden. Wer das Fahrrad reparieren kann, wird auch keinen Handwerker brauchen, wenn die Klospülung versagt. Eine KI indessen, die gelernt hat, auf Bildern Katzen zu erkennen, wird auf Röntgenbildern keine Tumoren diagnostizieren. Aber: Sie kann das aus Katzenbildern Gelernte für die Analyse der Röntgenbilder nutzen.

Grob erklärt, zerlegt ein neuronales Netz Bilder in Einzelteile. Davon gibt es spezifischere (Augen, Nasen) und abstraktere (Kanten, Kurven, Kreise). Die abstrakten Teile kann die KI auch für andere Anwendungen nutzen. Denn auch in Röntgenbildern gibt es Kanten und Kurven. Das hat praktischen Wert: Statt mit zehntausenden Röntgenaufnahmen als Trainingsmaterial, kommt die KI mit einigen hundert aus. Die Internetgiganten aus USA bieten vortrainierte KI als Service in ihren Clouds an. Das zeigt, dass KI in den Alltag vordringt, ob es angegrauten deutschen Denkern gefällt oder nicht.

Wissenschaftler nehmen KI sportlich

Während die Leugner KI ausdauernd als dumm hinstellen, wollen Physiker lernfähige Maschinen als Erkenntnisinstrument nutzen. „Wir wollen damit neue physikalische Gesetze entdecken“, sagte der Physiker Max Tegmark vom Massachusetts Institute of Technology (MIT) in Boston letzten November der New York Times. „In zehn Jahren wird maschinelles Lernen genauso wichtig für Physiker sein, wie Mathematik zu beherrschen“, sagt der Forscher.

Am MIT gibt es dafür ein eigenes Institut. Dort hat ein neuronales Netz aus einem Video mit fliegenden Raketen die Bewegungsgleichungen abgeleitet, die deren Bahnen bestimmen. Auch andere physikalische Gesetze konnte sie aus nackten Daten herleiten. In Daten vom Teilchenbeschleuniger CERN im Genf etwa erkannte sie, wie viele Grundbausteine ein Proton hat, ohne etwas über die zugrunde liegende Kernphysik zu wissen. Damit könnten einmal neue Elementarteilchen in dem gigantischen Datenstrom des Beschleunigers finden.

Tegmark beurteilt einen seiner Algorithmen auf eine Weise, die KI-Leugnern zu denken geben könnte (aber wahrscheinlich nicht wird): „Wie ein menschlicher Wissenschaftler probiert er viele verschiedene Strategien nacheinander aus“, schrieben die Forscher in einem Fachartikel. „Und wenn er das gesamte Problem nicht auf einen Schlag lösen kann, versucht er, es umzuwandeln und in einfachere Teile zu zerlegen, die separat angegangen werden können.“

Was!? Intelligente Tiere!?

Überflüssig wird all das die Wissenschaftler nicht machen. Aber sie werden sich mehr um das Große Ganze kümmern können, sich den tiefen Prinzipien hinter den Daten und Gleichungen der Physik widmen. Forscher wie Tegmark behandeln KI wie einen intelligenten Akteur, mit dem sie in einen fruchtbaren Dialog kommen können. Teils nimmt er ihnen Denkarbeit ab, teils inspiriert er sie zu neuen Einsichten. Die Forschung der Zukunft wird weder ohne menschliche, noch ohne künstliche Intelligenz auskommen. Vor diesem Hintergrund wirkt das beleidigte Aber-das-kann-doch-nicht-wirklich-denken schlicht engstirnig.

Hinter der Abwehrhaltung steckt der überkommene Anspruch von Menschen, exklusive Träger von Intelligenz zu sein. Die kognitiven Fähigkeiten von Tieren provozieren ähnlich eifersüchtige Kritik. Nachdem das Gorillaweibchen Koko von der Tierpsychologin Francine Patterson Zeichensprache lernte und damit kommunizierte, behaupteten Kritiker, das Tier verstehe die Sprache nicht und wende sie nicht bewusst an. Dabei machte Koko sogar Witze und kombinierte Wörter zu neuen Begriffen, etwa „Augenhut“ für eine Maske.

Auch Schleimpilze haben ihre Begabungen

Die Reaktionen der Kritiker, schreibt der Technologietrendforscher Mario Herger, „zeigen die tiefe Verunsicherung, die offenbar viele Menschen umtreibt, dass wir vielleicht doch nicht so einzigartig sind, wie wir meinen.“ Die Borniertheit überrascht angesichts der Allgegenwart von Intelligenz in der Natur. Diese muss ja nicht unbedingt mit Bewusstsein gepaart sein. Ein Schleimpilz ist ein denkbar primitives Wesen, das sich sicher nicht im Spiegel erkennen würde, aber den kürzesten Weg durch ein Labyrinth findet. „Der Intelligenzbegriff wird langsam aufgebohrt“, sagt der Biophysiker Hans-Günther Döbereiner von der Uni Bremen, der die kognitiven Fähigkeiten dieser Einzeller untersucht, zu denen auch Erinnerungsvermögen gehört.

Das Publikum verträgt eine ehrliche Debatte

Nun könnte man die Engstirnigkeit der KI-Leugner ignorieren und sich spannenderen Dingen widmen. Denn so ziemlich alles ist ergiebiger als diese leidige Debatte. Aber die Leugner suggerieren leider, KI sei keine neue Herausforderung, sondern nur ein gradueller Fortschritt in der Computertechnik. Sie verharmlosen die rollende KI-Welle. Das Publikum hört gerne Entlastendes, nachdem Tesla-Chef Elon Musk und der inzwischen verstorbene Astrophysiker Stephen Hawking es vor einer superintelligenten KI als Gefahr für die Existenz der Menschheit gewarnt haben.

Man muss die Menschen aber nicht wie kleine Kinder behandeln, die bei dem Begriff „künstliche Intelligenz“ sofort in Angststarre verfallen. Sie sind sicherlich fähig, eine ehrliche, offene Debatte zu führen, die sowohl von überzogenen Science-Fiction-Motiven als auch von Leugnung frei ist. Für diese braucht es einen erweiterten Intelligenzbegriff, in einem ähnlichen Sinne, wie man Fahrzeuge als eine Erweiterung menschlicher Bewegungsfreiheit verstehen kann. Ein Auto ist nicht schneller als ein Mensch. Denn schließlich sitzt dieser ja drin: Er ist also genauso schnell.

Universelle Intelligenz“

Einen interessanten Vorschlag für einen erweiterten Intelligenzbegriff gibt es schon sein 14 Jahren. Er stammt von den KI-Forschern Shane Legg und Marcus Hutter vom Dalle-Molle-Forschungsinstitut für Künstliche Intelligenz im Schweizerischen Lugano. Sie haben Gemeinsamkeiten von 71 Definitionen für Intelligenz untersucht, die von KI-Forschern, Psychologen und anderen erdacht worden sind. Dann haben sie versucht, diese in einer formalen Definition zusammenzufassen. Herausgekommen ist:

Intelligenz misst die Fähigkeit eines Agenten, Ziele in einer Vielzahl von Umgebungen zu erreichen.

Der „Agent“ muss nicht unbedingt ein Mensch sein. Die Forscher sprechen lieber von „universeller Intelligenz“. Eine KI ist intelligent, nur halt anders als ein Mensch. Es wird niemals einen Punkt geben, an dem KI „genauso“ intelligent ist wie ein Mensch. Diese Vorstellung macht keinen Sinn. Das heißt aber nicht, dass KI immer „dumm“ bleiben wird und man sich beruhigt zurücklehnen könnte. Die andere Intelligenz ist in der Welt und eine stetige Herausforderung für die Menschheit.

Mit einem solchen Blick auf das Thema ist eine kühle Analyse von Chancen und Risiken der KI möglich. Die Risiken sollten Staaten regulieren, wenn nötig scharf, bis hin zu harten Sanktionen oder Verboten gefährlicher KI-Anwendungen. Aber auch ein bewusster Umgang mit den Chancen ist wichtig: Welche Intelligenzleistungen wollen wir von Maschinen erbringen lassen und welche nicht? Da muss unsere Gesellschaft durch. Sich weiter in die eigene Tasche zu lügen, wäre fatal.

Verantwortlich im Sinne des Presserechts

Dr. Christian J. Meier

Walter-Trautmann-Weg 24
64823 Groß-Umstadt

www: https://scicaster.wixsite.com/christian-j-meier

E-Mail: meierchristianj@gmail.com

Tel: +49 6078 7821662

Weitere Mitarbeiterinnen und Mitarbeiter

Lektorat: Henning Engeln

VGWort Pixel