Gibt es Künstliche Intelligenz?

Man muss Spracherkennungssoftware & Co. nicht "intelligent" nennen. Warum es ein Mann vor gut 60 Jahren doch tat.

„Denkt das für mich?“, entgegnet ein Passant in der Fußgängerzone auf die Frage, was der Begriff „Künstliche Intelligenz“ in ihm auslöst. Die Sorge, von der Maschine ersetzt zu werden schwingt bei mehreren Teilnehmern der vom Autor spontan initiierten Umfrage mit.

Künstliche Intelligenz. Provokanter könnte ein Name für eine Technik kaum sein. Andere Buzz-Wörter wie Nanotechnologie oder Big Data versprechen zwar auch neue Welten voller technischer Wunder, zweifeln aber die Einzigartigkeit des Menschen nicht an.

Wer kam eigentlich auf die Idee, Software „intelligent“ zu nennen? Und mit welcher Absicht?


Der Erfinder des Begriffs KI ist klar auszumachen: Der US-amerikanische Mathematiker John McCarthy. Im Sommer 1955 warb er für eine Konferenz zum Thema am Dartmouth College in Hanover, US-Staat New Hampshire. Dabei benutzte er „Artificial Intelligence“ zum ersten Mal. Zum Treffen im folgenden Jahr kamen Größen des frisch getauften Gebietes: Der Mathematiker Marvin Minsky, der zuvor eine lernfähige Maschine gebaut hat, und der Vordenker der digitalen Kommunikation Claude Shannon, der als einer der größten Mathematiker des 20. Jahrhunderts gilt. McCarthy selbst wollte Computern Sprache beibringen.

Die Männer dachten groß – ganz groß: Jeder Aspekt des Lernens und aller anderen Merkmale von Intelligenz lasse sich präzise genug beschreiben, um sie mit einer Maschine zu simulieren. Die Pioniere überschätzten sich, oder sie unterschätzten die Aufgabe: Zehn handverlesene Experten könnten binnen eines Sommers bedeutende Fortschritte erzielen, schrieben sie. Was sie wirklich erreichten, bleibt unklar, denn ein Abschlussbericht fehlt.

Dass McCarthy den Begriff KI wählte, könne auch weniger glamouröse Gründe haben, meint der amerikanische Experte Jerry Kaplan in seinem Buch über KI. Der Pionier habe das neue Feld gegenüber der damals schon weit entwickelten „Kybernetik“ abgrenzen wollen, die Wissenschaft von der Steuerung und Regelung in lebenden Organismen und Maschinen.

Denkende Maschinen: Für die KI-Pioniere völlig normal.

Wie dem auch sei. Aus heutiger Sicht erscheint die Namensgebung „Künstliche Intelligenz“ weit anmaßender, als sie die Pioniere damals meinten. Sie wollten die menschliche Intelligenz „simulieren", wie McCarthy schrieb. Eine Simulation nähert sich einem realen Vorbild an, das für die exakte Beschreibung zu komplex ist. Die Bescheidenheit des Wissenschaftlers steckt in diesem Ausdruck: Er liefert nur Modelle. Auch KI stellt nur dar, wie Forscher meinen, dass Intelligenz funktioniere. Das Denkbild trägt immer den Vorbehalt in sich, falsch zu sein. Das ist der Fall, sobald das simulierte Verhalten vom realen abweicht. Bei heutiger Bilderkennungssoftware zeigt sich genau das. Sie lässt sich leichter in die Irre führen, als ein Mensch. Der Computer erkennt etwa eine Teekanne nicht mehr als solche, wenn man sie mit der Oberfläche eines Golfballs überzieht. Menschen haben damit kein Problem, weil sie sich an der Form orientieren. Der Rechner scheint „Kanne“ an anderen Kriterien festzumachen.

Zurück zur Historie: Im Kontext der Zeit war es kein großes Ding zu sagen, dass Maschinen denken. Einige Jahre zuvor hatte der Computerpionier Alan Turing, nach dessen Modell heute jeder Rechner arbeitet, vom Smartphone bis zum Supercomputer, den nach ihm benannten Test entworfen. Wenn ein Computer in einem Frage-Antwort-Spiel einen Menschen davon überzeugen kann, er sei auch ein Mensch, hat er den Test bestanden. Der Prüfer würde meinen, die Maschine könne denken. Dabei hat sie das nur simuliert. Hätte der Mensch den Computer mehr gefordert, etwa nach seinen Emotionen befragt, wäre ihm der Unterschied vielleicht noch aufgefallen. Wie sehr die Antworten denen eines Menschen ähneln ist graduell und verschiedene Tester schätzen die "Menschähnlichkeit" unterschiedlich ein. Bei einem Turing-Test im Jahr 2011 stuften Tester und das beiwohnende Publikum die KI "Cleverbot" fast so menschlich ein, wie einen ebenfalls befragten Menschen. Denkt die KI nun, oder nicht?

Turing schrieb, diese Frage sei bedeutungslos. Demnach dehnt man den Begriff „Denken“ auf Computer aus. Man behauptet damit nicht, sie täten dasselbe wie Menschen. Turing glaubte, dass die Menschen sich bis zum Ende des 20. Jahrhunderts daran gewöhnt haben würden. Er hatte recht: Wir sagen Sätze wie: „Das Internet weiß alles“. Kaum jemandem läuft dabei ein kalter Schauer über den Rücken. Denn natürlich ist damit nicht menschliches Wissen, also eine gerechtfertigte Überzeugung, und schon gar nicht eine Art Bewusstsein gemeint. In einem Computernetzwerk wohnt kein Geist, der in diesem Sinn etwas wissen könnte.

Frei von Bedenken voran

Somit gab es vor Jahrzehnten kaum Vorbehalte gegen den Begriff KI und er lebte weiter. Dafür sorgten seine Erfinder, die damals das Feld dominierten und ihre Schüler. Auch die Medien hatte McCarthy am Haken. Obwohl der Mathematiker mit Marketing nichts am Hut hatte, schuf er einen Begriff, wie ihn der gewiefteste PR-Stratege nicht besser hätte erfinden können. Journalisten waren fasziniert von ersten Erfolgen. Schon 1959 spielte eine KI nach wenigen Stunden Training besser Dame als ihr Programmierer.

Bald etablierte sich das Feld. McCarthy gründete in den frühen 1960ern das „Stanford Artificial Intelligence Lab“. Gleichzeitig förderte das amerikanische Militär die KI-Forschung. Das adelte das Feld zu einer vollwertigen Disziplin und löste ihr „goldenes Zeitalter“ aus, wie es in einem Bericht des nationalen Forschungsrates der USA (National Research Council) heißt.

Nach Höhen und Tiefen erlebt die KI derzeit einen neuen Hype, befeuert durch Berge von Daten und immer schnellere Rechner. Die Technik aber ist die gleiche, wie vor Jahrzehnten. Heutige KI schlägt Meister im Go, dem komplexesten Brettspiel, oder Dermatologen bei der Erkennung von Hautkrebs. Doch eines hat sich nicht geändert: Jede KI ist eine Art Fachidiot, der nur in einer Sache glänzt. Zudem imitiert sie nur einzelne Aspekte menschlicher Intelligenz, nie das volle Programm. Psychologen zählen dazu nicht nur Lernfähigkeit, Logik und Mustererkennung - die Stärken von KI. Sondern auch Verstehen, Bewusstsein, Kreativität, Planung oder Emotionen. Schlaue Rechner ähneln einem Nerd, der brillant programmiert, aber bei jedem Bewerbungsgespräch abblitzt. Kein Computer zeigt bislang etwas wie eine allgemeine Intelligenz, also die Fähigkeit, neue Umgebungen mit neuen Problemen zu meistern.

Menschliche Intelligenz ist einmalig. Bis jetzt jedenfalls

Der Rechner mag denken, aber er kapert das menschliche Denken nicht – noch nicht. Denn ob das Gehirn prinzipiell etwas anderes tut als ein Computer, oder auch nur Symbole verarbeitet, ist bislang ungeklärt. Wenn nicht, wäre es durchaus denkbar, dass ein Computermodell einst das ganze Spektrum menschlicher Intelligenz kopiert und nicht mehr nur simuliert. Ob der Mensch etwas besitzt, das ihn von allen Tieren und Maschinen unterscheidet oder nicht, bleibt erst einmal eine Glaubensfrage.

„Gibt es das überhaupt: Künstliche Intelligenz?“, fragt eine andere Passantin bei der Blitzumfrage. Vorerst lautet die Antwort: Ja und nein. Es ist Intelligenz, aber eben keine menschliche. Das „künstlich“ steht da nicht umsonst.

Flatrate ab 8 € RiffReporter unterstützen
KI für alle