Künstliche Intelligenz: Der Code des Gehirns soll in den Chip

Künstliche Intelligenz basiert auf altem Wissen über das Gehirn. Um weiterzukommen, müssen KI-Entwickler mit Hirnforschern kooperieren. Und umgekehrt. Doch der Weg dahin ist lang, wie eine Tagung in Bonn zeigte.

5 Minuten
Blick durch die Röhre eines Magnetresonanztomografen auf den Kopf eines Patienten.

Hirnforschung ist eine eigenartige Disziplin: Ihr Gegenstand ist gleichzeitig ihr wichtigstes Werkzeug, als würde die Skulptur eines Bildhauers sich selbst modellieren. Seit Jahrtausenden denken Gehirne über das Gehirn nach. Schon die alten Ägypter beschrieben die Oberfläche des Denkorgans.

In der Jetztzeit erweitern Hirnforscher das Prinzip „Hirn erforscht Hirn“ in die Technik: Zusammen mit Informatikern, Physikern und Hardwareentwicklern wollen sie das Gehirn vereinfacht simulieren und mit elektronischen Bauteilen nachbauen, um den Wissensgewinn voranzutreiben. Künstliche Intelligenz, sowohl als Soft- als auch als Hardware, wird zum entscheidenden Erfolgsfaktor für die Hirnforschung.

Wer das weiß, wundert sich nicht über das Ausstellungsstück in der Aula des Deutschen Zentrums für Neurodegenerative Erkrankungen (DZNE) in Bonn. In einer Vitrine liegt ein 50 Zentimeter langes Bauteil voller Chips und Leiterbahnen. Es gehört zu einem Computer namens „The Machine“, einem Prototypen des Hardwareherstellers HP, der ein wichtiges Arbeitsprinzip des Gehirns nachempfindet, dazu gleich mehr. Im nahen Hörsaal tagen Forschende aus aller Welt. „Es ist die erste Konferenz, die die drei Themen Neuroforschung, KI und Hardware zusammenbringt“, sagt Joachim Schultze, Direktor für Systemmedizin am DZNE, der das Treffen zusammen mit dem Wissenschaftsjournal Nature organisiert hat.

Die heutige KI ist Hirnforschern zu teuer

Was bewegt die Forscher, die Grenzen ihrer Disziplinen zu überwinden? Es geht darum, eine eingeschlafene Wechselbeziehung wieder zu beleben, weil beide Seiten sie brauchen. Die Algorithmen der KI sind einfach gestrickt, entsprechend dem Stand des Neurowissens von vor Jahrzehnten. Software simuliert Neuronen, die untereinander durch Synapsen vernetzt sind. Beim Lernen verändern die Synapsen die Verstärkung, mit der sie ein eingehendes Signal an das nächste Neuron übertragen. Das „Wissen“ des Netzes spiegelt sich in den vielen individuell justierten Verstärkungen.

Um ihre Netze lernfähiger zu machen, fügen KI-Experten immer mehr vom Gleichen hinzu: mehr simulierte Neuronen, mehr simulierte Synapsen. Weil aber Rechner nicht darauf spezialisiert sind, Synapsen zu simulieren, stößt diese Viel-hilft-viel-Methode an ihre Grenzen. Schlagzeilenträchtige Erfolge, wie künstliche Intelligenzen, die besser pokern als Pokerprofis oder eine Bildbeschreibung in ein Bild umsetzen, gelingen nur dank des Einsatzes von vielen Prozessoren, die Unmengen an Trainingsdaten und Energie verschlingen. Die Branche braucht daher lernfähige Algorithmen und Hardware, die schneller lernt und dabei weniger Energie verschlingt. Ganz wie das Gehirn, das nicht mehr Energie verbraucht als eine Glühbirne.

Effizientere KI würde auch der Hirnforschung aus einer Klemme helfen. Diese sammelt immer mehr Messdaten aus dem Gehirn. „Wir machen hochauflösende Aufnahmen bis hinunter in die Ebene von einzelnen Zellen“, sagt Schultze. Bei 100 Milliarden Nervenzellen im menschlichen Gehirn, von denen jede über 1000 Synapsen ausbildet, führt das zu einer enormen Datenmenge. Hirnforscher verwenden diverse bildgebende Verfahren. Weil sie auch das lebende Gehirn vermessen, produzieren sie neben Bildern auch Filme und somit noch mehr Daten. Dazu kommen genetische Daten und Daten über die Proteine in den Neuronen. Die Hirnforschung nutzt KI, um komplexe Muster in den Messdaten aufzuspüren. Doch die aktuellen KI-Techniken sind, wie gesagt, ineffizient. „Es sind zu viele Daten, es ist zu teuer, sie auszuwerten“, sagt Schultze. Eigentlich brauchen die Forscher billigere und schnellere KI-Verfahren.

Das Gehirn geht anders mit Daten um

Ansätze dafür gibt es. Was der klassischen KI viel Effizienz nimmt, ist der ständige Datenverkehr zwischen Prozessoren und Datenspeichern. Das Gehirn hingegen trennt Speicher und Prozessor nicht: Synapsen übertragen Information von einem Neuron zum anderen und gleichzeitig speichern sie Information. Das tun sie, indem sie beim Lernen zu unterschiedlicher Größe anwachsen, wodurch sie Signale unterschiedlich verstärken. Die Größe von Synapsen dient somit als Speicher für Erfahrungen. Sie sind eben keine Programmzeilen, die in einen Prozessor geladen und dort verarbeitet werden müssen.

Hardwareentwickler nähern sich dem natürlichen Prinzip an, etwa mit dem Rechner „The Machine“, dessen Prototyp das DZNE nutzt. Er hat einen riesigen zentralen Arbeitsspeicher, der so viele Daten fasst wie 3.000 Bluray-Discs, etwa 160 Terabyte. Mehrere Prozessoren können gleichzeitig auf diesen Datenpool zugreifen, was die Wege der Daten immerhin verkürzt. Damit konnte das DZNE die Datenverarbeitung um das 100-Fache beschleunigen – bei 60 Prozent weniger Energieverbrauch.

In Zukunft könnten Computer neuartige elektronische Bauelemente erhalten, die gleichzeitig Signale leiten und Information speichern, so genannte Memristoren: Diese verändern ihren elektrischen Widerstand abhängig davon, wie viel elektrische Ladung durch sie geflossen ist, also abhängig von ihrer „Erfahrung“.

Der Code des Gehirns ist noch im Dunkeln

Die Effizienz des Gehirns hat indessen noch weitere Quellen. Eine davon liegt in der Anatomie des Netzes aus Neuronen und Synapsen. Die künstlichen neuronalen Netze sind sehr einfach gestrickt. Die Neuronen bilden Schichten. Jedes Neuron der einen Schicht ist mit sämtlichen Neuronen der nächsten Schicht verbunden. Im Gehirn hingegen bilden die Verbindungen komplexe Schaltkreise, die bestimmte Funktionen ausüben, zum Beispiel für das Erlernen von neuen Begriffen anhand weniger Beispiele. In Bonn war oft von „Lernregeln“ die Rede, die in den Netzwerken des Gehirns codiert, aber noch nicht entschlüsselt seien und die heutiger KI komplett fehlten. Um sie zu entschlüsseln, bräuchte man eine Art Landkarte der Kommunikationswege im Gehirn.

Moritz Helmstaedter vom Max-Planck-Institut für Hirnforschung in Frankfurt/Main will die Gehirnschaltkreise „in ihrer ganzen Komplexität“ kartieren, wie er bei seinem Vortrag versprach. Das könne zu einer „besseren KI“ führen. Das Team fertigt feine Schnitte des Gehirns und macht elektronenmikroskopische Aufnahmen davon. Dann benutzt es KI, um den Nervenverbindungen quer durch die einzelnen Schichtaufnahmen zu folgen. So entsteht eine 3-D-Karte des Nervengewebes. Das machen sie mit Gehirnen von Mäusen oder auch von Menschen. Dabei konnten sie markante Unterschiede zwischen den Verschaltungen in den Gehirnendieser beiden Arten dingfest machen. Über den Zweck dieser speziell menschlichen Schaltkreise können die Forscher bislang nur spekulieren: Das Frankfurter Team hat rund eine Million Synapsen des menschlichen Hirns kartiert, nur ein Hundertmillionstel der gesamten Anzahl an Synapsen.

Ein Teil des Heuschreckengehirns im Spezialchip

Um Schaltkreise des Gehirns besser zu verstehen, bauen Forscher sie als Hardware nach. Das Ergebnis nennen sie neuromorphe Computer. Darin imitieren elektronische Bauelemente die Arbeitsweise von Synapsen und Neuronen direkt, anstatt nur als Beschreibung in Form von Software. Noch backen die Wissenschaftler damit kleine Brötchen: Sie imitieren neuronale Schaltkreise von Insekten, die nur wenige Neuronen umfassen.

Computerhersteller haben dabei oft Anwendungen im Blick. Eine davon stellte Yulia Sandamirskaya von Intel in Bonn vor. Heuschrecken erkennen im Gewusel des Schwarms zuverlässig einzelne Artgenossen, die mit ihnen auf Kollisionskurs sind. Den entsprechenden neuronalen Schaltkreis haben die Forscher in Intels neuromorphen Chip namens Loihi einprogrammiert. Er könnte in Drohnenschwärmen eingesetzt werden, um Kollisionen zu vermeiden. Solche autonomen Fluggerätebrauchen energieeffiziente KI, die sie mit an Bord nehmen können, um unabhängig zu agieren.

Die Erforschung des Gehirns und die Suche nach einer besseren KI gehen Hand in Hand, das wurde auf der Tagung deutlich. Computer nähern sich dem Gehirn an und helfen dadurch, das Denkorgan besser zu verstehen. Gleichzeitig wird die Hardware effizienter. Oder wie Charlotte Frenkel von der TU Delft in Bonn meinte: Die Effizienz von Hardware und ihre Ähnlichkeit zu biologischen Gehirnen seien „zwei Seiten der gleichen Medaille“.

Verantwortlich im Sinne des Presserechts

Dr. Christian J. Meier

Walter-Trautmann-Weg 24
64823 Groß-Umstadt

www: https://scicaster.wixsite.com/christian-j-meier

E-Mail: meierchristianj@gmail.com

Weitere Mitarbeiterinnen und Mitarbeiter

Lektorat: Karl Urban

VGWort Pixel