Künstliche Intelligenz entschlüsselt Hirnaktivität

Bei vielen Aufgaben ist künstliche Intelligenz der menschlichen schon längst überlegen. Künftig könnten Ideen aus der Informatik auch die Hirnforschung revolutionieren. Forscher haben jetzt gezeigt, wie sie, wie ein selbstlernender Algorithmus menschliche Hirnsignale entschlüsselt, die von einem Elektroenzephalogramm (EEG) gemessen wurden.

Die Forscher mehrere Gruppen aus dem Freiburger Exzellenzcluster BrainLinks-BrainTools um den Neurowissenschaftler Privatdozent Dr. Tonio Ball haben ihre Erkenntnisse im „Human Brain Mapping“  demonstriert. Zu den mit Hilfe künstlicher Intelligenz entschlüsselten Hirnsignalen zählten zum Beispiel ausgeführte, aber auch bloß vorgestellte Fuß- und Handbewegungen oder eine imaginäre Rotation von Gegenständen. Obwohl ihm keine Merkmale zur Auswertung vorgegeben sind, arbeitet der Algorithmus den Wissenschaftlern zufolge so schnell und präzise wie herkömmliche Systeme, die für die Lösung bestimmter Aufgaben anhand vorher bekannter Hirnsignal-Eigenschaften entworfen wurden – und sich deswegen nicht in allen Fällen eignen.

Vom Gehirn inspiriert

Die Nachfrage nach solch vielseitigen Schnittstellen zwischen Mensch und Maschine ist groß. So würde man sie zum Beispiel am Universitätsklinikum Freiburg zur Früherkennung epileptischer Anfälle nutzen. Darüber hinaus könnten sie auch die Kommunikationsmöglichkeiten für Schwerstgelähmte verbessern oder eine automatisierte Diagnostik in der Neurologie erlauben.

„Unsere Software basiert auf Modellen, die vom Gehirn inspiriert sind und sich als äußerst hilfreich dabei erwiesen haben, verschiedene natürliche Signale, wie zum Beispiel Sprachlaute, zu entschlüsseln“, sagt der Informatiker Robin Tibor Schirrmeister. Zur Dekodierung der EEG-Daten kam diese Methode zum Einsatz. So genannte künstliche neuronale Netze sind das Herzstück des aktuellen Projekts bei BrainLinks-BrainTools. „Das Tolle an dem Programm ist, dass wir keine Merkmale vordefinieren müssen. Die Informationen werden schichtweise, also in mehreren Instanzen, mittels einer non-linearen Funktion verarbeitet. Somit lernt das System selbst, Aktivitätsmuster von verschiedenen Bewegungen zu erkennen und voneinander zu unterscheiden“, erklärt Schirrmeister.

Das Modell ist an die Verbindungen zwischen Nervenzellen im menschlichen Körper angelehnt, wo elektrische Signale von Synapsen über Zellfortsätze zum Zellkern und wieder hinausgeleitet werden. Entsprechende Theorien gab es bereits seit Jahrzehnten, in der Praxis konnten sie jedoch nicht eingesetzt werden. „Erst mit der Rechenleistung heutiger Computer wurde das Modell praktikabel“, so Schirrmeister.

Künstlicher Intelligenz per Karte auf der Spur

Die Genauigkeit des Modells steigt mit einer größeren Anzahl von Verarbeitungsschichten. Bis zu 31 kamen bei der Studie zum Einsatz. Dabei spricht man von „Deep Learning“. Problematisch jedoch war bisher der Umstand, dass die Verschaltung eines Netzwerks nach dem Lernvorgang kaum noch interpretierbar ist. Alle algorithmischen Prozesse passieren unsichtbar im Hintergrund. Die Software erstellt deshalb Karten, anhand derer die Forscher die Dekodierungsentscheidungen nachvollziehen konnten. Die Wissenschaftler können dem System jederzeit neue Datensätze hinzufügen. „Im Unterschied zu bisherigen Verfahren können wir direkt an die Rohsignale gehen, die das EEG vom Gehirn aufnimmt. Dabei ist unser System mindestens genauso präzise oder sogar besser“, sagt Versuchsleiter Tonio Ball. Das Potenzial der Technologie ist längst nicht ausgeschöpft. Deshalb will der Forscher sie nun mit seiner Gruppe weiterentwickeln: „Unsere Vision für die Zukunft sind selbstlernende Algorithmen, die in der Lage sind, unterschiedlichste Absichten des Nutzers noch zuverlässiger und schneller anhand seiner Hirnsignale zu erkennen.“ Darüber hinaus könnten solche Algorithmen künftig die neurologische Diagnostik unterstützen.