Richtlinien für Gehirn-Computer-Schnittstellen gefordert

Technologien, die Hirnaktivität in Steuersignale von Computern, Robotern oder Prothesen übersetzen, sind bereits sehr weit entwickelt. Namhafte Wissenschaftler fordern jetzt einen verantwortungsbewussten Umgang mit solchen Gehirn-Computer-Schnittstellen.

International führende Wissenschaftler auf dem Gebiet der Neurophysiologie, der Neurotechnologie und der Neuroethik haben in einem Beitrag für das Fachmagazin „Science“ ethische Richtlinien für den Einsatz von Gehirn-Computer-Schnittstellen formuliert. Sie sollen Datenschutz, Haftung und Sicherheit bei hirngesteuerten Systemen gewährleisten; bisher wurden diese Aspekte wenig beachtet. Sie sind teilweise noch völlig ungeklärt.

Zentrale Forderung ist eine „Veto“-Funktion, die unbeabsichtigte Befehle unterbricht. Die Forscher, darunter die Tübinger Wissenschaftler Niels Birbaumer und Surjo R. Soekadar, schlagen außerdem vor, dass alle Daten vorübergehend und verschlüsselt gespeichert werden sollten, wie bei der Blackbox eines Flugzeugs. Hintergrund: Bei implantierbaren Systemen oder Gehirn-Computer-Schnittstellen, die Gehirngewebe auch direkt stimulieren können, sei besondere Vorsicht geboten: Im Extremfall sei ein sogenanntes „Brainjacking“ nicht auszuschließen, also die Manipulation des Systems zur gezielten Beeinflussung von Hirnfunktionen oder Verhalten.

Erfolgreiche Forschung

Gehirn-Computer-Schnittstellen sind Systeme, die Hirnaktivität in Steuersignale von Computern, Robotern oder Prothesen übersetzen. Bereits 1999 fand der Tübinger Neuropsychologe Niels Birbaumer eine Möglichkeit, Patienten mit sogenanntem Locked-In-Syndrom mithilfe von Hirnsignalen Briefe buchstabieren zu lassen. 2017 ermöglichte er auch vollständig Gelähmten im complete locked-in state (CLIS) einfache Ja/Nein Antworten zu geben. Der Tübinger Psychiater und Neurowissenschaftler Surjo R. Soekadar zeigte zuletzt, dass Gehirn-Computer-Schnittstellen auch im Alltag einsetzbar sind. Beispielsweise können Querschnittsgelähmte mithilfe eines hirngesteuerten Exoskeletts selbstständig essen und trinken.

Zwar ist es aktuell noch nicht möglich, mit Gehirn-Computer-Schnittstellen komplexere Gedanken auszulesen, weiß Soekadar. „Dies kann sich aber möglicherweise bald ändern. Wir müssen daher vom Ende her denken.“ Die aufgezeichneten Hirnsignale müssten vor unerlaubtem Zugriff geschützt werden. Außerdem stelle sich die Frage der Verantwortung für Fehler, die bei der Übersetzung von Hirnaktivität in Steuersignale auftreten könnten. Als zentrale Forderung mahnen die Autorinnen und Autoren hier eine „Veto“-Funktion an, um unbeabsichtigte Steuerbefehle der Gehirn-Computer-Schnittstelle zu unterbrechen. „Der Mensch muss zu jedem Zeitpunkt in der Lage sein, die Maschine zu stoppen“, so Soekadar. Auch sein System verfüge über eine Veto-Funktion, die über eine bestimmte Augenbewegung ausgelöst wird. Elektrische Hirnsignale, die von der Kopfoberfläche abgeleitet werden, könnten für diese Funktion noch nicht zuverlässig genutzt werden.

Private Investoren am Start

Mittlerweile haben auch private Investoren, wie Mark Zuckerberg (Facebook) oder Elon Musk (Tesla) das Forschungsgebiet für sich entdeckt. Richtlinien könnten Forschern, Entwicklern und Anwendern auf dem Weg zum alltäglichen Einsatz der hirngesteuerten Systeme helfen, verantwortungsbewusst mit ethischen Aspekten der Technologie umzugehen. Gleichzeitig ist es aus Sicht der Forscher wichtig, die Öffentlichkeit über Möglichkeiten und Grenzen der neuen Technologie zu informieren. Bisher begeisterten Gehirn-Computer-Schnittstellen noch als sensationelle Neuheiten – die gesellschaftliche Diskussion darüber sollte jedoch faktenbasiert stattfinden.

„Die technologischen Fortschritte im Bereich der Gehirn-Computer-Schnittstellen entwickeln sich derzeit so rasant, dass es höchste Zeit ist, rechtliche und ethische Rahmenbedingungen zu definieren und durchzusetzen“, fordert Jens Clausen, Neuroethiker an der Pädagogischen Hochschule Freiburg und Mitglied des Internationalen Zentrums für Ethik in den Wissenschaften an der Universität Tübingen.

Eine Frage der Ethik sei auch der Umgang mit Hoffnungen, die bei Patienten und ihren Angehörigen geweckt werden. Aufsehenerregende Demonstrationen hirngesteuerter Systeme führten oft zu überzogenen Erwartungen. Die Medien sowie wirtschaftliche Profiteure seien deshalb in der Verantwortung, den Nutzen, aber auch Grenzen und Risiken dieser Technologien, ausgewogen darzustellen. Die Vermittlung von Wissen über technische Möglichkeiten und Grenzen (sogenannte „Neuroliteracy“) müsse Teil des öffentlichen Bildungsauftrags werden.

Info: Fachartikel im Magazin „Science“, Titel: „Help, Hope and Hype“ (DOI: 10.1126/science.aam7731)