Rund 15 Millionen Deutsche sind laut Schätzungen des Deutschen Schwerhörigenbunds schwerhörig. Vor allem in lauten Umgebungen können die Betroffenen Gespräche nur schlecht verstehen und einzelne Stimmen nur mit Mühe heraushören. Forscher wollen das nun ändern.
Ein neuartiges Konzept für Hörhilfen, das Fraunhofer-Forschende mit entwickelt haben, soll künftig die Sprachverständlichkeit in komplexen Situationen verbessern und es erleichtern, einem einzelnen Sprecher zu folgen. Denn aktuell verfügbare Hörgeräte können keine Schnittstelle zwischen Ohr und Gehirn herzustellen und Schwerhörige beim selektiven Hören zu unterstützen. „Beim normal Hörenden funktioniert die Verbindung zwischen Gehirn und Ohr. Der Zuhörer weiß daher, auf welche Richtung er sich konzentrieren muss. Bei Schwerhörigen ist diese Fähigkeit stark beeinträchtigt“, sagt Dr. Axel Winneke, Wissenschaftler am Fraunhofer-Institut für Digitale Medientechnologien IDMT in Oldenburg. Auch Highend-Hörhilfen können noch nicht die Quelle hervorheben, die der Nutzer gerade hören will, besonders wenn zwei Personen gerade gleichzeitig sprechen. Über die Hirnaktivität kann man jedoch erkennen, wem der Schwerhörige zuhört. Und das lässt sich per Elektroenzephalografie (EEG) messen.
Kombination für besseres Hören
Rahmen des Projekts mEEGaHStim entwickeln der Forscherund sein Team gemeinsam mit Partnern aus Industrie und Forschung ein System, das die Sprachverständlichkeit in komplexen Situationen für Hörgeschädigte verbessert. Eine Kombination aus EEG, Audiosignalverarbeitung und Elektrostimulation der Hörareale soll das leisten. Dazu misst eine Gehirn-Computer-Schnittstelle die Aktivität des Gehirns mittels EEG. Anhand der Daten lässt sich dann feststellen, in welche Richtung beziehungsweise auf welche Sprachquelle der Hörgeschädigte seine Aufmerksamkeit richtet. Diese Information wird an das Hörgerät weitergeleitet, das dann ein Richtmikrofon (Beamformer) entsprechend ausrichtet. Der Beamformer verstärkt das vom Hörer bevorzugte Audiosignal und blendet unerwünschte Geräuschquellen, wie beispielsweise andere Sprecher, aus.
Die dritte Komponente ist die transkraniale Elektrostimulation (tES). Sie soll dann mit diesem Sprachsignal die Hörareale elektrisch stimulieren. Mit dieser Methode der Neurowissenschaft können die Forschenden die Aktivität des Hörzentrums beziehungsweise des auditiven Kortex‘ mit sehr kleinen Strömen gezielt stimulieren, um so zusätzlich die Sprachverständlichkeit zu optimieren. Die dazu erforderliche Hardware und Methodik zur Stimulation das Unternehmen neuroConn gemeinsam mit der Universität Oldenburg.
Smarte Hearables
In Designstudien wurde bereits visualisiert, wie die neue Hörhilfe aussehen könnte. Aufbau und Konzept orientieren sich an der Interaktion mit dem Gerät. Das Design soll dafür sorgen, dass der Träger die Hörhilfe als positiven Zugewinn empfindet, so der Plan der Projektpartner. Derzeit ist eine Stigmatisierung noch immer weit verbreitet.
Künftig könnten die im Vorhaben entwickelten Komponenten inklusive Sensorik in einen tragbaren Bügel integriert werden. Denkbar ist es auch, verfügbare Hörgeräte durch die neuen Module zu ergänzen und mit einem EEG-Sensor auszustatten. „Unser aktueller Prototyp liegt noch nicht in Form einer tragbaren Hörhilfe vor, er muss noch deutlich miniaturisiert werden“, räumt Winneke ein. Erste Tests mit normal Hörenden wurden bereits erfolgreich durchgeführt. Studien mit Schwerhörigen sollen nun folgen.
Weitere Anwendungsfelder
Die am Ohr getragene EEG-Messung könnte auch für andere Anwendungen genutzt werden. So lässt sich damit beispielsweise die Höranstrengung von Mitarbeitern am Arbeitsplatz erfassen. Die Technologie könnte zudem medizinischen Umfeld zum Einsatz kommen. Insbesondere in der Neurologie, um neurologische Erkrankungen wie Epilepsie zu überwachen.
„Denkbar ist es etwa, Patienten mithilfe von tragbarer EEG-Sensorik auch außerhalb der Klinik beobachten zu können. Im Projekt mEEGaHStim messen wir die Gehirnaktivität, um ein Hörgerät anzusteuern, aber man kann die Hirnströme natürlich ebenfalls bei neurologischen Störungen analysieren“, so Winneke. Gemeinsam mit anderen Forschern der Gruppe „Mobile Neurotechnologien“ am Fraunhofer IDMT arbeitet er daran, Multi-Sensor-Plattformen zur Elektroenzephalografie (EEG) in konkreten Anwendungsszenarien wie für Gesundheitsanwendung oder sicherheitskritische Arbeitsplätze verfügbar zu machen.