Etwa 15 Millionen Deutsche sind laut Schätzungen des Deutschen Schwerhörigenbunds e.V. schwerhörig. Betroffene können Gespräche, vor allem in lauten Umgebungen, nur schlecht verstehen. Besonders in Unterhaltungen mit mehreren Personen fällt es ihnen schwer, einzelne Stimmen herauszuhören. Ihnen gelingt es nicht, sich auf einen Sprecher zu konzentrieren und störende Signale auszublenden – Experten bezeichnen dieses Manko als Cocktailparty-Effekt.
Derzeitig verfügbare Hörgeräte sind nicht in der Lage, eine Schnittstelle zwischen Ohr und Gehirn herzustellen und Schwerhörige beim selektiven Hören zu unterstützen. »Beim normal Hörenden funktioniert die Verbindung zwischen Gehirn und Ohr. Der Zuhörer weiß daher, auf welche Richtung er sich konzentrieren muss. Bei Schwerhörigen ist diese Fähigkeit stark beeinträchtigt. Auch Highend-Hörhilfen können noch nicht die Quelle hervorheben, die der Nutzer gerade hören will, besonders wenn zwei Personen gerade gleichzeitig sprechen«, erläutert Dr. Axel Winneke, Wissenschaftler am Fraunhofer-Institut für Digitale Medientechnologien IDMT in Oldenburg. »Daher benötigt man die entsprechende Information aus dem Gehirn. Über die Hirnaktivität kann man erkennen, wem der Schwerhörige zuhört. Das lässt sich per Elektroenzephalografie (EEG) messen«. Die EEG-Analyse wird im Projekt mEEGaHStim (siehe Kasten) federführend vom Fraunhofer IDMT-HSA und der Universität Oldenburg durchgeführt. Hier entwickeln der Wissenschaftler und sein Team gemeinsam mit Partnern aus Industrie und Forschung ein System, das die Sprachverständlichkeit in komplexen Situationen für Hörgeschädigte verbessert. Eine Kombination aus EEG, Audiosignalverarbeitung und Elektrostimulation der Hörareale soll dies leisten. Der Trick: Eine Gehirn-Computer-Schnittstelle misst mittels EEG die Aktivität des Gehirns. Anhand der Daten lässt sich feststellen, in welche Richtung bzw. auf welche Sprachquelle der Hörgeschädigte seine Aufmerksamkeit richtet. Diese Information wird an das Hörgerät weitergeleitet, das dann ein Richtmikrofon – den sogenannten Beamformer – entsprechend ausrichtet. Der Beamformer verstärkt das vom Hörer bevorzugte Audiosignal und blendet die unerwünschten Geräuschquellen, z.B. andere Sprecher, aus. Eine dritte Komponente, die transkraniale Elektrostimulation (tES), soll dann mit diesem Sprachsignal die Hörareale elektrisch stimulieren. Mit dieser Methode der Neurowissenschaft beeinflussen die Forschenden die Aktivität des Hörzentrums beziehungsweise des auditiven Kortex‘ mit sehr kleinen Strömen gezielt, um so zusätzlich die Sprachverständlichkeit zu optimieren. Die erforderliche Hardware und Methodik zur Stimulation entwickelt im Projekt der Partner neuroConn GmbH gemeinsam mit der Universität Oldenburg.
Hearable der Zukunft
Im Projekt wurde bereits in Designstudien visualisiert, wie die neue Hörhilfe aussehen könnte. Aufbau und Konzept orientieren sich an der Interaktion mit dem Gerät. Das Design hat dabei den Anspruch, die Hörhilfe als positiven Zugewinn für den Träger zu inszenieren, entgegen einer immer noch weit verbreiteten Stigmatisierung. Künftig könnten die im Vorhaben entwickelten Komponenten inklusive Sensorik in einen tragbaren Bügel integriert werden. Denkbar ist es auch, verfügbare Hörgeräte durch die neuen Module zu ergänzen und mit einem EEG-Sensor auszustatten. »Unser aktueller Prototyp liegt noch nicht in Form einer tragbaren Hörhilfe vor, er muss noch deutlich miniaturisiert werden«, so Winneke. In ersten Probandentests mit normal Hörenden hat das Prinzip der EEG-basierten Hörunterstützung bereits gut funktioniert. Studien mit Schwerhörigen sind in Planung.
Mobile Neurotechnologie
Die am Ohr getragene EEG-Messung eignet sich auch für andere Anwendungsszenarien, beispielsweise um die Höranstrengung von Mitarbeitern am Arbeitsplatz zu erfassen. Die Technologie lässt sich zudem im medizinischen Umfeld einsetzen, insbesondere in der Neurologie, um neurologische Erkrankungen wie Epilepsie zu überwachen. »Denkbar ist es etwa, Patienten mithilfe von tragbarer EEG-Sensorik auch außerhalb der Klinik beobachten zu können. Im Projekt mEEGaHStim messen wir die Gehirnaktivität, um ein Hörgerät anzusteuern, aber man kann die Hirnströme natürlich ebenfalls bei neurologischen Störungen analysieren«, sagt Winneke. Der Forscher ist Mitarbeiter der Gruppe »Mobile Neurotechnologien« am Fraunhofer IDMT am Standort in Oldenburg. Diese arbeitet daran, Multi-Sensor-Plattformen zur Elektroenzephalografie (EEG) in konkreten Anwendungsszenarien verfügbar zu machen – beispielsweise in Gesundheitsanwendungen oder am sicherheitskritischen Arbeitsplatz, um die Analyse von Hirnaktivitäten alltagstauglich zu machen.