Faszination Technik Wie gedachte Sprache akustisch hörbar gemacht werden kann
In unserer Rubrik „Faszination Technik“ stellen wir Konstrukteuren jede Woche beeindruckende Projekte aus Forschung und Entwicklung vor. Heute: eine Neurosprachprothese, mit der stumme Menschen ohne fremde Hilfe mit der Außenwelt kommunizieren können.
Anbieter zum Thema

Sprachneuroprothetik zielt darauf ab, Personen, die aufgrund körperlicher oder neurologischer Beeinträchtigungen nicht sprechen können, einen natürlichen Kommunikationskanal zu bieten. Seit mehreren Jahren arbeiten das Cognitive Systems Lab (CSL) der Universität Bremen, das Department of Neurosurgery an der niederländischen Maastricht Universität und das ASPEN Lab an der Virginia Commonwealth Universität (USA) an einer Neurosprachprothese. Mit ihr sollen sprachbezogene neuronale Prozesse im Gehirn direkt in hörbare Sprache umgesetzt werden. Dieses Ziel ist nun erreicht.
Wir haben es geschafft, dass unsere Versuchspersonen sich reden hören, obwohl sie sich das Sprechen nur vorstellen
Die Gehirnstromsignale von freiwilligen Probanden, die sich vorstellten zu sprechen, wurden durch die Neurosprachprothese direkt in eine hörbare Ausgabe überführt – und zwar in Echtzeit ohne wahrnehmbare Verzögerung. Das Forschungsergebnis wurde in dem Wissenschaftsjournal „Nature Communications Biology“ publiziert.
Neurosprachprothese als Closed-Loop-System
Die Neurosprachprothese basiert auf einem Closed-Loop-System, das Technologien aus der modernen Sprachsynthese mit Gehirn-Computer-Schnittstellen verbindet. Dieses System wurde von Miguel Angrick am CSL entwickelt. Als Eingabe erhält es die neuronalen Signale der Nutzenden, die sich vorstellen zu sprechen. Es transformiert diese mittels maschineller Lernverfahren praktisch zeitgleich in Sprache und gibt diese hörbar als Rückmeldung an die Nutzenden aus.
Studie mit freiwilliger Epilepsiepatientin als Basis
Die veröffentlichte Forschungsarbeit basiert auf einer Studie mit einer freiwilligen Epilepsiepatientin, der zu medizinischen Untersuchungen Tiefenelektroden implantiert wurden und die sich zur klinischen Überwachung im Krankenhaus aufhielt. Im ersten Schritt las die Patientin Texte vor, aus denen das Closed-Loop-System mittels maschineller Lernverfahren die Korrespondenz zwischen Sprache und neuronaler Aktivität lernte. Im zweiten Schritt wurde dieser Lernvorgang mit geflüsterter und mit vorgestellter Sprache wiederholt. Dabei erzeugte das Closed-Loop-System synthetisierte Sprache. Obwohl das System die Korrespondenzen ausschließlich auf hörbarer Sprache gelernt hatte, wird auch bei geflüsterter und bei vorgestellter Sprache eine hörbare Ausgabe erzeugt. Dies lasse den Schluss zu, dass die zugrundeliegenden Sprachprozesse im Gehirn für hörbar produzierte Sprache vergleichbar sind zu denen für geflüsterte und vorgestellte Sprache.
(ID:47728098)