Sprechen ohne Stimmbänder mithilfe von KI

Das neuartige Gerät kann auf die direkt auf den Kehlkopf einer Person geklebt werden. Foto: Jun Chen Lab/UCLA

Wie ein Pflaster wird das neu entwickelte Gerät auf die Haut am Hals geklebt mit dessen Unterstützung mit Schädigung der Stimmbänder oder nach einer Krebsoperation wieder sprechen können sollen.

Ein Team von Ingenieuren an der US-amerikanischen University of California, Los Angeles (UCLA) hat das dünne Gerät entwickelt, sie berichteten kürzlich darüber im Fachjournal „Nature Communications“.

Das von Jun Chen, Assistenzprofessor für Bioengineering an der UCLA Samueli School of Engineering und seinen Kollegen entwickelte bioelektrische System kann die Bewegungen der Larynxmuskeln einer Person detektieren und diese Signale in hörbare Sprache übertragen – mit einer Genauigkeit von nahezu 95 Prozent. Technisch möglich wird das mittels Maschinellem Lernen.

Zwei Komponenten und mehrere Schichten

Das winzige, einem Pflaster ähnelnde Gerät besteht aus zwei Komponenten. Eine sich selbst mit Energie versorgende Komponente detektiert von den Muskeln generierte Signale und konvertiert diese mit hoher Wiedergabetreue analysierbare elektrische Signale. Diese wiederum werden dann mithilfe eines Machinelles-Lernen-Algorithmus in Sprachsignale übersetzt. Die zweite Komponente wandelt die Signale in die gewünschte Stimmäußerung um.

Aufbau des neuen Geräts zur Unterstüzung der Stimme. Abbildung: Jun Chen Lab/UCLA

Jede der beiden Komponenten besteht aus zwei Schichten, eine besteht aus der biokompatiblen Siliziumverbindung Polydimethylsiloxan (PDMS) mit elastischen Eigenschaften. Bei der zweiten handelt es sich um eine magnetische Induktions-Schicht aus Kupferinduktionsspulen. Zwischen beiden Komponenten gibt es eine fünfte Schicht aus PDMS gemischt mit Mikromagneten, die ein magnetisches Feld erzeugt.

Das Gerät nutzt einen weichmagnetoelastischen Sensormechanismus, der von Chens Team im Jahr 2021 entwickelt wurde. Es ist in der Lage, Änderungen des Magnetfelds zu erkennen, wenn dieses durch mechanische Kräfte – in diesem Fall die Bewegung der Kehlkopfmuskulatur – verändert wird. Die in die magnetoelastischen Schichten eingebetteten Induktionsspulen tragen dazu bei, elektrische Signale mit hoher Genauigkeit für die Erkennung zu erzeugen.

Das Gerät misst gut 3 cm auf jeder Seite, wiegt etwa 7 g und ist nur 1,5 cm dick. Dank des doppelseitigen, biokompatiblen Klebebands lässt es sich leicht an der Kehle einer Person in der Nähe der Stimmbänder befestigen und kann bei Bedarf wiederverwendet werden.

Stimmerkrankungen sind in allen Alters- und Bevölkerungsgruppen verbreitet, Schätzungen zufolge erleben fast 30 Prozent der Menschen im Laufe ihres Lebens mindestens eine solche Störung. Doch bei therapeutischen Ansätzen wie chirurgischen Eingriffen und Stimmtherapie kann sich die Stimmerholung von drei Monaten bis zu einem Jahr hinziehen, wobei einige invasive Techniken eine längere postoperative Stimmpause erfordern.

„Bestehende Lösungen wie tragbare Elektrokehlkopfgeräte und tracheoösophageale Punktionsverfahren können unbequem, invasiv oder unangenehm sein“, erläuterte Chen, der die Wearable Bioelectronics Research Group an der UCLA leitet. Dieses neue Gerät sei eine tragbare, nichtinvasive Option, die Patienten bei der Kommunikation in der Zeit und während der Erholungsphase nach der Behandlung von Stimmstörungen unterstützen könne, so Chen weiter.

Maschinelles-Lernen-Algorithmus korreliert Signale mit Wörtern

In ihren Experimenten testeten die Forscher die tragbare Technologie an acht gesunden Erwachsenen. Sie sammelten Daten zur Kehlkopfmuskelbewegung und verwendeten einen Algorithmus für Maschinelles Lernen, um die daraus resultierenden Signale mit bestimmten Wörtern zu korrelieren. Anschließend wählten sie über die Steuerungskomponente des Geräts ein entsprechendes Ausgangssignal für die Stimme aus. Das Forschungsteam demonstrierte die Genauigkeit des Systems, indem es die Teilnehmer fünf Sätze laut und stimmlos aussprechen ließ, darunter „Hi, Rachel, how are you doing today?“ und „I love you!“.

Die Gesamtvorhersagegenauigkeit des Modells lag bei 94,68 Prozent, wobei das Stimmsignal der Teilnehmer durch die Steuerungskomponente verstärkt wurde. Den Autoren zufolge zeigt das, dass der Erfassungsmechanismus ihr Kehlkopfbewegungssignal erkannte und den entsprechenden Satz, den die Teilnehmer sagen wollten, zuordnete. Für die Zukunft plant das Forschungsteam, den Wortschatz des Geräts durch Maschinelles Lernen weiter zu vergrößern. Auch Test bei Menschen mit Sprachstörungen sind geplant.