Neurologie Wieder sprechen dank Hirnimplantat
Neue Hirnimplantate sollen Menschen helfen, die nach einem Schlaganfall oder durch eine Krankheit nicht mehr sprechen können. Zwei Arbeitsgruppen aus Kalifornien ist jetzt ein Durchbruch gelungen.
ALS, die amyotrophe Lateralsklerose, ist eine nicht heilbare neurodegenerative Erkrankung. Patienten verlieren nach und nach die Kontrolle über ihre Muskeln. Oft können sie irgendwann nicht mal mehr sprechen. Eine Arbeitsgruppe der Stanford University in Kalifornien arbeitet mit einer ALS-Patientin, um ihr Hirnimplantat weiterzuentwickeln und zu testen. Das Implantat soll diesen und anderen Menschen die Fähigkeit zu sprechen zurückgeben.
Implantate im Gehirn zeichnen Nervenaktivität auf
In der kürzlich veröffentlichten Studie sind zwei Videos enthalten, die zeigen, wie die Patientin mit dem System umgeht. Aus ihrem Kopf ragen zwei kleine Quader, an die Kabel angeschlossen sind. Diese zeichnen ihre Hirnaktivität auf. Vor sich sieht sie einen Bildschirm, auf dem nacheinander Beispielsätze erscheinen.
So funktioniert der Versuch: Aus dem Kopf der Probandin ragen zwei kleine Quader, an die Kabel angeschlossen sind. Diese zeichnen ihre Hirnaktivität auf.
Im ersten Video soll sie versuchen, die Sätze zu sprechen. Sie hat noch rudimentäre Kontrolle über ihre Stimmbänder, kann Laute von sich geben, die aber nicht verständlich sind. Sobald sie fertig ist, taucht aber auf dem Bildschirm der Satz auf, den das System aus den Daten aus ihrem Gehirn entschlüsselt hat, der dann von einer Computerstimme gesprochen wird. Oft fehlerfrei - und wenn sich doch Fehler einschleichen, bleibt der Satz im Kontext trotzdem verständlich.
Im zweiten Video soll sie den Satz sogar nur denken. Auch das funktioniert. In dem Video ist auch zu erkennen, dass ihr der Umgang mit dem System Spaß macht. Als sie den Satz "I enjoy them coming", "Ich genieße es, wenn sie kommen", denken soll, macht das System daraus "I enjoy them bombing", "Ich genieße es, wenn sie bombardieren" oder umgangssprachlich auch "Ich genieße es, wenn sie floppen." Als sie den Satz auf dem Bildschirm sieht, muss sie kurz lachen.
Deutlich besser als frühere Ansätze
Es ist nicht das erste Mal, dass es Forschenden gelingt, anhand von Daten aus dem Gehirn richtig abzulesen, was jemand sagen will. Die Neuerung an diesem System und einem weiteren, das zeitgleich von einer Arbeitsgruppe der University of California in San Francisco (UCSF) vorgestellt wurde, ist, dass eine künstliche Intelligenz die Verarbeitung der Daten übernimmt. Diese muss zwar individuell für jeden Patienten trainiert werden, doch auch bisherige Ansätze waren sehr individuell.
Der Vorteil der KI ist, dass sie sehr viel besser die Daten interpretieren kann. Beim System der Stanford University mit einem Vokabular von 50 Wörtern liegt die Fehlerrate bei etwa einem von zehn Wörtern. Das ist fast dreimal besser als bisher. Und bei einem Vokabular von mehr als 125.000 Wörtern ist die Fehlerrate mit knapp 24 Prozent immer noch besser als bei vorherigen Systemen mit kleinem Vokabular.
Auch schneller sprechen möglich
Auch die Sprechgeschwindigkeit hat sich deutlich gesteigert, von zum Teil fünf Wörtern pro Minute auf mehr als 60 für das System aus Stanford und sogar knapp 90 für das System der UCSF. Für Englischsprachige ist das etwa die Hälfte der normalen Sprechgeschwindigkeit. Auf Deutsch wäre es sogar noch näher dran, allerdings wurde das System bisher nicht mit deutschen Patienten getestet.
Dank der niedrigen Fehlerrate und hohen Sprechgeschwindigkeit sind diese Systeme jetzt dabei, die Schwelle zur Nutzbarkeit zu überschreiten, sagen die Forschenden in einer gemeinsamen Pressekonferenz. Die Patientinnen aus den beiden Studien könnten sogar an Gesprächen teilhaben. Marktreif seien die Systeme allerdings noch nicht. In beiden Studien wurden die Systeme jeweils nur an einer Patientin getestet und sind individuell an sie angepasst.
Sprechen mit der eigenen Stimme
Die Probandin der Studie der UCSF, eine ehemalige Lehrerin, die seit dem Alter von 30 wegen eines Schlaganfalls gelähmt ist, kann sogar mit ihrer eigenen Stimme sprechen. Aus der 15-minütigen Rede, die sie an ihrer Hochzeit hielt, konnten die Forschenden - auch wieder mithilfe von KI - ihre Stimme klonen. Diese spricht dann die Sätze, die die Probandin denkt. Außerdem haben die Forschenden einen Avatar für sie entwickelt: ein Gesicht auf dem Bildschirm, auch wieder basierend auf ihrem eigenem, das die Sätze mitspricht. Mit dem System würde sie sich wieder wie eine ganze Person fühlen, schreibt die Probandin der "New York Times".
Der Unterschied zwischen den beiden Ansätzen liegt hauptsächlich in den Implantaten selbst. Das Implantat der Stanford University ist sehr engmaschig und liest die Aktivität einzelner Nervenzellen aus. Das Implantat der UCSF ist breiter gefächert und zeichnet die Aktivität von ganzen Nervenbündeln auf. Beide Ansätze funktionierten gut, bescheinigen sich die Forschenden gegenseitig. Ob einer von beiden besser sei, würde sich erst nach weiteren Tests zeigen.