
Gehirn-Computer-Schnittstellen könnten Menschen mit schwerer Lähmung bis hin zum Locked-in-Syndrom die Möglichkeit eröffnen, wieder mit ihrer Umwelt zu kommunizieren. Ein Computer wandelt bestimmte Muster der Gehirnaktivität in Sprache um. Frühere Geräte verwenden meistens Featured Motions. Forscher haben nun ein System getestet, das diesen Umweg überflüssig macht: Es erkennt Gedanken direkt aus Buchstaben. In Kombination mit einem umfassenden integrierten Wörterbuch soll die Bedienung intuitiver und schneller werden.
Schwere neurologische Schäden, wie sie beispielsweise durch einen Schlaganfall oder die fortschreitende Krankheit Amyotrophe Lateralsklerose (ALS) verursacht werden, können dazu führen, dass Menschen die Kontrolle über ihre Körpermuskeln verlieren. Menschen, die mit dem sogenannten Locked-in-Syndrom leben, sind im vollen Besitz ihrer geistigen Fähigkeiten, können sich aber nicht mehr verständlich machen, weil sie weder sprechen noch sich bewegen können. Mit Hilfe von Brain-Computer-Interfaces versuchen Forscher, ihnen wieder Kontakt zur Außenwelt zu geben. Bisherige Systeme haben jedoch den Nachteil, dass die Bedienung meist nicht sehr intuitiv ist und jede einzelne Eingabe lange dauert.
Ermöglichen Sie eine natürliche Kommunikation
Ein Team um Sean Metzger von der University of California, San Francisco hat nun ein System entwickelt, das schneller und intuitiver zu bedienen sein soll als bisherige Modelle und eine geringe Fehlerquote aufweist. „Bestehende Gehirn-Computer-Schnittstellen für die Kommunikation verlassen sich typischerweise darauf, imaginäre Arm- und Handbewegungen in Buchstaben zu decodieren, damit beabsichtigte Sätze buchstabiert werden können“, erklären die Forscher. „Obwohl dieser Ansatz bereits vielversprechende Ergebnisse geliefert hat, könnte die direkte Dekodierung von Sprachtests in Sprache natürlicher und schneller sein.“
Metzger und seine Kollegen trainierten dafür ein System, das erkennt, an welchen Buchstaben eine Person denkt. Versuchsperson war ein 36-jähriger Mann, der nach einem Schlaganfall spastisch gelähmt ist und nicht mehr sprechen kann. Da er seinen Kopf noch bewegen kann, kommuniziert er im Alltag mit Hilfe eines so gesteuerten Sprachcomputers. Für Experimente mit Gehirn-Computer-Schnittstellen implantierten die Forscher mit seiner Zustimmung Elektroden in die Bereiche seines Gehirns, die mit Sprache in Verbindung stehen. In einer früheren Studie hatte er damit bereits ein System getestet, bei dem der Computer bis zu 50 Wörter entschlüsseln konnte, wenn der Proband versuchte, sie laut auszusprechen. Aufgrund seiner Lähmung erforderte dies jedoch erhebliche Anstrengungen und sein Wortschatz war begrenzt.
imaginäre Buchstaben
Das neue System hingegen ist in der Lage, imaginäre Buchstaben zu erkennen. Metzger und seine Kollegen brachten dem Probanden bei, die NATO-Buchstabiercodes zu verwenden, zum Beispiel „Alpha“ für A, „Charlie“ für C und „November“ für N. Sie zeichneten seine genaue Gehirnaktivität auf, als er diese Buchstabencodes dachte, und benutzten sie dazu das Selbstlernen künstlicher Intelligenz trainieren. Für das eigentliche Experiment präsentierten sie dem Probanden 75 verschiedene Sätze, die er einen nach dem anderen buchstabieren musste. Sie stellten ihm auch einige Fragen, die er über die Gehirn-Computer-Schnittstelle beantworten sollte.
Die Software wertete seine Gehirnsignale in Echtzeit aus und verglich sie außerdem mit einem integrierten Wörterbuch mit 1152 Wörtern, um herauszufinden, welcher Buchstabe und welches Wort am wahrscheinlichsten sind. Auf diese Weise erreichte das System eine relativ geringe Fehlerquote pro Zeichen von 6,13 Prozent. Im Vergleich zu seinem im Alltag genutzten Sprachcomputer, mit dem die Testperson etwa 17 Zeichen pro Minute eingeben kann, war er mit dem neuen Gerät deutlich schneller: Im Schnitt schaffte er 29,4 Zeichen pro Minute. Um mit der Rechtschreibung zu beginnen, reichte es aus, dass sich die Versuchsperson das Sprechen vorstellte. Er konnte das Programm mit einer imaginären Handbewegung beenden.
Erweitertes Wörterbuch
In weiteren Experimenten, in denen die Forscher die Spracherkennungsfähigkeiten der Software ohne die Probanden testeten, erweiterten sie das integrierte Wörterbuch auf über 9.000 Wörter. Die Vorzeichenfehlerquote stieg nur leicht auf 8,23 Prozent. “Diese Ergebnisse demonstrieren den klinischen Nutzen einer Sprachprothese zur Generierung von Sätzen aus einem großen Vokabular unter Verwendung eines buchstabierten Ansatzes und ergänzen frühere Beweise für die direkte Ganzwortdekodierung”, fassen die Autoren zusammen. In zukünftigen Studien wollen sie den Ansatz mit anderen Probanden validieren.
Quelle: Sean Metzger (University of California, San Francisco) und andere, Nature Communications, doi: 10.1038/s41467-022-33611-3