Während Hawking seine "Stimme" bis zuletzt über Muskelbewegungen steuerte – erst über den Daumen, später über einen Wangenmuskel – verfolgen Forscher heute weitergehende Ansätze, die von peripheren Muskelbewegungen ganz unabhängig sind. "Bereits heute können Prothesen oder Sprachsysteme rein über Hirnströme gesteuert werden", sagt Professor Dr. med. Ulf Ziemann, Ärztlicher Direktor der Abteilung Neurologie und Co-Direktor am Hertie-Institut für klinische Hirnforschung der Universität Tübingen. Möglich ist das entweder über Elektroenzephalografie (EEG) direkt auf der Kopfhaut, oder es werden in einem invasiven Eingriff Elektroden auf die Gehirnoberfläche aufgebracht, um die dortige Aktivität zu messen.
Die auf einer solchen BCI-Schnittstelle basierenden Systeme sind bislang allerdings noch recht grob und ermöglichen nur eine begrenzte Anzahl an Bewegungen. Für Gelähmte können sie dennoch heute schon eine große Hilfe sein. Indem sie deren motorische Gehirnsignale direkt an die Muskeln weiterleiten, ermöglichen sie zumindest einfache Bewegungen wie das Füllen und Zum-Mund-Führen eines Glases. Im Bereich der Sprache müssen die Patienten bislang per Hirnstrom Buchstaben oder Wörter auswählen, die ihnen auf einem Bildschirm präsentiert werden – "ein anstrengendes und zeitraubendes Verfahren, bei dem nicht mehr als zehn Wörter pro Minute generiert werden können", so Ziemann. Zum Vergleich: Die normale Sprechgeschwindigkeit liegt bei rund 150 Wörtern pro Minute. In diese Größenordnung wollen Mediziner nun mithilfe neuer BCI-Techniken vordringen. Ziemann weist hier besonders auf die Arbeit von Dr. Anumanchipalli von der University of California in San Francisco hin, der auch auf der DGKN-Tagung im Rahmen des Präsidentensymposiums über die Dekodierung von sprachrelevanten Vorgängen im Gehirn sprechen wird.
Anumanchipalli und sein Team verfolgen den naheliegenden Ansatz, die BCI-Elektroden direkt auf dem motorischen Sprachzentrum der Großhirnrinde zu platzieren. "Dort entstehen die Signale, über die die Motorik von Zunge, Lippen und Kehlkopf beim Sprechen aktiviert wird", erläutert Ziemann. Auf diese Weise werde der synthetische Sprachgenerator intuitiv, quasi wie ein künstlicher Kehlkopf, direkt und ohne Umweg über einen Bildschirm angesteuert. Dass dieses Konzept aufgehen kann, zeigten die kalifornischen Mediziner bei Tests mit Epilepsie-Patienten, denen im Rahmen von Operationsvorbereitungen ohnehin ein dichtes Elektrodennetz direkt über dem motorischen Sprachkortex implantiert worden war. Indem die Probanden hunderte vorgegebener Sätze sprachen, trainierten sie einen Dekoder, dessen Sprachausgabe später auch für Unbeteiligte relativ gut verständlich war. In weiterführenden Versuchen konnte Anumanchipalli zeigen, dass die Dekodierung der Hirnsignale auch dann möglich war, wenn die Probanden die Sätze nicht aussprachen, sondern sie nur lautlos "mimten" – ein Szenario, das der Situation von sprachunfähigen Patienten deutlich näherkommt. Auch wenn vor einer breiten Anwendung noch weitere intensive Forschungs- und Entwicklungsarbeit notwendig ist, zeigt Ziemann sich optimistisch: "Dies könnte der Weg sein, um Schwerstgelähmten wieder zu einer flüssigen Kommunikation zu verhelfen."
MEDICA.de; Quelle: Arbeitsgemeinschaft der Wissenschaftlichen Medizinischen Fachgesellschaften e.V (AWMF)