zum Hauptinhalt
Die Probanden mussten bei der Studie im Kopf kooperieren, gegen ihren Willen konnte nichts ausgelesen werden.

© dpa/Nolan Zunk/University of Texas in Austin

Sprachverarbeitung im Gehirn mitverfolgt: Scanner liest in Gedanken, zumindest ein bisschen

Forscher scannen das Gehirn eines Menschen und können auf seine Gedanken rückschließen. Ob das schon bald einen Nutzen in der Praxis hat, ist aber fraglich.

Von Alice Lanzke, dpa

Mit Hirnscanner und KI haben US-Forscher bei freiwilligen Probanden bestimmte Arten von Gedanken zumindest grob erfassen können. So konnte ein von ihnen entwickelter Decoder mithilfe eines bildgebenden Verfahrens in bestimmten experimentellen Situationen ungefähr wiedergeben, was den Teilnehmern durch den Kopf ging.

Wie das Team jetzt im Fachblatt „Nature Neuroscience“ berichtet könnten mit der Technologie nicht heimlich Gedanken ausgelesen werden. Die Hirn-Computer-Schnittstelle, für die keine Operation notwendig ist, könnte aber Menschen helfen, die ihr Sprachvermögen zum Beispiel in Folge eines Schlaganfalls verloren haben. Fachleute sind allerdings skeptisch.

Hirn-Computer-Schnittstellen (Brain-Computer-Interfaces; BCI) beruhen auf dem Prinzip, menschliche Gedanken durch technische Schaltkreise zu lesen, zu verarbeiten und in Bewegungen oder Sprache zu übersetzen. Auf diese Weise könnten etwa Gelähmte per Gedankensteuerung ein Exoskelett steuern oder Menschen mit Locked-In-Syndrom mit ihrer Außenwelt kommunizieren. Viele der entsprechenden Systeme, die derzeit erforscht werden, erfordern jedoch die operative Implantation von Elektroden.

Bei dem neuen Ansatz bildet ein Computer auf Grundlage von Hirnaktivitäten Wörter und Sätze. Diesen Sprachdecoder trainierten die Forschenden, indem sie drei Probanden 16 Stunden lang Geschichten hören ließen, während diese in einem funktionellen Magnetresonanztomographen (fMRT) lagen. Mit einem solchen fMRT können Durchblutungsänderungen von Hirnarealen sichtbar gemacht werden, die Aktivität der Neuronen anzeigen.

Der Sprachdecoder wurde über viele Stunden auf die Hirnaktivität der Freiwilligen trainiert.

© dpa/Nolan Zunk/University of Texas in Austin

Im nächsten Schritt bekamen die Probanden neue Geschichten zu hören, während ihre Hirnaktivität weiter untersucht wurde. Der zuvor trainierte Sprachdecoder war nun in der Lage, aus den fMRT-Daten Wortfolgen zu erstellen, die den Forschenden zufolge den Inhalt des Gehörten weitgehend korrekt wiedergaben. Das System übersetzte dabei die im fMRT aufgezeichneten Informationen nicht in einzelne Wörter. Vielmehr nutzte es die im Training erkannten Zusammenhänge sowie Künstliche Intelligenz (KI), um bei neuen Geschichten die gemessenen Hirnaktivitäten den wahrscheinlichsten gehörten Phrasen zuzuordnen.

Dieses Vorgehen erklärt Rainer Goebel, Leiter der Abteilung für kognitive Neurowissenschaften an der niederländischen Maastricht-Universität, in einer unabhängigen Einordnung so: „Eine zentrale Idee der Arbeit war es, ein KI-Sprachmodell zu benutzen, um die Anzahl der möglichen Phrasen, die mit einem Hirnaktivitätsmuster im Einklang stehen, stark zu reduzieren.“

In einem Pressegespräch zur Studie veranschaulichte Mitautor Jerry Tang das Ergebnis der Tests: So habe der Decoder den Satz „Ich habe meinen Führerschein noch nicht“ als „Sie hat noch nicht einmal angefangen, Fahren zu lernen“ wiedergegeben. Das Beispiel illustriert laut Tang große Schwierigkeiten des Modells mit Pronomen. „Woran das liegt, wissen wir aber noch nicht.“

Insgesamt sei der Decoder dabei erfolgreich, bei neuen, nicht trainierten Geschichten Phrasen auszuwählen, die Wörter des Originaltextes oder zumindest einen ähnlichen Bedeutungsgehalt aufwiesen, so Goebel. „Es gab aber auch recht viele Fehler, was für eine vollwertige Hirn-Computer-Schnittstelle sehr schlecht ist, da es für kritische Anwendungen – zum Beispiel Kommunikation bei Locked-In-Patienten – vor allem darauf ankommt, keine falschen Aussagen zu generieren.“ Noch mehr Fehler wurden generiert, als die Probanden sich eigenständig eine Geschichte vorstellen sollten oder einen kurzen animierten Stummfilm zu sehen bekamen, und der Decoder Ereignisse darin wiedergeben sollte.

Der Decoder erkannte viele Wörter exakt oder konnte sie sinngemäß wiedergeben, machte aber auch Fehler.

© University of Texas at Austin

Für Goebel sind die Resultate des vorgestellten Systems insgesamt zu schlecht: „fMRT-basierte BCIs werden wohl auch in Zukunft auf Forschungsarbeiten mit wenigen Probanden – wie auch in dieser Studie – beschränkt bleiben.“

Auch Christoph Reichert vom Leibniz-Institut für Neurobiologie ist skeptisch: „Wenn man sich die gezeigten Beispiele des präsentierten und rekonstruierten Textes ansieht, wird schnell klar, dass diese Technik noch weit davon entfernt ist, einen gedachten Text zuverlässig aus Gehirndaten zu generieren.“ Trotzdem deute die Studie an, was möglich sein könne, wenn sich die Messtechniken verbesserten.

Hinzu kommen ethische Bedenken: Je nach künftiger Entwicklung könnten Maßnahmen zum Schutz der geistigen Privatsphäre nötig sein, schreiben die Autoren selbst. Allerdings zeigten Versuche mit dem Decoder, dass die Probenden sowohl beim Training, als auch bei der folgenden Anwendung aktiv mitmachen mussten. „Wenn diese während des Dekodierens im Kopf zählten, Tiere benannten oder an eine andere Geschichte dachten, wurde der Prozess sabotiert“, beschreibt Jerry Tang. Ebenso schnitt der Decoder schlecht ab, wenn das Modell mit einem anderen Menschen trainiert worden war.

Zur Startseite

showPaywall:
false
isSubscriber:
false
isPaid:
showPaywallPiano:
false