banner

Nachricht

May 17, 2023

Geist

Betroffene des Locked-in-Syndroms könnten bald wieder „sprechen“.

In Alexandre Dumas‘ klassischem Roman „Der Graf von Monte-Cristo“ erleidet eine Figur namens Monsieur Noirtier de Villefort einen schrecklichen Schlaganfall, der ihn gelähmt zurücklässt. Obwohl er wach und bei Bewusstsein bleibt, ist er nicht mehr in der Lage, sich zu bewegen oder zu sprechen, und verlässt sich darauf, dass seine Enkelin Valentine das Alphabet aufsagt und ein Wörterbuch durchblättert, um die Buchstaben und Wörter zu finden, die er braucht.

Mit dieser rudimentären Form der Kommunikation gelingt es dem entschlossenen alten Mann, Valentine vor der Vergiftung durch ihre Stiefmutter zu bewahren und die Versuche seines Sohnes zu vereiteln, sie gegen ihren Willen zu verheiraten.

Dumas‘ Schilderung dieses katastrophalen Zustands – in dem, wie er es ausdrückt, „die Seele in einem Körper gefangen ist, der seinen Befehlen nicht mehr gehorcht“ – ist eine der frühesten Beschreibungen des Locked-in-Syndroms. Diese Form der schweren Lähmung tritt auf, wenn der Hirnstamm geschädigt ist, meist aufgrund eines Schlaganfalls, aber auch als Folge von Tumoren, traumatischen Hirnverletzungen, Schlangenbissen, Drogenmissbrauch, Infektionen oder neurodegenerativen Erkrankungen wie Amyotropher Lateralsklerose (ALS).

Man geht davon aus, dass die Erkrankung selten vorkommt, es ist jedoch schwer zu sagen, wie selten sie ist. Viele eingeschlossene Patienten können durch gezielte Augenbewegungen und Blinzeln kommunizieren, andere können jedoch völlig unbeweglich werden und ihre Fähigkeit verlieren, ihre Augäpfel oder Augenlider zu bewegen, sodass der Befehl „Blinzeln Sie zweimal, wenn Sie mich verstehen“ hinfällig wird. Infolgedessen können Patienten durchschnittlich 79 Tage in einem bewegungslosen Körper verbringen, bei Bewusstsein, aber nicht in der Lage zu kommunizieren, bevor sie die richtige Diagnose erhalten.

Das Aufkommen von Gehirn-Maschine-Schnittstellen hat die Hoffnung geweckt, die Kommunikation für Menschen in diesem eingesperrten Zustand wiederherzustellen und ihnen die Möglichkeit zu geben, sich wieder mit der Außenwelt zu verbinden. Bei diesen Technologien wird typischerweise ein implantiertes Gerät verwendet, um die mit der Sprache verbundenen Gehirnwellen aufzuzeichnen und dann Computeralgorithmen zu verwenden, um die beabsichtigten Nachrichten zu übersetzen. Die aufregendsten Fortschritte erfordern kein Blinzeln, kein Blickverfolgen oder versuchte Lautäußerungen, sondern erfassen und vermitteln stattdessen die Buchstaben oder Wörter, die eine Person still in ihrem Kopf sagt.

„Ich habe das Gefühl, dass diese Technologie wirklich das Potenzial hat, den Menschen zu helfen, die am meisten verloren haben, Menschen, die wirklich eingesperrt sind und überhaupt nicht mehr kommunizieren können“, sagt Sarah Wandelt, eine Doktorandin für Informatik und neuronale Systeme am Caltech in Pasadena .

Aktuelle Studien von Wandelt und anderen haben den ersten Beweis dafür geliefert, dass Gehirn-Maschine-Schnittstellen interne Sprache entschlüsseln können. Diese Ansätze sind zwar vielversprechend, aber oft invasiv, mühsam und teuer, und Experten sind sich einig, dass sie noch erheblich weiter entwickelt werden müssen, bevor sie eingesperrten Patienten eine Stimme geben können.

Ein Foto des querschnittsgelähmten Patienten Sarshar Monoucheher aus dem Jahr 2019, der die an der Technischen Universität Lausanne entwickelte BCI-Technologie verwendet.

Der erste Schritt beim Aufbau einer Gehirn-Maschine-Schnittstelle besteht darin, zu entscheiden, welcher Teil des Gehirns angezapft werden soll. Als Dumas jung war, glaubten viele, die Konturen des Schädels eines Menschen seien ein Atlas zum Verständnis der inneren Funktionsweise des Geistes. In veralteten medizinischen Fachbüchern und in den Einrichtungsabteilungen von Kaufhäusern sind immer noch farbenfrohe Phrenologietafeln zu finden, deren Traktate für menschliche Fähigkeiten wie Wohlwollen, Appetit und Sprache gesperrt sind.

„Wir wissen jetzt natürlich, dass das Unsinn ist“, sagt David Bjånes, Neurowissenschaftler und Postdoktorand am Caltech. Tatsächlich ist jetzt klar, dass unsere Fähigkeiten und Funktionen aus einem Netz von Interaktionen zwischen verschiedenen Gehirnbereichen entstehen, wobei jeder Bereich als Knoten im neuronalen Netzwerk fungiert. Diese Komplexität stellt sowohl eine Herausforderung als auch eine Chance dar: Da noch keine Gehirnregion gefunden wurde, die für die interne Sprache verantwortlich ist, könnten mehrere verschiedene Regionen brauchbare Ziele sein.

Wandelt, Bjånes und ihre Kollegen fanden beispielsweise heraus, dass ein Teil des Parietallappens namens Gyrus supramarginalis (SMG), der typischerweise mit dem Greifen von Objekten verbunden ist, auch beim Sprechen stark aktiviert wird.

Sie machten die überraschende Entdeckung, als sie einen tetraplegischen Studienteilnehmer beobachteten, dem ein Mikroelektroden-Array – ein Gerät, das kleiner als der Kopf einer Stecknadel ist und mit Unmengen verkleinerter Metallspitzen bedeckt ist – in seine Maschinenpistole implantiert wurde. Das Array kann das Feuern einzelner Neuronen aufzeichnen und die Daten über ein Kabelgewirr an einen Computer übertragen, um sie zu verarbeiten.

Bjånes vergleicht den Aufbau ihrer Gehirn-Maschine-Schnittstelle mit einem Fußballspiel. Stellen Sie sich vor, Ihr Gehirn befindet sich im Fußballstadion und jedes der Neuronen entspricht einer Person in diesem Stadion. Die Elektroden sind die Mikrofone, die Sie zum Abhören in das Stadion senken.

„Wir hoffen, dass wir diese in der Nähe des Trainers oder vielleicht eines Ansagers oder in der Nähe einer Person im Publikum platzieren, die wirklich weiß, was los ist“, erklärt er. „Und dann versuchen wir zu verstehen, was auf dem Spielfeld passiert. Wenn wir ein Gebrüll aus der Menge hören, ist das dann ein Touchdown? War das ein Passspiel? Wurde der Quarterback entlassen? Wir versuchen, die Regeln zu verstehen.“ des Spiels, und je mehr Informationen wir bekommen können, desto besser wird unser Gerät sein.“

Im Gehirn sitzen die implantierten Geräte im extrazellulären Raum zwischen den Neuronen, wo sie die elektrochemischen Signale überwachen, die jedes Mal, wenn ein Neuron feuert, über die Synapsen übertragen werden. Wenn das Implantat die relevanten Neuronen erfasst, sehen die von den Elektroden aufgezeichneten Signale wie Audiodateien aus und spiegeln ein unterschiedliches Muster von Spitzen und Tälern für unterschiedliche Aktionen oder Absichten wider.

Das Caltech-Team trainierte seine Gehirn-Maschine-Schnittstelle, um die Gehirnmuster zu erkennen, die entstehen, wenn ein tetraplegischer Studienteilnehmer intern sechs Wörter (Battlefield, Cowboy, Python, Spoon, Swimming, Telephone) und zwei Pseudowörter (Nifzig, Bindip) „sprach“. Sie fanden heraus, dass das Gerät die Wörter nach nur 15 Minuten Training und mithilfe eines relativ einfachen Dekodierungsalgorithmus mit einer Genauigkeit von über 90 Prozent identifizieren konnte.

Wandelt präsentierte die Studie, die noch nicht in einer von Experten begutachteten wissenschaftlichen Zeitschrift veröffentlicht wurde, auf der Konferenz der Society for Neuroscience 2022 in San Diego. Sie glaubt, dass die Ergebnisse einen wichtigen Beweis des Konzepts darstellen, obwohl das Vokabular erweitert werden müsste, bevor ein eingesperrter Patient einer bösen Stiefmutter einen Riegel vorschieben oder sich ein Glas Wasser besorgen könnte. „Natürlich waren die von uns gewählten Wörter nicht die informativsten, aber wenn man sie durch bestimmte, ja, nein, wirklich informative Wörter ersetzt, wäre das hilfreich“, sagte Wandelt bei dem Treffen.

Ein anderer Ansatz umgeht die Notwendigkeit, einen großen Wortschatz aufzubauen, indem er eine Gehirn-Maschine-Schnittstelle entwickelt, die Buchstaben anstelle von Wörtern erkennt. Durch den Versuch, die Wörter auszusprechen, die für jeden Buchstaben des römischen Alphabets kodieren, könnte ein gelähmter Patient jedes Wort buchstabieren, das ihm in den Sinn kommt, und diese Wörter aneinanderreihen, um sich in ganzen Sätzen zu verständigen.

„Das laute Buchstabieren von Dingen mit der Sprache ist etwas, das wir ziemlich häufig tun, etwa wenn man mit einem Kundendienstmitarbeiter telefoniert“, sagt Sean Metzger, ein Doktorand der Bioingenieurwissenschaften an der University of California San Francisco und der University of California Kalifornien, Berkeley. Genau wie statische Störungen in einer Telefonleitung können Gehirnsignale verrauscht sein. Durch die Verwendung von NATO-Codewörtern – wie Alpha für A, Bravo für B und Charlie für C – ist es einfacher zu erkennen, was jemand sagt.

Metzger und seine Kollegen testeten diese Idee an einem Teilnehmer, der sich aufgrund eines Schlaganfalls weder bewegen noch sprechen konnte. Dem Studienteilnehmer wurde eine größere Anordnung von Elektroden – etwa so groß wie eine Kreditkarte – über einen breiten Bereich seines motorischen Kortex implantiert. Anstatt einzelne Neuronen abzuhören, zeichnet dieses Array die synchronisierte Aktivität von Zehntausenden von Neuronen auf, als würde man einen ganzen Abschnitt in einem Fußballstadion gleichzeitig stöhnen oder jubeln hören.

Mit dieser Technologie zeichneten die Forscher stundenlang Daten auf und speisten sie in hochentwickelte Algorithmen für maschinelles Lernen ein. Sie konnten 92 Prozent der stillschweigend buchstabierten Sätze der Versuchsperson entschlüsseln – etwa „Das ist alles in Ordnung“ oder „Wie spät ist es?“ – bei mindestens einem von zwei Versuchen. Ein nächster Schritt, sagt Metzger, könnte darin bestehen, diesen auf Rechtschreibung basierenden Ansatz mit einem zuvor entwickelten wortbasierten Ansatz zu kombinieren, um den Benutzern eine schnellere und weniger aufwändige Kommunikation zu ermöglichen.

Heute sind fast 40 Menschen weltweit Mikroelektroden-Arrays implantiert worden, und weitere werden online angeboten. Viele dieser Freiwilligen – Menschen, die durch Schlaganfälle, Rückenmarksverletzungen oder ALS gelähmt sind – verbringen Stunden am Computer und helfen Forschern dabei, neue Gehirn-Maschine-Schnittstellen zu entwickeln, damit andere eines Tages verlorene Funktionen wiedererlangen können. Jun Wang, ein Computer- und Sprachwissenschaftler an der University of Texas in Austin, sagt, er sei begeistert von den jüngsten Fortschritten bei der Entwicklung von Geräten zur Wiederherstellung der Sprache, warnt jedoch davor, dass bis zur praktischen Anwendung noch ein weiter Weg zurückzulegen sei. „Derzeit befindet sich das gesamte Feld noch im Anfangsstadium.“

Wang und andere Experten wünschen sich Upgrades der Hardware und Software, die die Geräte weniger umständlich, genauer und schneller machen. Beispielsweise arbeitete das vom UCSF-Labor entwickelte Gerät mit einer Geschwindigkeit von etwa sieben Wörtern pro Minute, während natürliche Sprache etwa 150 Wörter pro Minute benötigt. Und selbst wenn sich die Technologie so weiterentwickelt, dass sie die menschliche Sprache nachahmt, ist unklar, ob Ansätze, die bei Patienten mit einer gewissen Fähigkeit, sich zu bewegen oder zu sprechen, entwickelt wurden, bei Patienten funktionieren werden, die völlig eingesperrt sind. „Meine Intuition ist, dass sie sich skalieren lässt, aber ich kann es nicht sagen.“ „Das ist sicher“, sagt Metzger. „Das müssten wir verifizieren.“

Eine weitere offene Frage ist, ob es möglich ist, Gehirn-Maschine-Schnittstellen zu entwerfen, die keine Gehirnoperation erfordern. Versuche, nicht-invasive Ansätze zu entwickeln, scheiterten, weil solche Geräte versuchten, Signale zu verstehen, die durch Gewebe- und Knochenschichten wanderten, ähnlich wie der Versuch, ein Fußballspiel vom Parkplatz aus zu verfolgen.

Wang hat mit einer fortschrittlichen bildgebenden Technik namens Magnetenzephalographie (MEG) Fortschritte gemacht, die Magnetfelder an der Außenseite des Schädels aufzeichnet, die durch elektrische Ströme im Gehirn erzeugt werden, und diese Signale dann in Text übersetzt. Derzeit versucht er, ein Gerät zu bauen, das MEG verwendet, um die 44 Phoneme oder Sprachlaute in der englischen Sprache – wie ph oder oo – zu erkennen, die zur Bildung von Silben, dann von Wörtern und dann von Sätzen verwendet werden könnten.

Letztendlich dürfte die größte Herausforderung bei der Wiederherstellung der Sprache bei eingesperrten Patienten eher mit der Biologie als mit der Technologie zu tun haben. Die Art und Weise, wie Sprache, insbesondere interne Sprache, kodiert wird, kann je nach Person oder Situation variieren. Man könnte sich vorstellen, vor seinem geistigen Auge ein Wort auf ein Blatt Papier zu kritzeln; ein anderer könnte das noch unausgesprochene Wort in seinen Ohren widerhallen hören; Wieder ein anderer könnte ein Wort mit seiner Bedeutung assoziieren und so einen bestimmten Gefühlszustand hervorrufen. Da unterschiedliche Gehirnwellen bei verschiedenen Menschen mit unterschiedlichen Wörtern in Verbindung gebracht werden können, müssen möglicherweise unterschiedliche Techniken an die individuelle Natur jedes Menschen angepasst werden.

„Ich denke, dieser mehrgleisige Ansatz der verschiedenen Gruppen ist unsere beste Möglichkeit, alle unsere Grundlagen abzudecken“, sagt Bjånes, „und Ansätze zu haben, die in vielen unterschiedlichen Kontexten funktionieren.“

Marla Broadfoot Knowable Magazine Das Gehirn einbeziehen – aber wo? Gedanken in Buchstaben in Worte verwandeln „Noch im Anfangsstadium“ Dieser Artikel erschien ursprünglich im Knowable Magazine, einem unabhängigen journalistischen Unternehmen von Annual Reviews. Melden Sie sich für den Newsletter an.
AKTIE