banner

Nouvelles

May 12, 2023

Lire l'esprit avec des machines

Dans le roman classique d'Alexandre Dumas Le Comte de Monte-Cristo, un personnage nommé Monsieur Noirtier de Villefort subit un terrible accident vasculaire cérébral qui le laisse paralysé. Bien qu'il reste éveillé et conscient, il n'est plus capable de bouger ou de parler, comptant sur sa petite-fille Valentine pour réciter l'alphabet et feuilleter un dictionnaire pour trouver les lettres et les mots dont il a besoin. Grâce à cette forme de communication rudimentaire, le vieil homme déterminé parvient à empêcher Valentine d'être empoisonnée par sa belle-mère et à déjouer les tentatives de son fils de la marier contre son gré.

La représentation de Dumas de cette condition catastrophique - où, comme il le dit, "l'âme est piégée dans un corps qui n'obéit plus à ses ordres" - est l'une des premières descriptions du syndrome d'enfermement. Cette forme de paralysie profonde survient lorsque le tronc cérébral est endommagé, généralement à cause d'un accident vasculaire cérébral, mais aussi à la suite de tumeurs, de lésions cérébrales traumatiques, de morsures de serpent, de toxicomanie, d'infections ou de maladies neurodégénératives comme la sclérose latérale amyotrophique (SLA).

On pense que la condition est rare, bien qu'il soit difficile de dire à quel point il est rare. De nombreux patients enfermés peuvent communiquer par des mouvements oculaires et des clignements d'yeux délibérés, mais d'autres peuvent devenir complètement immobiles, perdant même leur capacité à bouger leurs globes oculaires ou leurs paupières, rendant la commande "cligner deux fois si vous me comprenez" inutile. En conséquence, les patients peuvent passer en moyenne 79 jours emprisonnés dans un corps immobile, conscient mais incapable de communiquer, avant d'être correctement diagnostiqués.

L'avènement des interfaces cerveau-machine a nourri l'espoir de rétablir la communication chez les personnes dans cet état d'enfermement, leur permettant de se reconnecter avec le monde extérieur. Ces technologies utilisent généralement un dispositif implanté pour enregistrer les ondes cérébrales associées à la parole, puis utilisent des algorithmes informatiques pour traduire les messages prévus. Les avancées les plus excitantes ne nécessitent pas de clignotement, de suivi des yeux ou de tentatives de vocalisation, mais capturent et transmettent à la place les lettres ou les mots qu'une personne prononce silencieusement dans sa tête.

"J'ai l'impression que cette technologie a vraiment le potentiel d'aider les personnes qui ont le plus perdu, les personnes qui sont vraiment enfermées et ne peuvent plus du tout communiquer", déclare Sarah Wandelt, étudiante diplômée en informatique et systèmes neuronaux à Caltech à Pasadena. Des études récentes de Wandelt et d'autres ont fourni la première preuve que les interfaces cerveau-machine peuvent décoder la parole interne. Ces approches, bien que prometteuses, sont souvent invasives, laborieuses et coûteuses, et les experts conviennent qu'elles nécessiteront beaucoup plus de développement avant de pouvoir donner une voix aux patients enfermés.

Engager le cerveau – mais où ?

La première étape de la construction d'une interface cerveau-machine consiste à décider quelle partie du cerveau exploiter. À l'époque où Dumas était jeune, beaucoup pensaient que les contours du crâne d'une personne fournissaient un atlas pour comprendre le fonctionnement interne de l'esprit. Des tableaux de phrénologie colorés - avec des tracts bloqués pour les facultés humaines comme la bienveillance, l'appétit et le langage - peuvent encore être trouvés dans les textes médicaux désuets et les sections de décoration intérieure des grands magasins. "Nous savons bien sûr que c'est un non-sens maintenant", déclare David Bjånes, neuroscientifique et chercheur postdoctoral à Caltech. En fait, il est maintenant clair que nos facultés et nos fonctions émergent d'un réseau d'interactions entre diverses zones cérébrales, chaque zone agissant comme un nœud dans le réseau neuronal. Cette complexité présente à la fois un défi et une opportunité : aucune région du cerveau n'ayant encore été identifiée responsable du langage interne, un certain nombre de régions différentes pourraient être des cibles viables.

Par exemple, Wandelt, Bjånes et leurs collègues ont découvert qu'une partie du lobe pariétal appelée gyrus supramarginal (SMG), qui est généralement associée à la saisie d'objets, est également fortement activée pendant la parole. Ils ont fait la découverte surprenante en observant un participant à l'étude tétraplégique qui avait un réseau de microélectrodes - un dispositif plus petit que la tête d'une punaise couverte de tas de pointes métalliques réduites - implanté dans son SMG. Le réseau peut enregistrer le déclenchement de neurones individuels et transmettre les données via un enchevêtrement de fils à un ordinateur pour les traiter.

Bjånes compare la configuration de leur interface cerveau-machine à un match de football. Imaginez que votre cerveau est le stade de football et que chacun des neurones est une personne dans ce stade. Les électrodes sont les microphones que vous abaissez dans le stade pour écouter. "Nous espérons que nous les placerons près de l'entraîneur, ou peut-être d'un annonceur, ou près d'une personne dans le public qui sait vraiment ce qui se passe", explique-t-il. "Et puis nous essayons de comprendre ce qui se passe sur le terrain. Lorsque nous entendons un rugissement de la foule, est-ce un touché ? Était-ce un jeu de passe ? Est-ce que le quart-arrière a été limogé ? Nous essayons de comprendre les règles du jeu, et plus nous pourrons obtenir d'informations, meilleur sera notre appareil."

Dans le cerveau, les dispositifs implantés se trouvent dans l'espace extracellulaire entre les neurones, où ils surveillent les signaux électrochimiques qui se déplacent à travers les synapses chaque fois qu'un neurone se déclenche. Si l'implant capte les neurones concernés, les signaux enregistrés par les électrodes ressemblent à des fichiers audio, reflétant un schéma différent de pics et de creux pour différentes actions ou intentions.

L'équipe de Caltech a formé son interface cerveau-machine pour reconnaître les schémas cérébraux produits lorsqu'un participant à l'étude tétraplégique "parlait" en interne six mots (champ de bataille, cow-boy, python, cuillère, natation, téléphone) et deux pseudo-mots (nifzig, bindip). Ils ont constaté qu'après seulement 15 minutes de formation, et en utilisant un algorithme de décodage relativement simple, l'appareil pouvait identifier les mots avec plus de 90 % de précision.

Wandelt a présenté l'étude, qui n'est pas encore publiée dans une revue scientifique à comité de lecture, lors de la conférence 2022 de la Society for Neuroscience à San Diego. Elle pense que les résultats signifient une preuve de concept importante, bien que le vocabulaire devrait être élargi avant qu'un patient enfermé puisse déjouer une belle-mère diabolique ou se procurer un verre d'eau. "De toute évidence, les mots que nous avons choisis n'étaient pas les plus informatifs, mais si vous les remplacez par oui, non, certains mots qui sont vraiment informatifs, ce serait utile", a déclaré Wandelt lors de la réunion.

Pensées en lettres en mots

Une autre approche contourne la nécessité de construire un grand vocabulaire en concevant une interface cerveau-machine qui reconnaît les lettres au lieu des mots. En essayant de dire à la bouche les mots qui codent pour chaque lettre de l'alphabet romain, un patient paralysé pouvait épeler n'importe quel mot qui lui passait par la tête, en enchaînant ces mots pour communiquer en phrases complètes.

"Épeler les choses à voix haute avec la parole est quelque chose que nous faisons assez couramment, comme lorsque vous êtes au téléphone avec un représentant du service client", explique Sean Metzger, étudiant diplômé en bio-ingénierie à l'Université de Californie à San Francisco et à l'Université de Californie à Berkeley. Tout comme l'électricité statique sur une ligne téléphonique, les signaux cérébraux peuvent être bruyants. L'utilisation de mots de code OTAN - comme Alpha pour A, Bravo pour B et Charlie pour C - permet de discerner plus facilement ce que quelqu'un dit.

Metzger et ses collègues ont testé cette idée chez un participant incapable de bouger ou de parler à la suite d'un accident vasculaire cérébral. Le participant à l'étude avait un plus grand éventail d'électrodes - de la taille d'une carte de crédit - implantées sur une large bande de son cortex moteur. Plutôt que d'écouter des neurones individuels, ce réseau enregistre l'activité synchronisée de dizaines de milliers de neurones, comme entendre une section entière dans un stade de football gémir ou applaudir en même temps.

Grâce à cette technologie, les chercheurs ont enregistré des heures de données et les ont introduites dans des algorithmes d'apprentissage automatique sophistiqués. Ils ont été capables de décoder 92 % des phrases épelées silencieusement du sujet de l'étude - telles que "C'est bon" ou "Quelle heure est-il ?" – sur au moins un des deux essais. Selon Metzger, une prochaine étape pourrait consister à combiner cette approche basée sur l'orthographe avec une approche basée sur les mots qu'ils ont développée précédemment pour permettre aux utilisateurs de communiquer plus rapidement et avec moins d'effort.

"Encore au stade précoce"

Aujourd'hui, près de 40 personnes dans le monde ont été implantées avec des réseaux de microélectrodes, et d'autres seront mises en ligne. Beaucoup de ces bénévoles – des personnes paralysées par un AVC, des lésions médullaires ou la SLA – passent des heures branchées à des ordinateurs pour aider les chercheurs à développer de nouvelles interfaces cerveau-machine pour permettre à d'autres, un jour, de retrouver des fonctions qu'ils ont perdues. Jun Wang, spécialiste de l'informatique et de la parole à l'Université du Texas à Austin, se dit enthousiasmé par les progrès récents dans la création d'appareils pour restaurer la parole, mais prévient qu'il reste encore beaucoup de chemin à parcourir avant une application pratique. "En ce moment, tout le domaine est encore à ses débuts."

Wang et d'autres experts aimeraient voir des mises à niveau du matériel et des logiciels qui rendent les appareils moins encombrants, plus précis et plus rapides. Par exemple, l'appareil mis au point par le laboratoire UCSF fonctionnait à un rythme d'environ sept mots par minute, alors que la parole naturelle se déplace à environ 150 mots par minute. Et même si la technologie évolue pour imiter la parole humaine, on ne sait pas si les approches développées chez les patients ayant une certaine capacité à bouger ou à parler fonctionneront chez ceux qui sont complètement enfermés. "Mon intuition est que cela évoluerait, mais je ne peux pas le dire avec certitude", déclare Metzger. "Nous devrions vérifier cela."

Une autre question ouverte est de savoir s'il est possible de concevoir des interfaces cerveau-machine qui ne nécessitent pas de chirurgie cérébrale. Les tentatives de création d'approches non invasives ont échoué car ces dispositifs ont tenté de donner un sens aux signaux qui ont traversé des couches de tissus et d'os, comme essayer de suivre un match de football depuis le parking.

Wang a fait des progrès en utilisant une technique d'imagerie avancée appelée magnétoencéphalographie (MEG), qui enregistre les champs magnétiques à l'extérieur du crâne générés par les courants électriques dans le cerveau, puis traduit ces signaux en texte. En ce moment, il essaie de construire un appareil qui utilise MEG pour reconnaître les 44 phonèmes, ou sons de la parole, dans la langue anglaise - comme ph ou oo - qui pourraient être utilisés pour construire des syllabes, puis des mots, puis des phrases.

En fin de compte, le plus grand défi pour restaurer la parole chez les patients enfermés peut avoir plus à voir avec la biologie qu'avec la technologie. La façon dont la parole est codée, en particulier la parole interne, peut varier selon l'individu ou la situation. Une personne pourrait imaginer griffonner un mot sur une feuille de papier dans son esprit ; un autre pourrait entendre le mot, encore muet, résonner à ses oreilles ; un autre encore pourrait associer un mot à sa signification, évoquant un état de sentiment particulier. Étant donné que différentes ondes cérébrales peuvent être associées à différents mots chez différentes personnes, différentes techniques peuvent devoir être adaptées à la nature individuelle de chaque personne.

"Je pense que cette approche à plusieurs volets par les différents groupes est notre meilleur moyen de couvrir toutes nos bases", déclare Bjånes, "et d'avoir des approches qui fonctionnent dans un tas de contextes différents."

10.1146/connaissant-051823-1

Marla Broadfoot est une rédactrice scientifique indépendante qui vit à Wendell, en Caroline du Nord. Elle est titulaire d'un doctorat en génétique et biologie moléculaire. Suivez-la @mvbroadfoot et découvrez plus de son travail ici.

Cet article a été initialement publié dans Knowable Magazine, une entreprise journalistique indépendante d'Annual Reviews. Enregistrez-vous pour recevoir le bulletin d'informations.

Renseignements généraux : [email protected]

Engager le cerveau – mais où ? Pensées en lettres en mots 'Encore au stade précoce'
PARTAGER