Image légendée
Un implant cérébral de la société Synchron, le 9 août 2023 à New York © AFP/Archives Angela Weiss

Rendre la parole à ceux qui en ont perdu l’usage à cause d’une maladie ou d’un accident devient de plus en plus plausible, selon deux expériences d’implants cérébraux qui font état d’importants progrès dans ce domaine, publiées dans la revue Nature. Pat Bennett, 68 ans, était une cadre supérieure dynamique et sportive, jusqu’à un diagnostic de maladie de Charcot posé il y a plus de dix ans. Cette maladie neurodégénérative, qui prive progressivement le patient de tout mouvement jusqu’à la paralysie complète, s’est d’abord traduite chez elle par des difficultés d’élocution, puis l’impossibilité de parler. Les chercheurs du département de neurochirurgie de l’université américaine de Stanford lui ont implanté en mars 2022 quatre petits carrés de 64 micro-électrodes faites de silicone. Pénétrant dans le cortex cérébral sur seulement 1,5 millimètre, elles enregistrent les signaux électriques produits par les aires du cerveau liées à la production du langage. Les signaux produits sont véhiculés en dehors du crâne grâce à un faisceau de câbles, et traités par un algorithme. La machine a « appris », sur quatre mois, à en interpréter le sens. Elle associe les signaux à des phonèmes, — les sons qui permettent de former les mots d’une langue —, et les traite avec l’aide d’un modèle de langage.

On « peut désormais imaginer un futur dans lequel on rétablit une conversation fluide avec une personne souffrant de paralysie » du langage, a déclaré Frank Willett, professeur à Stanford et co-auteur de l’étude. Avec son interface cerveau-machine (ICM), Pat Bennett parle via un écran au rythme de plus de 60 mots par minute. Encore loin des 150 à 200 mots par minute d’une conversation standard, mais déjà trois fois plus rapidement que dans le précédent record, datant de 2021 et déjà détenu par l’équipe qui l’a prise sous son aile. Le taux d’erreur sur un vocabulaire de 50 mots est tombé à moins de 10 %, contre plus de 20 % auparavant.

Avatar

Dans la deuxième expérience, menée par l’équipe d’Edward Chang à l’Université de Californie, le dispositif repose sur une bande d’électrodes posée sur la matière corticale. Ses performances sont comparables au système de l’équipe de Stanford, avec une médiane de 78 mots par minute, cinq fois plus rapide qu’auparavant. Un bond énorme pour la patiente, paraplégique depuis une hémorragie au niveau du tronc cérébral, et qui communiquait jusqu’ici à un rythme maximal de 14 mots par minute, à l’aide d’une technique de suivi des mouvements de la tête. Dans les deux expériences, le taux d’erreur monte aux alentours de 25 % quand les patientes utilisent un vocabulaire de plusieurs dizaines de milliers de mots. La particularité du dispositif du Pr Chang est de reposer sur l’analyse des signaux émis non seulement dans les aires liées directement au langage, mais aussi plus largement dans le cortex sensorimoteur, qui actionne les muscles faciaux et oraux pour produire des sons. « Il y a cinq, six ans, nous avons vraiment commencé à comprendre les réseaux électriques qui ordonnent le mouvement des lèvres, de la mâchoire et de la langue nous permettant de produire les sons spécifiques à chaque consonne, voyelle et mot », a expliqué le Pr Chang. L’interface cerveau-machine de son équipe produit du langage sous forme de texte, mais aussi avec une voix synthétisée et un avatar reproduisant les expressions faciales du patient quand il s’exprime. Parce que « la voix et nos expressions sont aussi une partie de notre identité », selon le Pr Chang. L’équipe vise maintenant une version sans fil du dispositif, qui aurait « des conséquences profondes sur l’indépendance et les interactions sociales » d’un patient, selon David Moses, co-auteur de l’étude et professeur en neurochirurgie à l’Université de San Francisco.