
Stanford, le samedi 11 février 2023 - Les interfaces cerveau-ordinateur vocales (BCIs pour Brain-Computer Interfaces speech) actuellement en développement ont théoriquement le potentiel de restaurer une communication rapide pour les personnes paralysées en décodant l'activité neuronale et en la traduisant en texte ou en son.
Une équipe de l'université de Stanford dans un article publié sur le site de pré-publication bioRxiv rapporte le cas d’une patiente souffrant de SLA (Sclérose Latérale Amyotrophique ou maladie de Charcot) qui a perdu sa capacité d’élocution il y a huit ans, la rendant inintelligible et qui a bénéficié d’un implant cérébral qui lui permet de communiquer à un rythme proche de celui de la parole normale. Elle parvient ainsi à communiquer 62 mots par minute (contre environ 160 par minute pour une personne en bonne santé), elle a ainsi explosé le « record » précédent qui n’était que de 18 mots.
Cet exploit réside dans le développement de la première BCIs qui enregistre l'activité de stimulation à partir de réseaux de microélectrodes intra corticales. Sur un vocabulaire simple de 50 mots, la machine ne se trompe qu’une fois sur 11, et une fois sur 4 avec un vocabulaire beaucoup plus élaboré constitué de la quasi-totalité de la langue de Shakespeare.
En pratique (mais très simplifié !), le programme informatique parvient à traduire en texte et en sons les mots que le patient imagine ou qu’il tente de prononcer.
David Moses, qui travaille sur d’autres interfaces cerveau-ordinateur, indique dans MIT Technology Review que les outils actuels atteignent « des niveaux de performance impressionnants » mais qu’il est désormais nécessaire de démontrer la stabilité et la fiabilité de ces performances sur plusieurs années. Un implant cérébral commercialisé ne pourrait en effet passer les fourches caudines de la FDA s'il se dégrade progressivement et que la précision de décodage diminue avec le temps. Pour les experts, la voie à suivre dorénavant serait une intégration plus étroite avec l'intelligence artificielle.
Le système actuel utilise déjà plusieurs types de programmes de « machine learning ». Pour améliorer sa précision, l'équipe de Stanford a ainsi utilisé un logiciel qui prédit le mot qui suit généralement dans une phrase. Comme l’explique la MIT Technology review le mot "I" est plus souvent suivi de "am" que de "ham", même si ces mots ont une sonorité similaire et pourraient produire des schémas proches dans le cerveau humain.
C’est là qu’intervient le fameux Chat GPT, ce nouvel outil qui est capable de rédiger de longs textes et de répondre à des questions. Sa connexion à des interfaces cérébrales pourrait permettre aux patients utilisant une interface cerveau-ordinateur vocale de parler encore plus vite, simplement parce que le système sera plus apte à deviner ce qu'elles essaient de dire sur la base d'informations partielles.
Les auteurs concluent : « ces résultats montrent qu'il est possible d'utiliser les ICB intracorticaux pour rétablir une communication rapide avec les personnes paralysées qui ne peuvent plus parler ».
A suivre, tout au long du XXIe siècle.
F.H.