dépêche

 - 

Une neuroprothèse pour décoder les pensées d'un patient atteint d'anarthrie post-AVC

WASHINGTON, 15 juillet 2021 (APMnews) - Des chercheurs américains ont développé une neuroprothèse associé à un modèle d'apprentissage profond, qui a permis de décoder les mots et les phrases pensés par un patient atteint d'anarthrie et de tétraplégie spastique provoquées par un accident vasculaire cérébral (AVC), selon une étude publiée jeudi dans The New England Journal of Medicine (NEJM).
L'anarthrie, c'est-à-dire la perte du langage articulé, peut être provoquée par un AVC mais aussi la sclérose latérale amyotrophique. Limitant la communication, ce trouble a un impact important sur la qualité de vie des patients. Cependant, les progrès réalisés dans les interfaces cerveau-machine ouvrent de nouvelles perspectives, exposent David Moses de l'université de Californie à San Francisco (UCSF) et ses collègues.
Pour le moment, les interfaces développées ne permettent que d'épeler des mots à partir de l'enregistrement des signaux neuronaux, un processus qui est lent et demande beaucoup d'effort. Une approche plus efficace et plus naturelle serait de décoder directement des mots entiers à partir des aires cérébrales qui contrôlent le langage.
Les chercheurs ont donc exploré cette stratégie dans le cadre de l'étude BRAVO (Brain-Computer Interface Restoration of Arm and Voice) financée par l'université de Californie dans le cadre notamment d'un partenariat avec Facebook. Il s'agit d'évaluer la capacité de l'électrocorticographie, une méthode d'enregistrement de l'activité neuronale du cortex cérébral à l'aide d'électrodes placées à la surface du cerveau, et d'améliorer les techniques de décodage pour permettre une communication plus fluide.
Le dispositif a été testé auprès d'un patient de 36 ans, qui a été victime d'un AVC du tronc cérébral à 20 ans, entraînant une anarthrie et une tétraplégie spastique sévère. Ses fonctions cognitives sont intactes et il communique actuellement à l'aide d'une interface permettant d'épeler des mots à raison de 18 caractères corrects par minute à l'aide de ses mouvements de tête résiduels.
L'implant a été adapté et associé à un système percutané permettant de relayer le signal à un ordinateur pour traitement des signaux, d'abord lors de 50 sessions d'entraînement aux cours desquelles des mots usuels ou des phrases associant ces mots étaient présentés au patient et il lui était demandé d'essayer de les prononcer à voix haute le plus vite possible. Dans d'autres séries, des questions étaient posées au patient qui devait essayer d'y répondre à haute voix.
L'ensemble des données enregistrées sur un total de 22 heures d'activité a alimenté un algorithme d'apprentissage profond et l'algorithme de décodage de Viterbi. Ce système permet de détecter le début de l'activité neuronale et, en temps quasi réel, essaie de prédire le mot correspondant. Puis, à partir de l'ensemble des mots, il propose la phrase la plus plausible parmi plus de 1.000 possibles.
En test, le système a permis de décoder en temps réel les phrases du patient à partir de son activité corticale avec un taux médian de 15,2 mots par minute et un taux d'erreur dans les mots de 25,6% en médiane.
En analyses post hoc, le système a détecté 98% des tentatives de prononciation des mots et a classé ces mots avec une précision de 47,1%.
Par ailleurs, les enregistrements étaient relativement stables au cours des 81 semaines de l'étude, alors que jusqu'à présent, les modèles de décodage nécessitent des recalibrations quotidiennes.
Dans un communiqué, l'UCSF, qui présente aussi ces travaux dans une vidéo, indique que les chercheurs vont poursuivre cette étude auprès d'autres patients, avec pour objectifs d'inclure davantage de mots et d'améliorer la fluidité du discours.
(The NEJM, 15 juillet, vol. 385, p217-277)
ld/nc/APMnews

[LD9QW9YAB]

A lire aussi