Lire dans les pensées

Des chercheurs de l’UNIGE décodent la parole intérieure grâce au machine learning

A Genève, des scientifiques ont décodé en temps réel les signaux cérébraux liés à la parole que l’on imagine mentalement, à l’aide du machine learning. Ces travaux ouvrent notamment la voie à des interfaces cerveau-machine mieux adaptées aux personnes aphasiques.

Les participantes et participants à l’étude de l’UNIGE, connectés à 61 électrodes, se sont entraînés durant cinq jours consécutifs à utiliser un système cerveau-machine décodant les signaux d’électroencéphalographie (EEG). (Source: Silvia Marchesotti / UNIGE)
Les participantes et participants à l’étude de l’UNIGE, connectés à 61 électrodes, se sont entraînés durant cinq jours consécutifs à utiliser un système cerveau-machine décodant les signaux d’électroencéphalographie (EEG). (Source: Silvia Marchesotti / UNIGE)

Les progrès dans le domaine des interfaces cerveau-machine sont souvent monopolisés dans les médias par Neuralink, la start-up de l’omniprésent Elon Musk. Moins visibles dans la presse grand public, des équipes de recherche universitaires font pourtant également avancer ces technologies. Notamment à l’Université de Genève (UNIGE), où une équipe du Département des neurosciences cliniques de la Faculté de médecine est parvenue à décoder en temps réel le langage interne. Cette percée repose sur des algorithmes de machine learning appliqués à des signaux cérébraux captés par électroencéphalographie (EEG). 

Des signaux cérébraux faibles

Les chercheurs genevois ont su relever un défi de taille: capter les signaux neurophysiologiques, de très faibles amplitudes, émis lorsqu’une personne imagine des sons du langage.«Des études récentes ont montré qu’il est possible de décoder les tentatives de parole chez des personnes ayant perdu la capacité à s’exprimer à cause d’un trouble moteur. Cependant, cette approche n’est pas viable chez les patientes et patients atteints d’aphasie, en raison de la localisation des lésions cérébrales. C’est pourquoi nous avons choisi de nous concentrer sur la parole imaginée», explique Anne-Lise Giraud, professeure au Département des neurosciences fondamentales de la Faculté de médecine de l’UNIGE, directrice de l’Institut de l’audition, Centre de l’Institut Pasteur, et co-directrice de l’étude.

Quinze volontaires en bonne santé ont participé à cinq jours d’entraînement intensif. Equipés de 61 électrodes EEG, ils ont tenté de visualiser les syllabes «fo» et «gi». Un retour immédiat, sous la forme d’une jauge s’affichant à l’écran, leur indiquait la qualité de leur performance. Plus la représentation mentale était claire, plus la jauge se remplissait, illustrant une amélioration du contrôle neuronal au fil des sessions. Cette interaction en temps réel a été rendue possible grâce à l’analyse instantanée des signaux cérébraux par les algorithmes de machine learning.

Nette amélioration du contrôle de l’interface

Bien que les performances et la capacité d’apprentissage varient fortement d’une personne à l’autre, les résultats ont globalement révélé une nette amélioration du contrôle de l’interface. Ces recherches soulignent un aspect longtemps négligé: le rôle crucial de l'entraînement personnalisé dans l'utilisation des interfaces cerveau-machine. Ces travaux permettent aussi de repérer les zones cérébrales activées lors de la production mentale de la parole, une information clé pour affiner le placement des électrodes à l’avenir.

Les travaux se poursuivent désormais auprès de patientes et patients aphasiques, en partenariat avec le Service de neurorééducation des Hôpitaux Universitaires de Genève (HUG), avec pour objectif de développer une solution thérapeutique destinée à faciliter leur récupération linguistique.
 

Tags
Webcode
C53LYGCz