Une technologie prometteuse qui pourrait à terme aider les personnes qui ont perdu la faculté de parler. © Bill Diodato/getty images

Traduire les pensées en paroles, bientôt une réalité ?

Le Vif

En 1937, l’écrivain André Maurois imaginait une machine capable de lire directement les pensées. Moins d’un siècle plus tard, une équipe de neuro-scientifiques de l’université de Californie à San Francisco s’en approche.

Elle a mis au point un dispositif capable de décoder les signaux cérébraux liés à la parole et de les transcrire en phrases audibles prononcées par un ordinateur. De quoi espérer un jour rendre la parole à ceux qui en sont privés suite à un AVC, à un syndrome d’enfermement ou à la maladie de Charcot, comme feu Stephen Hawking.

Pour parvenir à exprimer ses pensées, ce dernier contrôlait un logiciel en contractant les muscles de sa joue. D’autres dispositifs exploitent le suivi du regard ou de la tête, mais tous pèchent par leur lenteur. En effet, ils produisent tout au plus dix mots par minute, contre 150 en moyenne lors d’une conversion classique. Dans l’espoir de parvenir à accélérer le débit verbal, les chercheurs ont eu l’idée de remonter à la source des mots et de tenter de traduire directement l’activité cérébrale en paroles.

Emettre des sons compréhensibles est le fruit d’une fine machinerie corporelle. Lorsque nous voulons parler, le cerveau envoie des signaux aux muscles des lèvres, de la langue, du larynx et de la mâchoire afin de coordonner leurs mouvements avec précision. Ceux-ci produiront les sons correspondant à la pensée que l’on veut exprimer. A l’aide de l’intelligence artificielle et des réseaux de neurones profonds, les chercheurs ont élaboré un système algorithmique capable de décoder les impulsions cérébrales particulières qui commandent les mouvements du canal vocal et ensuite de traduire ces mouvements en paroles.

Pour ce faire, ils ont demandé à cinq personnes épileptiques de lire à haute voix une centaine de phrases contenant l’entièreté des sons de la langue anglaise. Sur leur crâne, un réseau de 256 électrodes enregistraient les activités du cortex sensori- moteur, commandant les mouvements liés à la parole. Objectif ? Comprendre les instructions données aux muscles par le cerveau et, à partir de ceux-ci, déterminer quels mots étaient exprimés. Et ce, afin que l’algorithme crée une voix synthétique. Les fichiers audio rendus publics sont bluffants : si la voix synthétique écorne certains mots, la plupart d’entre eux sont clairement compréhensibles, presque autant que dans la version prononcée à voix haute. Prochaine étape : tester le système chez des personnes privées de parole.

Cette technologie prometteuse pourrait à terme aider les personnes qui ont perdu la faculté de parler. Mais toute avancée a son revers : elle pourrait se révéler liberticide. En effet, si aujourd’hui, il est des paroles que l’on ne peut dire en société, demain, il sera peut-être condamnable de simplement les penser.

Par Laetitia Theunis.

Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici

Contenu partenaire