L'intelligence artificielle pour plus de bien-être. © GETTY IMAGES

L’IA pour aider à comprendre l’enfant polyhandicapé

Comment communiquer avec une personne polyhandicapée, incapable d’exprimer ses besoins ? Comment comprendre ce qu’elle aime ou n’aime pas ? Dans le cadre du projet européen Insension, des scientifiques tentent de répondre à ces questions en recourant aux nouvelles technologies, dont l’intelligence artificielle (IA) et l’Internet des objets.  » Les personnes atteintes de troubles d’apprentissage profonds et multiples (PMLD) n’ont pas l’opportunité de recourir à tous les moyens de communication que nous employons naturellement. Pas de langage verbal conventionnel, pas d’expression faciale forte ou significative et pas non plus de signaux de référence communs, comme des hochements de tête, des changements de regards, des gestes (NDLR : repousser ou saisir un objet, par exemple) ni de signes aisément compréhensibles « , explique Andreas Fröhlich, spécialiste des enfants polyhandicapés et professeur émérite à l’université allemande de Koblenz-Landau.

Il n’empêche, les mouvements discrets, les subtiles variations de tension musculaire ou de respiration émis par les personnes atteintes de PMLD quand elles apprécient ou non quelque chose sont de précieux indicateurs. Insension vise à les détecter, à les mesurer et à les interpréter de façon personnalisée. Ce projet du programme Horizon 2020 de la Commission européenne a débuté en 2017 et se clôturera à la fin de cette année.

Actuellement, il est en phase test en Pologne, dans un jardin d’enfants spécialisé de Pozna?.  » Quand on commence à travailler avec un enfant qui a des troubles complexes ou vraiment profonds, on n’est pas sûr de ce qu’on observe chez lui, on n’est pas certain de ce qu’il veut ou de ce que l’on peut faire pour lui. Mais la technologie peut nous aider à le comprendre « , soulignait Justyna Tyrakowska, directrice du centre spécialisé, sur Euronews.

A l’aide d’une caméra spéciale, les enfants sont filmés, notamment lorsqu’ils sont en interaction avec un soignant ou avec leurs parents.  » Sur la base de ces images, un logiciel d’intelligence artificielle observe de nombreux points de leur visage, leurs mains, leurs bras, mais aussi du reste de leur corps, et évalue donc tous leurs gestes « , précise Michal Kosiedowski, coordinateur du projet et chercheur en technologies de l’information et de la communication au Centre réseaux et supercalcul de Pozna?. Ces informations sont enregistrées et alimentent une base de données. Le système IA interprète ensuite les gestes comme étant l’expression de tel ou tel sentiment, besoin ou envie. Une fois validées, ces informations seront transmises auprès de celles et ceux qui s’occupent des patients polyhandicapés. De quoi leur donner des clés de compréhension, qui se traduiront par une amélioration de la vie au quotidien des personnes atteintes de troubles d’apprentissage profonds et multiples.

Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici

Contenu partenaire