© Getty

« Deepfake » thérapie : quand les victimes d’agression sexuelle peuvent dialoguer « avec » leur agresseur

Le Vif

Dans le traitement de personnes atteintes de stress post-traumatique suite à une agression sexuelle, il est désormais possible de confronter son agresseur et de parler directement avec lui… Du moins, avec une intelligence artificielle qui reproduit parfaitement ses traits. Ça s’appelle la « deepfake » thérapie et une étude néerlandaise analyse pour la première fois les effets de cette pratique, avec des résultats qui s’avèrent « prometteurs ».

La « deepfake » thérapie, c’est assez neuf, même chez nous aux Pays-Bas. Il s’agit d’une nouvelle façon de traiter les traumatismes, explique Theo Gevers, professeur de « computer vision » à l’Université d’Amsterdam et professeur de psychologie à l’Université Radboud, à la tête de l’étude publiée dans la revue Frontiers in Psychiatry Une conversation est menée entre le soi-disant coupable d’agression sexuelle et la victime. Et cela se produit dans un environnement contrôlé, où le thérapeute mène la conversation. Le patient est donc mis en confiance et sait très bien que l’agresseur n’est pas réel. »

L’agresseur recréé de toute pièce

Cette étude est l’une des premières dans le domaine et se concentre, spécifiquement, sur le traitement des symptômes post-traumatiques de deux victimes d’agression sexuelle. Elles ont pu mener une conversation sur la plateforme de visioconférence Zoom avec une représentation plus vraie que nature de leur agresseur.

Il s’agit bien d’un « fake », une image en mouvement générée par l’intelligence artificielle. Mais, c’est, en réalité, le thérapeute qui prend la parole. Pendant une session de 90 minutes, il répond aux questions des patientes en utilisant sa propre voix et en contrôlant les mouvements du « deep fake ». « Il s’agit, en quelque sorte, d’un jeu de rôle, mais le thérapeute contrôle la situation. Il doit guider la conversation et faire son travail de thérapeute », précise Theo Gevers.

Selon Tom Van Daele, psychologue clinicien et chargé de recherches pour la cellule Psychologie, Technologie et Société à la Haute Ecole Thomas More, il n’y a rien de neuf dans l’utilisation de nouvelles technologies dans les séances de psychologie, mais c’est la première fois qu’une étude de ce type est publiée. « Ça fait longtemps qu’on expérimente avec les nouvelles technologies en psychothérapie, pour aider les personnes d’une façon différente. C’est, notamment, le cas de la réalité virtuelle qui permet à des patients de se retrouver dans un environnement familier reproduit virtuellement. L’objectif étant de suivre ces personnes et de les soigner. Le principe n’est pas nouveau, mais c’est la première fois qu’on va utiliser la technologie du « deepfake » pour recréer une personne, responsable d’un traumatisme, plutôt qu’un environnement. »

Affronter son agresseur

Dans l’étude de Théo Gevers, la première patiente, Jill, 36 ans, a été abusée sexuellement pendant son adolescence par son patron lorsqu’elle était étudiante jobiste. Elle a été diagnostiquée comme étant atteinte de troubles de stress post-traumatique. Plusieurs séances de thérapie par le passé ne lui ont pas permis de vaincre un sentiment de culpabilité profond. Avec la « deepfake » thérapie, elle a pu confronter l’agresseur qu’elle évitait de croiser depuis des années. En voyant son image, Jill s’est mis à pleurer à crier : « Pourquoi as-tu fait cela ? ». Le thérapeute, incarnant l’agresseur, a alors pu lui répondre : « J’ai profité de cette situation et j’ai été égoïste de le faire. Cela n’a rien à voir avec toi. Ce n’est pas ta faute ». Après cette session, Jill a indiqué s’être sentie plus positive et avoir une plus forte estime d’elle-même. Une semaine après la séance, ses symptômes de stress post-traumatique avaient diminué.

Les résultats sont donc « prometteurs », selon cette étude, qui est la première à étudier les effets de la « deepfake » thérapie. Elle met en avant l’avantage de cette confrontation « deepfake » en comparaison avec une confrontation dans la vie réelle : l’agresseur, incarné par le thérapeute, répond toujours avec empathie sans chercher à « revictimiser » le patient. « Cela peut aussi avoir un avantage si l’agresseur n’est pas tout proche, ou n’est tout simplement plus en vie », ajoute Tom Van Daele, de la Haute Ecole Thomas More.

Il existe déjà une plateforme de communication en ligne pour les professionnels, lancée par l’équipe du professeur Gevers, DeepTherapy.ai, qui permet de réaliser ces séances. Elle est également utilisée par des thérapeutes dans le cas de deuils pour qu’un patient puisse rentrer en contact avec un défunt. Néanmoins, l’accessibilité de ce type d’outils pose question. « J’invite mes collègues psychologues à faire attention avec l’utilisation de cette plateforme, conseille Tom Van Daele. Cela interroge également la protection de la vie privée, puisqu’on utilise une photo de l’agresseur pour générer le « deepfake ». Il ne faudrait pas non plus que ce soit repris à des fins commerciales et promus de partout, sans conditions. »

La deepfake thérapie: un outil additionnel à la pratique des thérapeutes

L’auteur de l’étude, Theo Gevers est conscient de certaines critiques de thérapeutes réfractaires à l’utilisation de nouvelles technologies dans leur accompagnement des patients, mais il souhaite mettre en avant la responsabilité du professionnel : « Il ne s’agit pas d’intelligence artificielle à proprement parlé parce que tout reste entre les mains du psychologue. Le « deepfake » est une addition qui confère au thérapeute une nouvelle compétence pour initier une conversation ou effectuer un traitement ».

Selon Tom Van Daele, psychologue clinicien, l’étude a du potentiel pour le traitement de certains traumatismes, mais il estime qu’il faut rester particulièrement prudent, puisque l’expérience n’a été réalisée que sur deux personnes. « On ne peut pas aller interpréter que cette technique a du sens pour absolument tout le monde, que ce soient les patients ou les psychologues. On ne peut donc pas encourager n’importe qui à utiliser cette technologie sans contrôle. » Il s’agit donc encore d’une expérimentation en phase pilote, mais elle pourrait se développer davantage. Le professeur Theo Gevers de l’Université d’Amsterdam, avance que les résultats pour de nouvelles expérimentations qui n’ont pas encore été publiées dans une étude, sont encourageants : « Nous travaillons, actuellement, sur différentes formes de traumatismes an allant du harcèlement chez les enfants et de la médiation lors de divorce jusqu’aux cas plus graves, comme dans l’étude, où on a affaire à des états de stress post-traumatique. »

Pauline Denys

Un deepfake, c’est quoi ?

« Deepfake » est un mot valise qu’un vient de « fake », traduction anglaise du mot « faux » et de « deep » qu’on retrouve dans le terme « deep learning ». C’est donc la production d’une série de représentations visuelles et/ou sonores qui ne se sont jamais manifestées dans la réalité. Cela est rendu possible par le « deep learning », c’est-à-dire, un apprentissage par une intelligence artificielle, extrêmement rapide et précis d’une série d’informations visuelles ou sonores qu’on lui a fournies. « Vous allez nourrir un programme de génération de « deepfakes », avec une série d’images que vous avez d’une personne. De son visage, par exemple. La machine va alors plaquer ces images sur une vidéo et y remplacer un visage par un autre », explique Jeremy Hamers, professeur en éducation aux médias à l’Université de Liège.

Les « deepfakes » sont souvent plus connus pour leurs utilisations commerciales, voire « malveillantes ». On les retrouve, en grande partie, dans l’industrie pornographique, mais aussi dans le domaine de la publicité ou alors lorsque quelqu’un cherche à faire produire un discours à quelqu’un qui ne l’a jamais prononcé. On peut également les retrouver dans des contenus de type humoristiques. « L’essentiel des applications du « deepfake » connues par le grand public, sont de cet ordre-là. Alors, quand j’entends parler de l’utilisation du « deepfake » en psychothérapie, je trouve cela très intéressant », livre Jeremy Hamers.

Partner Content