Tina Nikoukhah espère, grâce à ses outils de vérification, développer l'esprit critique des gens, notamment des plus jeunes. © Jean-Charles Caslot – Fondation L’Oréal

Comment traquer les images trafiquées: « La photo est une illusion »

Laurence Van Ruymbeke
Laurence Van Ruymbeke Journaliste au Vif

Distinguée par le prix Jeunes talents pour les femmes et la science 2022 de la Fondation L’Oréal-Unesco, Tina Nikoukhah traque les modifications subies par les images à l’aide de logiciels de son cru. Histoire de démêler le faux du vrai.

L’affichage de ce contenu a été bloqué pour respecter vos choix en matière de cookies. En cliquant sur « Voir le contenu », vous acceptez les cookies. Vous pouvez modifier vos choix à tout moment en cliquant sur « Paramètres des cookies » en bas du site.
Voir le contenu

Elle collabore désormais avec la police scientifique française et avec des journalistes. Tina Nikoukha, chercheuse de 28 ans attachée au Centre Borelli, le laboratoire de mathématiques de l’ENS Paris-Saclay, s’est spécialisée dans la détection des images retouchées à l’aide de logiciels mathématiques.

Quelle est la nature exacte de votre travail?

Il consiste à créer des outils destinés à tout le monde et capables de déceler si une image est le fruit, ou non, d’un photomontage. Notre approche est un peu la même que celle d’un médecin légiste qui procède à l’examen d’un corps pour découvrir ce qui lui est arrivé. De la même manière, nos outils peuvent attester ce qu’a subi une image. Une image numérique est créée grâce à des opérations mathématiques et des algorithmes informatiques, au fil de différentes étapes de sa vie, exactement comme un corps humain les traverse. Notre algorithme permet de repérer des étapes anormales de vie: un redimensionnement de l’image d’origine, par exemple, ou, localement, un ADN différent de ce qui se trouve sur le reste de l’image.

Notre approche est un peu la même que celle d’un médecin légiste qui procède à l’examen d’un corps pour découvrir ce qui lui est arrivé.

L’intention du falsificateur vous importe-t-elle?

Non, nous ne sommes pas là pour dire ce qui est bien ou non. Nous proposons seulement un outil qui permet de voir ce que l’on ne perçoit pas à l’œil nu, de manière à ce que chacun puisse ensuite interpréter ce qu’il voit en connaissance de cause. Même si la modification d’une image peut avoir diverses raisons. Retoucher un visage, par exemple, peut relever d’une pure préoccupation esthétique. Mais s’il s’agit de cacher des cicatrices, le sens de l’image s’en trouve modifié.

On ne peut donc plus croire tout ce que l’on voit?

Ça, c’est sûr! La photo est une illusion. Ce n’est pas la réalité mais une représentation de la réalité. Dès le départ, tout est faux, en quelque sorte, puisque le cadrage, la lumière, la composition passent par une perception humaine. Les photomontages existent depuis l’invention de la photographie. Avant l’ère du numérique, on pouvait déjà gratter le film argentique pour lisser la peau de quelqu’un. Aujourd’hui, des logiciels de retouche font la même chose avec les images numériques. Il n’y a donc rien de neuf sous le soleil.

Est-ce à dire que, face à une image, il faut être sceptique par principe, sans toutefois tomber dans le complotisme?

Plus il existera d’outils de vérification, moins les gens tomberont dans le complotisme. Faute de ces outils qui leur permettraient de distinguer les faits du reste, les complotistes imaginent toujours le pire, suivent les chefs de file les plus charismatiques ou croient ce qui leur est le plus agréable. Alors qu’avec une approche mathématique, on peut avoir la preuve qu’une image est un faux, ou non. Cela dit, on ne peut jamais certifier à 100% l’authenticité d’une image. Juste détecter les modifications qu’elle a subies.

Depuis 2017, en France, une loi impose de stipuler au bas des photos de mannequins à visée commerciale que leur silhouette a été modifiée par un logiciel de traitement d’image. Objectif: lutter contre les troubles alimentaires. Cette initiative porte-t-elle ses fruits?

Cette mention figure en effet au bas des publicités. Le but est de prévenir le public que ces images ne correspondent pas à la réalité. Le public visé est surtout celui des jeunes filles confrontées à des modèles féminins idéalisés. La même règle devrait s’appliquer sur les réseaux sociaux. Mais quelqu’un qui retouche sa propre image ne voudra évidemment jamais le préciser.

En quoi consiste votre collaboration avec l’Agence France-Presse (AFP)?

Nous travaillons ensemble sur un plug-in téléchargeable sur n’importe quel navigateur Web, mis gracieusement à disposition des internautes. En faisant un clic droit sur une image ou une vidéo, ils accèdent ainsi à divers outils qui leur permettent de vérifier sa qualité ou son authenticité. C’est d’utilité publique.

Chaque fois qu’une nouvelle technique de falsification est inventée, les chercheurs spécialisés en détection doivent rattraper leur retard. N’est-ce pas une course sans fin?

Certains chercheurs s’inscrivent effectivement dans cette logique, qui a pris une nouvelle dimension avec l’avènement des intelligences artificielles. Notre approche est plus mathématique et peut-être plus lente puisque basée sur la compréhension d’une anomalie. L’algorithme que j’ai développé détecte les falsifications sur des images qui ont subi une compression jpeg. Par exemple, il trouvera immédiatement le petit père Noël que vous avez déniché dans une banque d’images pour le coller sur l’une de vos photos. Aujourd’hui, il est possible d’ordonner par écrit à une intelligence artificielle de réaliser cette opération pour vous. Même dans ce cas, mon algorithme détectera l’anomalie. Du moins pour l’instant. Parce qu’évidemment, l’intelligence artificielle apprendra comment s’effectue ce repérage d’anomalies et se corrigera d’elle-même pour y parer.

L’intelligence artificielle crée aujourd’hui des images de visages très réalistes de personnes qui n’existent pas. Votre algorithme peut-il les détecter?

Dans ce cas, il n’y a pas d’anomalies locales dans l’image puisque son intégralité est fausse. On peut déterminer, avec nos logiciels, qu’il s’agit d’une photo artificielle. Comme si – pour reprendre la métaphore du médecin légiste – le cadavre qui se trouve devant nous n’était pas un humain mais un robot.

Quel est le danger de ce type de progrès informatiques et techniques?

Avant d’y voir un danger, j’y vois une invention géniale. Chaque nouveauté peut faire peur… Le danger, aujourd’hui, c’est que les gens sont bombardés d’informations et d’images sur les réseaux sociaux et qu’ils doivent pouvoir juger de leur qualité. Donc il faut développer leur esprit critique et leur fournir des outils de vérification efficaces, pour éviter qu’on leur fasse croire n’importe quoi, en particulier aux jeunes. Cela doit permettre d’éviter la montée du complotisme.

Twitter a cessé de recourir à un algorithme de recadrage automatique des images postées sur son réseau, après en avoir relevé certains biais, potentiellement racistes.

Si le réseau de neurones d’une intelligence artificielle apprend, comme chez Twitter, au départ d’une banque de données incomplètes ou partisanes reliées à des personnes, le résultat qui en sort est forcément biaisé. C’est pourquoi il faut répéter, notamment aux jeunes, que toute image peut avoir été manipulée. Et qu’ils doivent être prudents quand ils postent quelque chose sur les réseaux sociaux. Ils ont très peu conscience des dérives possibles

Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici

Partner Content