© DELEU/getty images

« Reconnaissance faciale : la transparence est indispensable »

Le Vif

Faut-il limiter l’usage de la reconnaissance faciale comme l’a décidé San Francisco ? Professeur d’informatique à l’université de Namur, Bruno Dumas juge que la confiance dans cette nouvelle pratique ne peut être établie sans une implication de tous les acteurs, juridiques, politiques, académiques et citoyens.

La récente interdiction par la ville de San Francisco de l’usage d’outils de reconnaissance faciale par ses forces de l’ordre a remis sur le devant de la scène une technologie qui a largement évolué ces dernières décennies. Les premières expérimentations, au début des années 1970, cherchaient à identifier la présence d’un visage humain dans une image, avec des résultats très imprécis à l’origine. Petit à petit, l’identification de la présence de visages génériques s’est affinée suffisamment pour être intégrée dans des systèmes grand public, comme les appareils photos ou le réseau social Facebook. En parallèle a émergé la question de la reconnaissance faciale, c’est-à-dire le fait de repérer un visage sur une image, puis de lui assigner une identité.

L' »entraînement » des algorithmes

Les algorithmes utilisés à cet effet proviennent du champ de l’intelligence artificielle et plus particulièrement de ce qu’on appelle l’apprentissage automatique. Ces algorithmes, basés sur des principes mathématiques, rendent typiquement comme résultat une probabilité associée à chaque identité possible. Tout le progrès réalisé ces dernières années a ainsi été lié à l’augmentation de ces probabilités de reconnaissance à un niveau suffisamment élevé. Autre aspect important, ces algorithmes ont besoin d’être entraînés avant d’avoir la moindre chance de reconnaître qui que ce soit, tout comme un être humain aura du mal à reconnaître précisément quelqu’un sans en avoir vu une photo ou l’avoir rencontré préalablement. Pour les algorithmes d’apprentissage par les machines, cet  » entraînement  » consiste typiquement en la fourniture d’une ou plusieurs photos d’une personne donnée afin que l’algorithme ajuste petit à petit ses paramètres en fonction de traits caractéristiques de la personne.

Ce préambule technique vise à mettre en perspective l’actualité récente, qu’elle provienne de Californie, ou bien de Chine, où le gouvernement de Pékin a beaucoup mis en exergue des succès récents obtenus via l’installation à grande échelle de systèmes de reconnaissance faciale dans le pays. On parle de 170 millions de caméras d’ores et déjà installées, pour un système de surveillance surnommé Skynet. Cependant, malgré ce surnom que les amateurs de science-fiction apprécieront, le système chinois est loin d’être l’oeil tout-puissant que les dirigeants chinois promeuvent. Un article paru en juillet 2018 dans le journal Business Insider mentionne ainsi une série de limitations du système chinois, de l’incapacité à suivre plus d’une poignée de visages à la fois, à la nécessité pour la police de précharger à l’avance une série de photos de suspects, lesquels seront les seuls à être identifiés. Cette dernière limitation est d’ailleurs tout à fait logique dès lors qu’on connaît le besoin d’entraîner à l’avance tout algorithme de reconnaissance faciale, comme mentionné plus haut. Et ces limitations ne prennent pas en compte les multiples possibilités de contourner la technologie.

Bruno Dumas, professeur d'informatique au Namur Digital Institute (Nadi) de l'université de Namur.
Bruno Dumas, professeur d’informatique au Namur Digital Institute (Nadi) de l’université de Namur.© dr

Les faiblesses du système

En parallèle de la recherche sur la reconnaissance faciale proprement dite s’est ainsi développée récemment toute une branche étudiant les faiblesses de ces mêmes algorithmes. On a ainsi rapidement réalisé à quel point les outils déployés étaient fragiles et susceptibles d’être perturbés. Des chercheurs de l’université de Carnegie Mellon (Pittsburgh, Etats-Unis) ont, par exemple, récemment démontré qu’une simple paire de lunettes avec un motif de couleurs vives était suffisante pour tromper la plupart des algorithmes de reconnaissance faciale. Dans le même ordre d’idées, un masque suffisamment ressemblant à une autre personne induira en erreur beaucoup d’algorithmes, incapables de faire la distinction entre le vivant et l’inanimé.

La police de San Francisco ne pourra pas recourir à la reconnaissance faciale. La ville californienne est la première aux Etats-Unis à limiter son usage.
La police de San Francisco ne pourra pas recourir à la reconnaissance faciale. La ville californienne est la première aux Etats-Unis à limiter son usage.© Mike Windle/getty images

Si les algorithmes de reconnaissance faciale ont donc encore du chemin à faire avant de nous fournir un futur glaçant façon Black Mirror ou 1984, l’actualité récente, qu’elle provienne de Chine ou de San Francisco, a le mérite de nous inviter à réfléchir à la place que notre société est prête à accorder à cette technologie. Il est en effet probable qu’à l’horizon d’une dizaine d’années, les systèmes de reconnaissance faciale deviennent suffisamment efficaces pour se retrouver potentiellement déployés à une large échelle. Pour reprendre le cas de San Francisco, in fine, c’est un choix politique qu’a effectué le conseil municipal de la ville californienne, en décidant de bannir a priori l’usage potentiel d’une technologie dont les déploiements effectifs restent encore limités.

En ce qui concerne la Belgique, le cadre légal (notamment la loi Caméra belge et le RGPD européen) nous offre pour le moment un certain nombre de garde-fous contre des utilisations excessives. Cependant, ce cadre législatif pourrait devoir être affiné afin de prendre en compte l’évolution technologique. Et au-delà du bouclier légal, il faudra aussi un cadre de transparence complet en cas de déploiement futur de tels systèmes. D’abord, bien évidemment, sur la présence des systèmes eux-mêmes, comme c’est le cas actuellement lorsque de  » simples  » caméras de surveillance sont installées dans un espace public, mais également sur les données ayant servi à l’entraînement du système ainsi qu’à son fonctionnement algorithmique. Finalement, les failles de tels algorithmes étant difficiles à prévoir, un suivi continu par des acteurs interdisciplinaires sera nécessaire. Sans une telle transparence, il sera difficile d’établir le lien de confiance nécessaire avec les citoyens.

Par Bruno Dumas.

Merci au professeur Benoit Frénay, mon collègue de l’institut Nadi spécialiste en apprentissage automatique, pour ses conseils avisés.

Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici

Contenu partenaire