La boîte noire s'ouvre. Un peu. Depuis quelques semaines, Facebook lève le voile sur son fonctionnement en proposant à ses utilisateurs de comprendre comment telle ou telle publication est arrivée sur leur mur. Photo de chat mignon, discours politique ou recette de cuisine filmée... Mais pourquoi a-t-on si rapidement l'impression de regarder toujours le même type de contenu, provenant toujours du même cercle d' " amis " ? Pour le savoir, il faut se montrer curieux et commencer par cliquer sur les trois points de suspension situés en haut à droite du post qui vous intrigue. Puis, dans la fenêtre qui s'ouvre, choisir l'option " Pourquoi est-ce que je vois cette publication ? " Quelques explications apparaissent alors : vos interactions avec cet ami sont fréquentes, vous réagissez à ce type de contenu ou bien il a suscité beaucoup d'échanges et de partages.

Un commencement de réponse assez attendu. Mais il existe des dizaines d'autres critères. " N'oublions pas que Facebook a été pensé comme un outil de sociabilité, et non comme un concurrent aux journaux ou à la télévision, rappelle Dominique Cardon, sociologue et directeur du MediaLab de Sciences po, créé en 2009 à Paris (" pour aider les sciences sociales et humaines à tirer le meilleur profit de la masse de données rendues disponibles par la numérisation "). C'est pourquoi son algorithme est avant tout conditionné par la façon dont nous choisissons nos amis. C'est cela qui va nous enfermer dans un type de contenu plutôt qu'un autre. "

Une vocation sociale dont le réseau s'était éloigné et à laquelle Mark Zuckerberg, grand patron de Facebook, a voulu revenir en déclarant, en janvier 2018, privilégier désormais les statuts des proches et de la famille, au détriment des articles de presse et des publications des marques.

La tuerie de Christchurch, le 15 mars dernier (51 morts). Filmée en live par son auteur sur Facebook. © CARL COURT/GETTY IMAGES

Une photo qui vaut plus qu'un statut

Priorité affichée ? Les échanges que Zuckerberg qualifie de meaningful (ayant du sens pour l'utilisateur). Matt Navarra, un consultant américain, a rendu public au début de l'année dernière un document rédigé par les équipes de Facebook précisant les conséquences concrètes de cette décision. Lorsqu'un statut ou une photo émerge, c'est donc qu'il ou elle a recueilli de nombreux commentaires et likes. Sa visibilité grimpera davantage si ces commentaires se répondent entre eux et que le contenu est également partagé via Messenger, la messagerie maison. " Facebook distingue les interactions actives, qui demandent un effort à l'internaute, et les interactions passives, où il se contente de lire, cliquer ou liker ", explique Stéphanie Laporte, fondatrice de l'agence Social Media Otta et directrice du Master Community Management à l'Inseec Bordeaux.

L'algorithme va encore beaucoup plus loin. Il tient compte de la nature du message. Une photo vaut ainsi plus qu'un statut, et une vidéo plus qu'une photo. L'auteur, l'heure à laquelle il l'a postée, l'heure de consultation, l'appareil utilisé (un téléphone ou un PC), la longueur du texte et celle des réponses sont également des facteurs pris en compte. Sans oublier, bien sûr, le temps passé à lire ou à regarder. En vous laissant aller à visionner jusqu'au bout une vidéo de bricolage postée par un ami, vous risquez fort de voir proliférer les films similaires, même si vous n'êtes pas un amoureux de la perceuse... Pareil pour une vidéo politique.

Les publications " attrape-clics ", destinées à créer une interaction artificielle en incitant par exemple à " taguer " (mentionner) le nom d'un ami qu'elle pourrait concerner, sont systématiquement disqualifiées. Riche des informations renseignées dans votre profil et de la façon dont vous vous comportez habituellement en ligne, Facebook va vous montrer en priorité les contenus susceptibles de vous plaire et auxquels vous serez tenté de réagir. Chaque publication voit ainsi sa pertinence évaluée pour chaque utilisateur, au moyen d'une note elle-même susceptible d'évoluer en fonction des goûts de la personne concernée. Les résultats, il faut le reconnaître, sont plutôt au rendez-vous. Selon une étude menée par l'institut de recherche Pew Internet, seuls 27 % des utilisateurs estiment n'avoir pas été bien cernés par l'algorithme.

Mais si l'intelligence artificielle du réseau social sait mettre en avant certains messages, elle en fait disparaître d'autres avec une efficacité accrue chaque jour. Obscénité, violence, fake news... L'entreprise affirme retirer de façon automatique 99 % des contenus non conformes à ses standards avant même qu'ils ne soient signalés. Pour minimiser la portée des fausses informations, elle a lancé cette année un nouvel outil baptisé " Click-Gap " (Ecart de clics). Les contenus suscitant le plus de clics et de partages sont analysés en permanence et leur portée comparée à celle qu'ils ont sur l'Internet global. Un post populaire seulement sur Facebook sera ainsi considéré comme suspect et sa visibilité réduite. D'autres algorithmes savent détecter les propos laissant penser à l'imminence d'un suicide et alertent un modérateur humain capable, le cas échéant, de prévenir les secours. Le réseau sait également bloquer le " revenge porn " et empêcher le partage de photos de nus déclarées comme n'ayant pas été autorisées.

Une intervention humaine indispensable

Les vidéos diffusées en direct représentent un défi d'un autre ordre. La tuerie de Christchurch (Nouvelle-Zélande), le 15 mars de cette année, filmée par son auteur sur Facebook Live, a révélé un défaut dans la cuirasse de l'entreprise. Certes, celle-ci n'a mis que douze minutes à identifier le problème et à couper les images, une performance au vu de la quantité mise en ligne chaque seconde, mais ce délai a suffi pour qu'elles soient répliquées et rediffusées largement. " Du coup, Facebook reconsidère sa position à l'égard des vidéos live, qui étaient jusqu'ici les contenus les plus valorisés par l'algorithme ", signale Stéphanie Laporte.

Echaudé, le groupe pourrait même interdire l'accès à Facebook Live aux utilisateurs ayant, par le passé, enfreint ses règles de publication. En tout état de cause, il ne saurait se passer de l'intervention humaine pour filtrer les publications litigieuses. Dans le monde, 30 000 personnes sont chargées d'analyser les posts repérés par l'IA ou signalés par les internautes, s'exposant parfois à des choses épouvantables. " En la matière, il restera toujours une zone grise et les humains sont les seuls à pouvoir juger du contexte, qui rend un propos ou une image acceptable ou non ", pointe Jérémie Mani, PDG de l'entreprise de modération Netino by Webhelp.

Face à la bêtise naturelle, l'intelligence artificielle n'a pas encore toutes les clés.

Par Matthieu Scherrer.