© Getty Images/iStock Photos

Les efforts de Facebook pour lutter contre les contenus répréhensibles portent-ils leurs fruits?

Le Vif

Facebook a publié pour la première fois mardi un bilan chiffré de ses efforts pour supprimer de sa plateforme les contenus contrevenant à ses règles d’utilisation, qu’il s’agisse d’images à caractère sexuel, de commentaires haineux ou de propagande terroriste.

Selon ce rapport inédit, qui s’inscrit dans des efforts de transparence du groupe confronté au scandale Cambridge Analytica, 3,4 millions d’images violentes ont été supprimées ou assorties d’avertissements au premier trimestre 2018, presque le triple du trimestre précédent.

Un bond lié principalement, selon le réseau, à une amélioration de ses technologies d’analyse, qui font de plus en plus appel à l’intelligence artificielle. Dans près de 86% des cas, ces images ont été détectées par le réseau avant même lui avoir été préalablement signalés, et elles ont représenté moins de 0,3% des contenus visionnés sur sa plateforme entre janvier et mars.

Concernant les images de nudité ou d’activité sexuelle (hors pédopornographie), le groupe déclare 21 millions d’éléments supprimés au premier trimestre, autant que fin 2017. Cela représente moins de 0,1% des contenus visionnés, et dans près de 96% des cas les images sont supprimées avant tout signalement. Parfois avec trop de zèle, comme lorsque le réseau censure certaine oeuvres d’art pourtant tolérées par ses règles, à l’image de « La liberté guidant le peuple » de Delacroix.

Concernant la propagande terroriste, le groupe a confirmé des chiffres de fin avril: 1,9 million de contenus ont été supprimés au premier trimestre, soit 73% de plus qu’au 4e trimestre 2017, grâce à des améliorations technologiques. 99,5% des contenus supprimés l’ont été avant tout signalement.

Facebook peine en revanche à détecter les messages de haine. Le groupe dit en avoir supprimé 2,5 millions au 1er trimestre (56% de plus qu’au trimestre précédent), mais seuls 38% ont été détectés avant tout signalement. Malheureusement, Facebook n’a pas fourni d’estimation de leur prévalence sur sa plateforme.

Le groupe explique avoir du mal à gérer ces messages car l’intelligence artificielle peine encore à trier le bon grain de l’ivraie: des insultes racistes ou homophobes peuvent par exemple être « réappropriées » par les minorités qu’elles visent, ou dans le but de les dénoncer, ce qui est normalement permis par la plateforme. Et seules les attaques contre les personnes sont interdites, pas celles visant une idéologie ou une institution.

fpo/ial/mm

© Agence France-Presse

Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici

Contenu partenaire