© Getty Images/iStockphoto

YouTube et Facebook mettent le turbo sur la modération de contenus inappropriés

YouTube a supprimé, sur la période d’octobre à décembre derniers, 8,3 millions de vidéos inappropriées, selon le premier rapport trimestriel de la plate-forme relatif au règlement de sa communauté. Facebook avance de son côté être intervenu sur 1,9 million de messages de propagande islamiste au premier trimestre de 2018, soit deux fois plus qu’au cours des trois mois précédents.

YouTube avait été sommée de réagir après plusieurs polémiques concernant la présence sur sa plate-forme de vidéos dans lesquelles des enfants étaient maltraités ou d’autres, tout à fait innocentes, mais qui suscitaient des commentaires à caractère pédophile. Ces révélations avaient entraîné la fuite de nombreux annonceurs. A la fin de l’année, la filiale de Google avait dès lors promis de s’attaquer plus fermement au problème, notamment en investissant dans des algorithmes capables de détecter ces contenus.

Outre les 6,7 millions de vidéos supprimées grâce à cette technologie – dont 76% avant même qu’elles aient pu être vues -, 1,1 million l’ont été à la suite de signalements d’usagers et 400.000 après une dénonciation d’un membre de la communauté, ressort-il du rapport.

Près d’un tiers (30%) des vidéos retirées présentaient un caractère sexuel. Suivent les spams (27%), les contenus haineux (16%) et les violents (14%). Les vidéos pouvant mettre en danger des enfants représentent 5% des suppressions, celles faisant la promotion du terrorisme 2%.

D’après le rapport, les pays avec le plus de contenus signalés étaient, dans l’ordre, l’Inde, les États-Unis, le Brésil, la Russie et l’Allemagne.

De son côté, Facebook indique sur son blog avoir « entrepris des actions » à l’encontre de 1,9 million de messages de propagande de l’Etat islamique ou d’Al-Qaïda lors des trois premiers mois de l’année. Ces actions peuvent aller jusqu’à la suppression du contenu, mais elles se limitent parfois à l’ajout d’un avertissement. Le réseau social, qui a lui aussi un blason à redorer depuis les révélations du scandale d’utilisation des données de ses utilisateurs lié à la société Cambridge Analytica, affirme que 99% des messages de haine ont été mis au jour grâce à ses propres outils.

Par ailleurs, la société de Mark Zuckerberg a promis qu’elle permettrait désormais aux utilisateurs de « faire appel » lorsqu’une de leurs photos, vidéos ou publications jugée obscène ou violente serait supprimée.

Cela sera mis en place dans le courant de l’année et concernera dans un premier temps la nudité, le sexe, les appels à la haine ou la violence visuellement explicite, a précisé Siobhan Cummiskey, responsable de ce dossier au sein du groupe américain, qui revendique plus de deux milliards d’utilisateurs. Jusqu’ici, les usagers pouvaient faire appel des suppressions de profils ou de pages mais pas de « posts » individuels.

Mi-mars, Facebook a reconnu « une erreur » après avoir temporairement censuré une publicité représentant le tableau « La Liberté guidant le peuple » du peintre Eugène Delacroix, où une femme aux seins nus brandit un drapeau français. Il avait aussi été très critiqué pour avoir fermé le compte d’un utilisateur qui avait publié une photo du tableau « L’Origine du monde » de Gustave Courbet, représentant un sexe féminin.

Contenu partenaire