© Reuters

Modérateur pour Facebook: le pire métier du monde ?

Muriel Lefevre

Modérateur pour Facebook pourrait bien être l’un des pires métiers au monde. Ces personnes, souvent jeunes, sont confrontées chaque jour à tout ce que l’humaine peut produire de plus laid.

Facebook veut regagner la confiance des utilisateurs après le scandale Cambridge Analytica. Dans un souci de plus grande transparence, elle publie pour la première fois sa charte qui détaille sa politique de modération. L’occasion pour la BBC de revenir sur les coulisses d’un métier ingrat, celui de modérateur pour Facebook.

Longtemps l’entreprise a été très discrète sur sa modération. Souvent on lui reprochait d’être trop laxiste. Mais aussi parfois trop stricte en interdisant, par exemple, des reproductions d’oeuvre représentant des nus. Le système de la modération se base sur une combinaison entre des algorithmes et des signalements des utilisateurs. On estime que bien que la grosse partie du travail soit effectué par des machines, il y a encore aujourd’hui 7500 personnes à travers le monde qui surveillent et suppriment des contenus interdits ou bannissent des utilisateurs. On notera que, suite aux derniers scandales, ils sont même 40% plus nombreux qu’il y a un an.

Une charte

La charte récemment publiée se compose en cinq parties : la violence, la sécurité, les contenus répréhensibles, l’intégrité et l’authenticité ainsi que la propriété intellectuelle. Facebook rappelle aussi que la nudité est interdite en dehors de certains cas très précis comme l’humour, une volonté pédagogique ou scientifique, un acte de protestation, des photos d’allaitement ou encore une chirurgie précise le Figaro. Par ailleurs Facebook y définit l’incitation à la haine comme « une attaque directe sur des personnes et fondée sur ce que nous appelons des caractéristiques protégées: les origines ethniques et nationales, la religion, l’orientation sexuelle, le sexe, le genre, l’identité de genre, le handicap et/ou la maladie. » Elle répartit ces attaques en trois niveaux. Le pire étant les messages qui appellent directement à la violence, au meurtre ou qui déshumanisent un individu ou un groupe d’individus. Ensuite viennent les expressions de mépris et de dégoût comme « les XXX sont ce qu’il y a de pire » dit encore le Figaro. Le moins répréhensible étant les appels à l’exclusion et à la ségrégation. La publication de cette charte s’accompagne aussi d’une nouveauté : la possibilité de faire appel. Lorsqu’un contenu est supprimé, l’utilisateur de Facebook reçoit une notification et peut dès lors contester d’un simple clic. Des modérateurs humains doivent y répondre dans les 24h.

Des images qui collent à la rétine

Quotidiennement, chacun de ces modérateurs regarde des milliers de vidéos et d’images. En moyenne, il travaille jusqu’à 8 heures par jour avec un ratio de près de 1000 posts par heure. Et ils doivent se préparer à voir n’importe quoi. Il leur arrive de tomber sur des images particulièrement choquantes et traumatisantes même pour les habitués. La BBC a interviewé l’un de ces modérateurs qui travaillent à Berlin. « Nous faisons l’un des emplois les plus importants de la compagnie, mais aussi le pire. Sauf que cela n’intéresse personne. On devient comme une machine. Oui/Non. Clic. Clic. Or il arrive qu’on soit confronté de la pornographie enfantine comme le viol d’un bébé de six mois. Mais aussi des attaques terroristes. ».

Pour l’une des directrices de ce genre de centre, la compagnie fait ce qu’elle peut pour aider ses employés et rajoute que ces images atroces ne sont qu’une infime partie du contenu à vérifier. La modératrice interviewée par la BBC n’est pas tout à fait de cet avis. « Si ces images ne sont pas forcément légion, les modérateurs qui y sont confrontés en font des cauchemars ». Et ils ne se sentent absolument pas soutenus. « Il n’y a pas un jour où l’on ne voit pas quelque chose qu’on aurait préféré ne pas voir. On va se plaindre presque tous les jours, mais cela ne change pas grand-chose ». Selon la directrice, ces allégations doivent être nuancées puisqu’on propose au personnel qui n’y arrive plus d’être muté vers un autre service où ils ne sont plus confrontés à ce genre d’image ou qu’on propose des formations et une aide psychologique 24h sur 24.

« C’est vrai qu’on nous prévient qu’il y aura de la pornographie et des images choquantes » dit une autre modératrice toujours à la BBC. « sauf qu’être prévenue est une chose, le voir vraiment en est un autre. Certaines personnes pensent qu’elles peuvent le gérer et il s’avère qu’elles ne le peuvent pas. Ou alors c’est pire que ce à quoi elles s’attendaient. Mais au fil du temps, on s’immunise. Je ne dirais pas que ça devient plus facile, mais on s’y habitue, c’est certain. On arrive rapidement à distinguer ce qui est du spam et ce qui ne l’est pas. C’est surtout un travail très monotone et c’est juste du cliquage. Si je recommande ce job ? Pas si vous pouvez faire quoi que ce soit d’autre » conclut-elle.

Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici

Contenu partenaire