Facebook dit avoir "rapidement" retiré la vidéo en direct du tireur mais l'enregistrement dure quelque 17 minutes. La vidéo a ensuite été reprise sur d'autres plateformes comme YouTube et Twitter, et des séquences étaient encore visibles vendredi.

Au moins 49 personnes ont été tuées et des dizaines d'autres blessées dans l'attaque de deux mosquées à Christchurch, en Nouvelle-Zélande.

Les plus grandes plateformes internet ont promis d'endiguer le partage d'images violentes et autres contenus inappropriés par le biais de systèmes automatisés et d'un contrôle humain. Mais cela ne fonctionne pas, selon des observateurs.

"Il n'y a aucune excuse au fait que le contenu de cette transmission en direct soit encore en train de circuler sur les réseaux sociaux en ce moment", juge Lucinda Creighton, ancienne ministre irlandaise aujourd'hui conseillère au Counter Extremism Project, qui fait campagne pour retirer les contenus violents des plateformes internet.

Ces dernières "disent avoir leurs propres technologies mais nous ne savons pas lesquelles. Il n'y a pas de transparence et ça ne marche clairement pas", poursuit-elle.

Son organisation a développé une technologie qui combattrait certains types de contenus violents et l'a proposée à des compagnies d'internet, en vain.

Les grandes plateformes ont collaboré pour développer une technologie détectant la pornographie infantile, sans aller jusqu'à unir leurs efforts contre les contenus violents.

Facebook explique ainsi utiliser des outils technologiques en plus de ses propres modérateurs et de signalements de la part d'utilisateurs pour retirer le contenu inapproprié.

Et le géant a embauché quelque 20.000 modérateurs mais ces derniers, selon plusieurs médias, sont soumis à un grand stress en raison des vidéos violentes et peinent à gérer les séquences diffusées en direct.

La police de Nouvelle-Zélande a exhorté dans un tweet vendredi à ne pas partager les "images extrêmement éprouvantes" des massacres de Christchurch qui ont circulé, selon des internautes, sur Reddit, 4chan et d'autres plateformes.

"Nous oeuvrons à faire retirer tout enregistrement" des tueries, avait ajouté la police.

Twitter et YouTube ont dit travailler à retirer les vidéos en question et tout contenu leur étant lié.

Twitter affirme avoir "une procédure rigoureuse et une équipe dédiée pour gérer les situations délicates et d'urgence comme celle-ci". "Nous coopérons également avec la police pour faciliter ses enquêtes", a le réseau social.

Quant à YouTube, la plateforme a indiqué dans un tweet avoir "le coeur brisé" par "la terrible tragédie en Nouvelle-Zélande", et a tenu à faire savoir qu'elle "oeuvrait activement à retirer toute vidéo violente" de ses pages.

Facebook a assuré dans un communiqué avoir interrompu la transmission en direct de cette vidéo et l'avoir retirée à la suite d'une requête de la police, et avoir bloqué les comptes Facebook et Instagram du tireur.

"Nous retirons également tout soutien ou apologie du crime et du ou des tireurs dès que nous en voyons", a précisé Facebook.

Bien trop peu, selon Jennifer Grygiel, enseignante en communication à l'université de Syracuse qui suit de près les réseaux sociaux.

"Facebook est une plateforme sans modérateurs où vous pouvez transmettre ce que vous voulez", accuse-t-elle, estimant qu'aucune mesure d'ampleur n'a été prise depuis la diffusion en direct sur Facebook en 2017 d'un meurtre à Cleveland, dans l'Ohio.

Il est devenu courant, selon Mme Grygiel, pour les auteurs de crimes d'utiliser les réseaux sociaux pour diffuser leurs actes, et ces derniers sont ensuite réenregistrés puis partagés, encore et encore.

Selon elle, des plateformes comme YouTube ont la capacité de trouver et de retirer ces vidéos violentes avec des recherches par mots-clés, mais il faudrait davantage de personnes pour le travail de modération et de surveillance.

Les outils d'intelligence artificielle peuvent aider, poursuit-elle, mais "aucun algorithme ne peut être conçu pour cela, parce qu'on ne peut pas prévoir l'avenir".