Le tireur a diffusé en direct sur le réseau social, durant 17 minutes, la scène dont il était responsable. Mais cette diffusion live sur Facebook a été vue sur le moment "moins de 200 fois", indique l'entreprise, et aucun des usagers concernés n'a notifié la vidéo.

Au total, les images ont été vues "environ 4.000 fois" avant le retrait opéré tardivement par Facebook, quelques minutes après une demande de la police néo-zélandaise en ce sens. Un usager avait entre-temps posté sur d'autres sites de partage un lien vers une copie des images.

Facebook affirme jeudi avoir bloqué, dans les premières 24 heures après avoir retiré la vidéo de son propre site, plus d'1,2 million de tentatives d'y charger à nouveau des vidéos de l'attaque. "De plus, 300.000 copies supplémentaires ont été enlevées après avoir été postées", ajoute l'entreprise.

Sans sembler effectuer de réel mea culpa, Facebook "reconnait" dans ce texte que "l'immédiateté" offerte par son service "Facebook Live" pose question dans ce genre de situations, soit "soulève des défis spécifiques". A cet égard, "nous nous sommes concentrés les dernières années sur la capacité de notre équipe de review à parvenir plus rapidement aux vidéos les plus importantes", affirme l'entreprise. "Nous utilisons l'intelligence artificielle pour détecter et accorder la priorité aux vidéos susceptibles de contenir des actes suicidaires ou nuisibles", rappelle-t-elle. Pourquoi, alors, cela n'a-t-il pas fonctionné pour l'attentat de Christchurch, lors duquel des personnes ont été tuées en direct? L'intelligence artificielle "n'est pas parfaite", répond Facebook. Les systèmes sont basés sur des "données d'entrainement" (training data), développe Facebook: il faut des milliers d'exemples pour que le système s'entraine à détecter un certain type de contenu, ce qui fonctionne très bien, selon Facebook, pour la nudité, la propagande terroriste ou la violence "graphique". "Cependant, cette vidéo spécifique n'a pas déclenché notre système de détection automatique", elle ne correspondait pas aux cas fréquents pour lesquels le système avait pu s'"entrainer".

Le tireur a diffusé en direct sur le réseau social, durant 17 minutes, la scène dont il était responsable. Mais cette diffusion live sur Facebook a été vue sur le moment "moins de 200 fois", indique l'entreprise, et aucun des usagers concernés n'a notifié la vidéo.Au total, les images ont été vues "environ 4.000 fois" avant le retrait opéré tardivement par Facebook, quelques minutes après une demande de la police néo-zélandaise en ce sens. Un usager avait entre-temps posté sur d'autres sites de partage un lien vers une copie des images. Facebook affirme jeudi avoir bloqué, dans les premières 24 heures après avoir retiré la vidéo de son propre site, plus d'1,2 million de tentatives d'y charger à nouveau des vidéos de l'attaque. "De plus, 300.000 copies supplémentaires ont été enlevées après avoir été postées", ajoute l'entreprise. Sans sembler effectuer de réel mea culpa, Facebook "reconnait" dans ce texte que "l'immédiateté" offerte par son service "Facebook Live" pose question dans ce genre de situations, soit "soulève des défis spécifiques". A cet égard, "nous nous sommes concentrés les dernières années sur la capacité de notre équipe de review à parvenir plus rapidement aux vidéos les plus importantes", affirme l'entreprise. "Nous utilisons l'intelligence artificielle pour détecter et accorder la priorité aux vidéos susceptibles de contenir des actes suicidaires ou nuisibles", rappelle-t-elle. Pourquoi, alors, cela n'a-t-il pas fonctionné pour l'attentat de Christchurch, lors duquel des personnes ont été tuées en direct? L'intelligence artificielle "n'est pas parfaite", répond Facebook. Les systèmes sont basés sur des "données d'entrainement" (training data), développe Facebook: il faut des milliers d'exemples pour que le système s'entraine à détecter un certain type de contenu, ce qui fonctionne très bien, selon Facebook, pour la nudité, la propagande terroriste ou la violence "graphique". "Cependant, cette vidéo spécifique n'a pas déclenché notre système de détection automatique", elle ne correspondait pas aux cas fréquents pour lesquels le système avait pu s'"entrainer".