Voici un tour en quatre questions de cette nouvelle bataille entre l'armure et le glaive, version cyberespace.

Comment peut-il y en avoir autant ?

Facebook a indiqué cette semaine avoir "éliminé" 1,2 milliard de faux comptes lors des trois derniers mois de 2018 et près du double (2,19 milliards) les trois mois suivants.

La très grande majorité de ces faux comptes sont des "bots", créés à la vitesse de la lumière (ou presque) par des programmes automatisés pour poster un certain type de contenu qui sert les objectifs de leur "maître". Leur création --par millions avec un même programme-- contrevient au règlement de Facebook.

Ce flot est impossible à contrôler manuellement et Facebook fait donc appel à l'intelligence artificielle pour contrer les attaques. Malgré les chiffres impressionnants de "bots" tués sur le champs de bataille virtuel, Facebook reconnaît que 5% de ses plus de 2 milliards de comptes actifs pourraient être des faux.

Qui est l'ennemi, quels sont ses réseaux ?

Ces faux comptes peuvent remplir diverses fonctions comme par exemple amplifier la popularité ou au contraire le rejet pour une personne ou un mouvement et par la même biaiser la perception que peut en avoir le public qui ne soupçonne pas la manipulation.

Les "bots" se sont retrouvés sous le feu des projecteurs après l'élection présidentielle de 2016 aux Etats-Unis et les révélations sur leur rôle pour influer sur le résultat en faveur de Donald Trump le tout orchestré dans des officines russes spécialisées dans ces attaques sophistiquées. Facebook comme Twitter avaient sous-estimé l'ampleur du phénomène et ont payé le prix fort en termes de crédibilité.

Le phénomène est universel, et ces faux comptes ont souvent réussi à atteindre leur but: influencer, semer la discorde ou fomenter des violences contre des groupes de personnes ou mouvements.

"Les 'bots' ne manipulent pas seulement des messages (...) ils peuvent faire croire aux membres d'un groupe qu'ils pensent la même chose que les membres d'un autre groupe, et ils bâtissent ainsi des chambres de résonance", explique Kathleen Carley de la Carnegie Mellon University, qui a fait des recherches sur ces "bots".

Facebook affirme que ses propres programmes sont capables de détecter les "bots" au moment où ils sont créés et donc avant qu'ils ne puissent remplir leur mission.

"Ces systèmes (de Facebook) utilisent une combinaison de signaux comme par exemple l'utilisation d'adresses suspectes de courriels, des actions suspectes ou encore des signaux qui correspondaient à ceux d'autres faux comptes déjà éliminés", a expliqué Alex Schultz, un responsable de Facebook dans un blog.

Hors de contrôle ?

Les chiffres publiés par Facebook laissent à penser que l'entreprise, qui a besoin de regagner une partie de la confiance perdue pendant l'élection américaine, s'attaque agressivement au problème, affirme Onur Varol, un chercheur du Center for Complex Network Research à Northeastern University.

"Trois milliards c'est un grand nombre, qui montre qu'ils ne veulent rater aucun faux compte mais aussi qu'ils sont prêts à prendre le risque" d'éliminer en même temps un certain nombre de comptes légitimes, souligne M. Varol.

Les usagers ainsi lésés peuvent en général demander que leur compte soit réinstauré.

"Mon sentiment c'est que Facebook prend la chose au sérieux", a-t-il ajouté.

Mais les bots aussi deviennent plus sophistiqués, plus difficiles à détecter parce qu'ils "parlent" de plus en plus comme des humains, explique Kathleen Carley.

Et le jeu du chat et de la souris se poursuit donc de plus belle.

Dois-je m'inquiéter ?

La plupart des usagers ne savent pas faire la différence entre un vrai et un faux compte, estiment les chercheurs.

Si Facebook et Twitter multiplient les efforts pour nettoyer leurs plateformes, les humains ont, quant à eux, un rôle à jouer en essayant de montrer du bon sens avant de partager une information.

"La plupart des infox ne viennent pas des bots", remarque Mme Carley. "La plupart viennent de blogs et les bots les répercutent ensuite", ajoute-t-elle.

Le patron et fondateur de Facebook, Mark Zuckerberg a affirmé qu'il essayait également d'éliminer le plus possible les moyens de faire de l'argent avec ces bots, l'appât du gain étant aussi fort que les motifs politiques.

"Une grande part du contenu néfaste que nous voyons, y compris de la désinformation, est en fait généré pour des raisons mercantiles", a dit M. Zuckerberg, lors d'une téléconférence.