Rien n'arrête Frank Underwood. Il a déjà tué, quoi ? Deux, trois témoins gênants ? Il a même poussé le président des Etats-Unis à la démission. Et manipulé tellement de gens pour faciliter son accès à la Maison-Blanche qu'il n'en est plus à une manigance près. Même lorsqu'il s'agit de placer une population entière sur écoute pour tirer électoralement profit de données personnelles. A la guerre comme à la guerre : son rival républicain, lui, entend bien gagner l'élection en truquant à son avantage les résultats d'un moteur de recherche.
...

Rien n'arrête Frank Underwood. Il a déjà tué, quoi ? Deux, trois témoins gênants ? Il a même poussé le président des Etats-Unis à la démission. Et manipulé tellement de gens pour faciliter son accès à la Maison-Blanche qu'il n'en est plus à une manigance près. Même lorsqu'il s'agit de placer une population entière sur écoute pour tirer électoralement profit de données personnelles. A la guerre comme à la guerre : son rival républicain, lui, entend bien gagner l'élection en truquant à son avantage les résultats d'un moteur de recherche. Toute ressemblance avec des faits réels serait purement fortuite. Enfin, uniquement pour les assassinats. Pour le reste, les réalisateurs de la dernière saison de la série House of Cards ont juste humé l'air du temps. Ceci n'est plus une fiction : la victoire d'une élection se joue aussi sur le Web. Barack Obama l'avait bien senti, lui qui fut le premier à inonder massivement la Toile lors de sa campagne de 2008. Mais, huit ans plus tard, la question n'est plus tant de savoir comment un candidat peut convaincre les électeurs grâce à Internet. Mais bien comment Internet peut convaincre les électeurs de voter pour un candidat. Sans nécessairement qu'ils s'en rendent compte. Robert Epstein, psychologue à l'American Institute for Behavioral Research and Technology, aurait pu rédiger le scénario de House of Cards. " Comment Google pourrait truquer les élections (américaines) ", écrivait-il, en août 2015, dans le magazine Politico. Sa thèse : la hiérarchisation des résultats de recherche peut influencer les votants. Le chercheur en a fait l'expérience grandeur nature, lors du scrutin législatif indien en 2014. Son équipe a recruté 2 000 électeurs indécis, chargés d'effectuer des recherches sur trois candidats (Gandhi, Kejriwal et Modi) sur un faux Google, biaisé pour les besoins de l'enquête. Chaque groupe ne voyait dans les dix premiers résultats que des liens consacrés à l'un des trois hommes politiques. Au final, dans chacun des trois groupes, le soutien au candidat ainsi mis en avant a progressé : de 26,5 % dans le premier, de 11,3 % dans le deuxième et de 9,1 % dans le dernier. Un bel " effet de manipulation des moteurs de recherche, selon Robert Epstein. Comme beaucoup d'élections sont remportées grâce à un faible écart, cela confère à Google un vrai pouvoir d'influence. " Il ajoutait à l'époque, soit avant les primaires américaines, que le candidat républicain qui agitait le plus les claviers était... Donald Trump. Et que cette effervescence pourrait le placer au sommet des recherches en ligne et, in fine, lui créer davantage de soutiens. Comme un cercle vicieux. On connaît la suite. Depuis son émergence en 1998, Google n'a cessé de simplifier nos vies. Mais il n'a jamais été neutre. Vous êtes-vous jamais demandé si la vie existait après la page 10 ? Et qui décidait de reléguer tel lien dans des abîmes jamais consultés ? Ravi de vous présenter l'algorithme ! " Si Google s'est imposé face à ses concurrents, c'est parce que son algorithme était capable de classer les premières pages selon leur popularité globale ", juge Hugues Bersini, professeur d'informatique à l'ULB et directeur du laboratoire Iridia, dédié à l'intelligence artificielle. Mais ça, c'était avant. Désormais, deux internautes qui tapent un même mot au même moment n'obtiendront plus le même résultat. Faites le test. Google a réussi à affiner son programme informatique pour qu'il nous propose un contenu (censé être) taillé sur mesure. La nôtre. En utilisant nos traces virtuelles (sites visités, précédentes recherches, données personnelles...) pour en déduire nos goûts, nos opinions, nos centres d'intérêt... Facebook fonctionne exactement de la même manière. Si vous ne likez et ne partagez que des vidéos de chats, votre fil d'actualité sera envahi de vidéos de chats. Tant pis pour les chiens. Tant pis aussi pour le Ceta, la crise des réfugiés, le réchauffement climatique, le résultat du dernier match d'Anderlecht ou le fait divers qui a secoué Bois-et-Borsu. De ça, vous risquez de ne jamais entendre parler. Ou de ne nager que dans les mêmes eaux. Et, dès lors, de vous abreuver aux seules sources qui confortent et renforcent votre opinion. " Si, au restaurant, vous commandez trois fois de suite du poisson, la quatrième fois, le patron vous proposera une sole ou du cabillaud, compare le philosophe et mathématicien Luc de Brabandere. Dans un premier temps, rien à redire : Google ou Facebook ne font rien d'autre que le restaurateur. Le problème, c'est quand ça empêche la contradiction ou le débat ! En plus, tout ça est très opaque. " De fait, les géants du Web occultent jalousement le fonctionnement de leurs algorithmes. Secret industriel. Après tout, Coca non plus n'a jamais révélé la recette de son cola. Sauf qu'un soda n'a jamais été suspecté d'influencer les résultats du référendum pour ou contre le Brexit. Du coup, plusieurs observateurs se posent sérieusement la question : les réseaux sociaux auraient-ils contribué à polariser, voire à radicaliser le débat britannique ? En ne servant aux anti-EU que des mets europhobes, et vice versa, les algorithmes auraient empêché de goûter au point de vue de l'autre. Confinant les sondés dans une bulle. Une " bulle de filtres ", comme l'a théorisé Eli Pariser, le premier à s'être alarmé du phénomène. Dans The Filter Bubble (éd. Penguin, 2011), ce Web-activiste américain décrit comment lui, le démocrate, a progressivement vu disparaître ses contacts républicains de son fil Facebook. Parce qu'il cliquait plus volontiers sur des contenus démocrates. " Quand j'étais ado, le Web signifiait une connexion avec le monde. J'étais sûr que ça allait être formidable pour la démocratie et la société, racontait-il en 2011 lors d'une conférence TED. Mais il y a ce changement, invisible, dans la façon dont l'information circule en ligne. Et si nous n'y faisons pas attention, ce pourrait être un réel problème. " Problème d'autant plus réel que les réseaux sociaux phagocytent de plus en plus les autres médias. Selon un sondage réalisé cette année par le Reuter Institute dans 26 pays, 51 % des répondants déclarent utiliser Facebook, Twitter ou YouTube comme source d'information. Pour 12 % (et même 28 % dans la catégorie 18-24 ans), c'est même devenu le principal canal. Clairement dit : voilà l'ère de l'information sur mesure. Qui élimine ou réduit la base commune d'alimentation du débat public. On est loin, déjà, de l'époque où toute la famille s'installait chaque soir dans le canapé pour assister à la grand-messe cathodique. Les JT - comme les journaux papiers - avaient (ont) évidemment leurs vilains défauts, mais pas forcément celui du manque de déontologie, ni de l'uniformité des points de vue, ni de l'absence de vérification. Difficile d'être aussi catégorique face au Web... Or, " plusieurs études ont démontré que le taux de confiance sur les réseaux augmente, souligne Olivier Ertzscheid, chercheur en information et communication à l'université de Nantes. De plus en plus de gens accordent le même crédit à un contenu sur Twitter qu'à un reportage télévisé, par exemple. " Et d'ajouter que les médias y ont eux-mêmes contribué : en se lançant à corps perdu dans la chasse aux hashtags et aux partages, ils ont crédibilisé ces médias. Aïe. Ça fait mal, une balle dans le pied. Mark Zuckerberg le répète pourtant à qui veut l'entendre : son social network n'est pas une entreprise médiatique. Si une entreprise médiatique était capable d'engendrer un bénéfice de 2,4 milliards de dollars (au troisième trimestre 2016), ça se saurait. " Le but des réseaux sociaux n'est pas de diffuser de l'information ! recadre Florence Le Cam, titulaire d'une chaire en journalisme à l'ULB. Leur enjeu, c'est de récolter les données - que nous fournissons nous-mêmes - et d'en faire de l'argent. " Ils ne sont pas si mystérieux que ça, en fait, leurs algorithmes. Si notre fil d'actualité ne nous prend pas la tête, si on se marre avec des amis qui nous ressemblent, si on se détend en matant des vidéos de chats, alors on se sentira bien. Et on sera plus enclin à cliquer sur une bannière publicitaire, puis éventuellement à acheter et donc à engraisser les juteux profits des maîtres du Web. Facebook lui-même se charge de convaincre ceux qui restent persuadés de l'inoffensivité des vidéos de chats. En juin 2014, le site a publié dans la prestigieuse revue PNAS une étude réalisée sur 689 000 utilisateurs (qui n'étaient pas au courant...) : pendant une semaine, ils ne voyaient plus que des posts tantôt uniquement positifs, tantôt exclusivement négatifs. Histoire de savoir si les cobayes malgré eux devenaient joyeux ou tristes et si leur comportement s'en trouvait modifié. Eh bien oui, ces émotions peuvent être virtuellement contagieuses ! " Si ça ce n'est pas de la manipulation, peste Luc de Brabandere. Nous sommes juste un grand laboratoire. Sinon, tout cela ne serait pas gratuit ! On paie en nature. " Peut-être pas aussi cher que ce que l'on croit. Les études scientifiques sur les " bulles de filtres " se suivent sans se ressembler. " Elles ne sont pas unanimes. Il y en a qui disent "oui, c'est un danger", d'autres "non, c'est une illusion". En tout cas, ça montre que la question devient importante ", pointe Christophe Benavent, auteur du livre Plateformes. Sites collaboratifs, marketplaces, réseaux sociaux... Comment ils influencent nos choix (éd. FYP, 2016). Fort logiquement, Facebook se range plutôt dans la seconde catégorie. En 2015, il s'est offert le luxe d'une publication dans Science pour affirmer (sur la base d'une analyse des profils de 10,1 millions d'utilisateurs aux Etats-Unis) que son algorithme élimine bien certains posts, mais à faible dose. " Les conservateurs voient environ 5 % de contenu transversal de moins par rapport à ce que leurs amis ont partagé, et les libéraux environ 8 %. " Pas de quoi faire flancher une élection jouée d'avance. Mais aujourd'hui, les scrutins ressemblent toujours plus à des sprints. Dont le vainqueur émerge de justesse... Toujours selon cette étude maison, tout est en réalité de notre faute : " Nous avons tendance à interagir avec des gens qui ont les mêmes opinions que nous. En ligne ou hors ligne, explique Nicolas Vanderbiest, assistant à l'UCL. Sur Twitter, on pourrait choisir de suivre n'importe qui et, pourtant, on ne le fait pas. " " C'est un phénomène scientifiquement bien connu : le biais de confirmation, prolonge Florence Le Cam. On privilégie les points de vue qui confortent nos idées, nos impressions. Ça peut entraîner une "spirale du silence". On n'exprime une opinion que lorsqu'on sait qu'elle va être partagée par nos contacts. Avoir un avis dissonant devient plus dur à assumer. " Les réseaux sociaux ont peut-être chamboulé nos vies, mais ils n'ont pas tout inventé non plus, poursuit la professeure de l'ULB. " De tous temps, les médias ont orienté la façon dont le public voit le monde. " Les journaux, la télé, les radios suivent tous une ligne éditoriale idéologiquement marquée. Libération n'a jamais joué dans la même cour que Le Figaro. " Est-ce que les réseaux sociaux rendent le débat plus obtus ? Peut-être. Mais il est impossible d'isoler l'effet produit par un seul média. " Parce qu'une bulle, aussi filtrée soit-elle, se forme toujours dans un milieu socio-professionnel, social, familial... Une opinion ne se construit pas qu'à coups de likes. Circulez, y'a rien à voir ? " C'est un peu le problème de la poule et de l'oeuf, juge Olivier Ertzscheid. L'information que l'on reçoit sur le Net est liée à la manière dont on y interagit, mais la manière dont on interagit est influencée par l'algorithme ! Une sorte de boucle. Nous ne sommes pas totalement aliénés, mais nous ne sommes pas complètement libres non plus. " Ceux qui comprennent la logique des réseaux sociaux s'affranchissent sans doute plus que d'autres. " Si on sait comment ça fonctionne, on arrive à contrer ce phénomène. Sinon, le danger est de se laisser manipuler malgré soi. " Une petite dose d'esprit critique n'a jamais fait de mal à personne. Un chouïa d'ouverture non plus. " Si les personnes ont des comportements monotones, si elles ont des amis qui ont tous les mêmes idées et les mêmes goûts, si elles suivent toujours le même trajet, alors les calculateurs les enferment dans leur régularité. Si l'internaute n'écoute que du Beyoncé, il n'aura que du Beyoncé ! Si, en revanche, il montre des comportements plus divers, suit des chemins inattendus, a des réseaux sociaux hétérogènes, alors les algorithmes vont élargir les choix et, parfois, faire découvrir des horizons nouveaux ", affirmait en octobre 2015, dans Libération, Dominique Cardon, sociologue français et auteur du livre référence A quoi rêvent les algorithmes. Ne pourrait-on survivre dans le monde virtuel sans liker à tout va ? Sans partager la moindre vidéo de chat ? En utilisant des moteurs de recherche qui ne retiennent pas nos choix ? Moins les internautes laissent de traces, moins les programmes informatiques de Facebook et compagnie auront les moyens de les enfermer dans leur monde. " Moi, sur mon profil, je suis serveur dans un hôtel au Pérou ! lance Olivier Ertzscheid. Si on ne dit rien à l'algorithme, ça lui complique la tâche. " Le Web activiste Eli Pariser, lui, rêve d'algorithmes déontologiques, qui auraient intégré une certaine dose d'éthique. " S'ils décident de ce que nous pouvons voir ou pas, alors nous devons nous assurer qu'ils nous montrent aussi des choses inconfortables, stimulantes, importantes, différentes. [...] Nous avons besoin que ces nouveaux gardiens incorporent cette responsabilité dans le code qu'ils sont en train d'écrire ", plaidait-il lors de la conférence TED. C'était il y a cinq ans. Depuis, grâce à la pression de ses utilisateurs, Facebook a appris à sa " créature " à ne plus confondre L'Origine du monde, de Gustave Courbet, avec de la pornographie. Et à ne plus faire l'amalgame entre la photographie de la " petite fille au napalm " de Nick Ut et de l'indécente nudité enfantine. Tout espoir n'est pas perdu.