Le duel Trump-Clinton s'est incontestablement déroulé sur le Net : deux tiers des Américains s'informent sur les réseaux sociaux, selon l'institut Pew Research Center. © Chip Somodevilla/Getty Images

Comment le Web oriente nos votes

Mélanie Geelkens
Mélanie Geelkens Journaliste, responsable éditoriale du Vif.be

Les algorithmes n’ignorent plus rien de nous. Nos goûts, nos opinions, nos points de vue… Programmés pour nous combler, ils nous scrutent sur les réseaux sociaux et moteurs de recherche. Jusqu’à nous enfermer dans des bulles, hermétiques à la diversité ? Jusqu’à manipuler nos opinions ?

Rien n’arrête Frank Underwood. Il a déjà tué, quoi ? Deux, trois témoins gênants ? Il a même poussé le président des Etats-Unis à la démission. Et manipulé tellement de gens pour faciliter son accès à la Maison-Blanche qu’il n’en est plus à une manigance près. Même lorsqu’il s’agit de placer une population entière sur écoute pour tirer électoralement profit de données personnelles. A la guerre comme à la guerre : son rival républicain, lui, entend bien gagner l’élection en truquant à son avantage les résultats d’un moteur de recherche.

Toute ressemblance avec des faits réels serait purement fortuite. Enfin, uniquement pour les assassinats. Pour le reste, les réalisateurs de la dernière saison de la série House of Cards ont juste humé l’air du temps. Ceci n’est plus une fiction : la victoire d’une élection se joue aussi sur le Web. Barack Obama l’avait bien senti, lui qui fut le premier à inonder massivement la Toile lors de sa campagne de 2008. Mais, huit ans plus tard, la question n’est plus tant de savoir comment un candidat peut convaincre les électeurs grâce à Internet. Mais bien comment Internet peut convaincre les électeurs de voter pour un candidat. Sans nécessairement qu’ils s’en rendent compte.

Selon Facebook, son algorithme élimine bien certains contenus, mais à la marge

Robert Epstein, psychologue à l’American Institute for Behavioral Research and Technology, aurait pu rédiger le scénario de House of Cards.  » Comment Google pourrait truquer les élections (américaines) « , écrivait-il, en août 2015, dans le magazine Politico. Sa thèse : la hiérarchisation des résultats de recherche peut influencer les votants. Le chercheur en a fait l’expérience grandeur nature, lors du scrutin législatif indien en 2014. Son équipe a recruté 2 000 électeurs indécis, chargés d’effectuer des recherches sur trois candidats (Gandhi, Kejriwal et Modi) sur un faux Google, biaisé pour les besoins de l’enquête. Chaque groupe ne voyait dans les dix premiers résultats que des liens consacrés à l’un des trois hommes politiques. Au final, dans chacun des trois groupes, le soutien au candidat ainsi mis en avant a progressé : de 26,5 % dans le premier, de 11,3 % dans le deuxième et de 9,1 % dans le dernier.

Si, dans sa dernière saison, House of Cards imagine un candidat qui manipule l'algorithme d'un moteur de recherche à son avantage, la série est elle aussi le fruit d'un algorithme. Ses concepteurs ont analysé les préférences des utilisateurs de Netflix pour l'imaginer.
Si, dans sa dernière saison, House of Cards imagine un candidat qui manipule l’algorithme d’un moteur de recherche à son avantage, la série est elle aussi le fruit d’un algorithme. Ses concepteurs ont analysé les préférences des utilisateurs de Netflix pour l’imaginer.© JOHN BAZEMORE/ISOPIX

Un bel  » effet de manipulation des moteurs de recherche, selon Robert Epstein. Comme beaucoup d’élections sont remportées grâce à un faible écart, cela confère à Google un vrai pouvoir d’influence.  » Il ajoutait à l’époque, soit avant les primaires américaines, que le candidat républicain qui agitait le plus les claviers était… Donald Trump. Et que cette effervescence pourrait le placer au sommet des recherches en ligne et, in fine, lui créer davantage de soutiens. Comme un cercle vicieux. On connaît la suite.

Une vie après la page 10

Depuis son émergence en 1998, Google n’a cessé de simplifier nos vies. Mais il n’a jamais été neutre. Vous êtes-vous jamais demandé si la vie existait après la page 10 ? Et qui décidait de reléguer tel lien dans des abîmes jamais consultés ? Ravi de vous présenter l’algorithme !  » Si Google s’est imposé face à ses concurrents, c’est parce que son algorithme était capable de classer les premières pages selon leur popularité globale « , juge Hugues Bersini, professeur d’informatique à l’ULB et directeur du laboratoire Iridia, dédié à l’intelligence artificielle.

Olivier Ertzscheid.
Olivier Ertzscheid.© SDP

Mais ça, c’était avant. Désormais, deux internautes qui tapent un même mot au même moment n’obtiendront plus le même résultat. Faites le test. Google a réussi à affiner son programme informatique pour qu’il nous propose un contenu (censé être) taillé sur mesure. La nôtre. En utilisant nos traces virtuelles (sites visités, précédentes recherches, données personnelles…) pour en déduire nos goûts, nos opinions, nos centres d’intérêt… Facebook fonctionne exactement de la même manière. Si vous ne likez et ne partagez que des vidéos de chats, votre fil d’actualité sera envahi de vidéos de chats. Tant pis pour les chiens.

Tant pis aussi pour le Ceta, la crise des réfugiés, le réchauffement climatique, le résultat du dernier match d’Anderlecht ou le fait divers qui a secoué Bois-et-Borsu. De ça, vous risquez de ne jamais entendre parler. Ou de ne nager que dans les mêmes eaux. Et, dès lors, de vous abreuver aux seules sources qui confortent et renforcent votre opinion.  » Si, au restaurant, vous commandez trois fois de suite du poisson, la quatrième fois, le patron vous proposera une sole ou du cabillaud, compare le philosophe et mathématicien Luc de Brabandere. Dans un premier temps, rien à redire : Google ou Facebook ne font rien d’autre que le restaurateur. Le problème, c’est quand ça empêche la contradiction ou le débat ! En plus, tout ça est très opaque.  » De fait, les géants du Web occultent jalousement le fonctionnement de leurs algorithmes. Secret industriel. Après tout, Coca non plus n’a jamais révélé la recette de son cola.

Le Brexit s'est-il en partie joué sur le Web. Plusieurs observateurs se demandent si les algorithmes n'ont pas polarisé les opinions.
Le Brexit s’est-il en partie joué sur le Web. Plusieurs observateurs se demandent si les algorithmes n’ont pas polarisé les opinions.© BLOOMBERG/GETTY IMAGES

Sauf qu’un soda n’a jamais été suspecté d’influencer les résultats du référendum pour ou contre le Brexit. Du coup, plusieurs observateurs se posent sérieusement la question : les réseaux sociaux auraient-ils contribué à polariser, voire à radicaliser le débat britannique ? En ne servant aux anti-EU que des mets europhobes, et vice versa, les algorithmes auraient empêché de goûter au point de vue de l’autre. Confinant les sondés dans une bulle. Une  » bulle de filtres « , comme l’a théorisé Eli Pariser, le premier à s’être alarmé du phénomène.

Républicains, êtes-vous là ?

Dans The Filter Bubble (éd. Penguin, 2011), ce Web-activiste américain décrit comment lui, le démocrate, a progressivement vu disparaître ses contacts républicains de son fil Facebook. Parce qu’il cliquait plus volontiers sur des contenus démocrates.  » Quand j’étais ado, le Web signifiait une connexion avec le monde. J’étais sûr que ça allait être formidable pour la démocratie et la société, racontait-il en 2011 lors d’une conférence TED. Mais il y a ce changement, invisible, dans la façon dont l’information circule en ligne. Et si nous n’y faisons pas attention, ce pourrait être un réel problème.  »

Si les personnes ont des comportements monotones, alors les calculateurs les enferment dans leur régularité »

Problème d’autant plus réel que les réseaux sociaux phagocytent de plus en plus les autres médias. Selon un sondage réalisé cette année par le Reuter Institute dans 26 pays, 51 % des répondants déclarent utiliser Facebook, Twitter ou YouTube comme source d’information. Pour 12 % (et même 28 % dans la catégorie 18-24 ans), c’est même devenu le principal canal. Clairement dit : voilà l’ère de l’information sur mesure. Qui élimine ou réduit la base commune d’alimentation du débat public. On est loin, déjà, de l’époque où toute la famille s’installait chaque soir dans le canapé pour assister à la grand-messe cathodique. Les JT – comme les journaux papiers – avaient (ont) évidemment leurs vilains défauts, mais pas forcément celui du manque de déontologie, ni de l’uniformité des points de vue, ni de l’absence de vérification. Difficile d’être aussi catégorique face au Web…

Or,  » plusieurs études ont démontré que le taux de confiance sur les réseaux augmente, souligne Olivier Ertzscheid, chercheur en information et communication à l’université de Nantes. De plus en plus de gens accordent le même crédit à un contenu sur Twitter qu’à un reportage télévisé, par exemple.  » Et d’ajouter que les médias y ont eux-mêmes contribué : en se lançant à corps perdu dans la chasse aux hashtags et aux partages, ils ont crédibilisé ces médias. Aïe. Ça fait mal, une balle dans le pied.

Mark Zuckerberg le répète pourtant à qui veut l’entendre : son social network n’est pas une entreprise médiatique. Si une entreprise médiatique était capable d’engendrer un bénéfice de 2,4 milliards de dollars (au troisième trimestre 2016), ça se saurait.  » Le but des réseaux sociaux n’est pas de diffuser de l’information ! recadre Florence Le Cam, titulaire d’une chaire en journalisme à l’ULB. Leur enjeu, c’est de récolter les données – que nous fournissons nous-mêmes – et d’en faire de l’argent.  »

Lors de 61 jours consécutifs avant l'élection législative indienne, le candidat Narendra Modi (ici avec Mark Zuckerberg) était 25% plus recherché sur Google que ses rivaux. Il a été élu président.
Lors de 61 jours consécutifs avant l’élection législative indienne, le candidat Narendra Modi (ici avec Mark Zuckerberg) était 25% plus recherché sur Google que ses rivaux. Il a été élu président.© BLOOMBERG/GETTY IMAGES

Ils ne sont pas si mystérieux que ça, en fait, leurs algorithmes. Si notre fil d’actualité ne nous prend pas la tête, si on se marre avec des amis qui nous ressemblent, si on se détend en matant des vidéos de chats, alors on se sentira bien. Et on sera plus enclin à cliquer sur une bannière publicitaire, puis éventuellement à acheter et donc à engraisser les juteux profits des maîtres du Web.

 » On paie en nature  »

Facebook lui-même se charge de convaincre ceux qui restent persuadés de l’inoffensivité des vidéos de chats. En juin 2014, le site a publié dans la prestigieuse revue PNAS une étude réalisée sur 689 000 utilisateurs (qui n’étaient pas au courant…) : pendant une semaine, ils ne voyaient plus que des posts tantôt uniquement positifs, tantôt exclusivement négatifs. Histoire de savoir si les cobayes malgré eux devenaient joyeux ou tristes et si leur comportement s’en trouvait modifié. Eh bien oui, ces émotions peuvent être virtuellement contagieuses !  » Si ça ce n’est pas de la manipulation, peste Luc de Brabandere. Nous sommes juste un grand laboratoire. Sinon, tout cela ne serait pas gratuit ! On paie en nature.  »

Peut-être pas aussi cher que ce que l’on croit. Les études scientifiques sur les  » bulles de filtres  » se suivent sans se ressembler.  » Elles ne sont pas unanimes. Il y en a qui disent « oui, c’est un danger », d’autres « non, c’est une illusion ». En tout cas, ça montre que la question devient importante « , pointe Christophe Benavent, auteur du livre Plateformes. Sites collaboratifs, marketplaces, réseaux sociaux… Comment ils influencent nos choix (éd. FYP, 2016).

Fort logiquement, Facebook se range plutôt dans la seconde catégorie. En 2015, il s’est offert le luxe d’une publication dans Science pour affirmer (sur la base d’une analyse des profils de 10,1 millions d’utilisateurs aux Etats-Unis) que son algorithme élimine bien certains posts, mais à faible dose.  » Les conservateurs voient environ 5 % de contenu transversal de moins par rapport à ce que leurs amis ont partagé, et les libéraux environ 8 %.  » Pas de quoi faire flancher une élection jouée d’avance. Mais aujourd’hui, les scrutins ressemblent toujours plus à des sprints. Dont le vainqueur émerge de justesse…

Toujours selon cette étude maison, tout est en réalité de notre faute :  » Nous avons tendance à interagir avec des gens qui ont les mêmes opinions que nous. En ligne ou hors ligne, explique Nicolas Vanderbiest, assistant à l’UCL. Sur Twitter, on pourrait choisir de suivre n’importe qui et, pourtant, on ne le fait pas.  »  » C’est un phénomène scientifiquement bien connu : le biais de confirmation, prolonge Florence Le Cam. On privilégie les points de vue qui confortent nos idées, nos impressions. Ça peut entraîner une « spirale du silence ». On n’exprime une opinion que lorsqu’on sait qu’elle va être partagée par nos contacts. Avoir un avis dissonant devient plus dur à assumer.  »

Les réseaux sociaux ont peut-être chamboulé nos vies, mais ils n’ont pas tout inventé non plus, poursuit la professeure de l’ULB.  » De tous temps, les médias ont orienté la façon dont le public voit le monde.  » Les journaux, la télé, les radios suivent tous une ligne éditoriale idéologiquement marquée. Libération n’a jamais joué dans la même cour que Le Figaro.  » Est-ce que les réseaux sociaux rendent le débat plus obtus ? Peut-être. Mais il est impossible d’isoler l’effet produit par un seul média.  » Parce qu’une bulle, aussi filtrée soit-elle, se forme toujours dans un milieu socio-professionnel, social, familial… Une opinion ne se construit pas qu’à coups de likes.

Le Web-activiste Eli Pariser explique, lors d'une conférence TED, comment deux recherches Google sur un même thème (ici, l'Egypte) livrent des résultats très différents selon la personne derrière le clavier.
Le Web-activiste Eli Pariser explique, lors d’une conférence TED, comment deux recherches Google sur un même thème (ici, l’Egypte) livrent des résultats très différents selon la personne derrière le clavier.© TED.COM

Circulez, y’a rien à voir ?  » C’est un peu le problème de la poule et de l’oeuf, juge Olivier Ertzscheid. L’information que l’on reçoit sur le Net est liée à la manière dont on y interagit, mais la manière dont on interagit est influencée par l’algorithme ! Une sorte de boucle. Nous ne sommes pas totalement aliénés, mais nous ne sommes pas complètement libres non plus.  » Ceux qui comprennent la logique des réseaux sociaux s’affranchissent sans doute plus que d’autres.  » Si on sait comment ça fonctionne, on arrive à contrer ce phénomène. Sinon, le danger est de se laisser manipuler malgré soi.  »

Pas que Beyoncé

Une petite dose d’esprit critique n’a jamais fait de mal à personne. Un chouïa d’ouverture non plus.  » Si les personnes ont des comportements monotones, si elles ont des amis qui ont tous les mêmes idées et les mêmes goûts, si elles suivent toujours le même trajet, alors les calculateurs les enferment dans leur régularité. Si l’internaute n’écoute que du Beyoncé, il n’aura que du Beyoncé ! Si, en revanche, il montre des comportements plus divers, suit des chemins inattendus, a des réseaux sociaux hétérogènes, alors les algorithmes vont élargir les choix et, parfois, faire découvrir des horizons nouveaux « , affirmait en octobre 2015, dans Libération, Dominique Cardon, sociologue français et auteur du livre référence A quoi rêvent les algorithmes.

Ne pourrait-on survivre dans le monde virtuel sans liker à tout va ? Sans partager la moindre vidéo de chat ? En utilisant des moteurs de recherche qui ne retiennent pas nos choix ? Moins les internautes laissent de traces, moins les programmes informatiques de Facebook et compagnie auront les moyens de les enfermer dans leur monde.  » Moi, sur mon profil, je suis serveur dans un hôtel au Pérou ! lance Olivier Ertzscheid. Si on ne dit rien à l’algorithme, ça lui complique la tâche.  »

Le Web activiste Eli Pariser, lui, rêve d’algorithmes déontologiques, qui auraient intégré une certaine dose d’éthique.  » S’ils décident de ce que nous pouvons voir ou pas, alors nous devons nous assurer qu’ils nous montrent aussi des choses inconfortables, stimulantes, importantes, différentes. […] Nous avons besoin que ces nouveaux gardiens incorporent cette responsabilité dans le code qu’ils sont en train d’écrire « , plaidait-il lors de la conférence TED.

C’était il y a cinq ans. Depuis, grâce à la pression de ses utilisateurs, Facebook a appris à sa  » créature  » à ne plus confondre L’Origine du monde, de Gustave Courbet, avec de la pornographie. Et à ne plus faire l’amalgame entre la photographie de la  » petite fille au napalm  » de Nick Ut et de l’indécente nudité enfantine. Tout espoir n’est pas perdu.

Algos à gogo

Chaque minute, l’être humain poste 300 heures de vidéo sur YouTube et like quatre millions de fois sur Facebook. Ces traces numériques s’ajoutent à bien d’autres dans le domaine des ressources humaines, de la santé, de la politique et forment de vastes bases de données, les Big Data. Face à ce déluge, les algorithmes se chargent de faire le tri, mais aussi d’analyser, d’établir des recommandations et des prédictions. Plus la société se numérise, plus ils s’installent confortablement dans nos vies. Qui vous permet d’obtenir un résultat satisfaisant à une recherche Google en une fraction de seconde ? Des algorithmes. De partir en vacances sans vous tromper de route et par le chemin le plus court ? D’autres algorithmes. D’atterrir en toute sécurité à l’aéroport ? Toujours des algorithmes.

Une blague qui circule sur Internet veut qu’un algorithme soit « un nom utilisé par un programmeur quand il ne veut pas expliquer ce qu’il a fait ». S’il peut avoir des applications très complexes, son action peut se décrire simplement. Le sociologue français Dominique Cardon dresse un parallèle avec une recette de cuisine. « Un algorithme, c’est une suite d’instructions pour arriver à un résultat donné. Comme quand vous cuisinez : il faut rassembler des ingrédients au départ, séparer ou pas les blancs et les jaunes. Si on ne respecte pas une étape, on va rater la recette. » Un algorithme peut donc indiquer la marche à suivre, pas à pas, pour résoudre un problème ou effectuer une tâche. L’informaticien Gérard Berry, qui planche au Collège de France sur « les algorithmes, les machines et le langage », complète la définition :  » Beaucoup d’actions mécaniques, toutes probablement, se prêtent bien à une telle décortication. Le but est d’évacuer la pensée du calcul, afin de le rendre exécutable par une machine numérique. »

Quentin Noirfalisse.

Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici

Contenu partenaire