Eugenio Maddalena

Le « dark pattern », ou comment nous convaincre de renoncer à des données personnelles (carte blanche)

Eugenio Maddalena Expert en communication numérique  

Connaissez-vous les « dark patterns » ? Eugenio Maddalena, expert en communication numérique, explique comment le Parlement européen y travaille, pour éviter de nous laisser « victimes d’informations trompeuses, que nous ne comprenons pas et auxquelles nous adhérons sans vraiment en comprendre les conséquences ».

Jeudi, le Parlement Européen a approuvé un premier projet de loi visant à freiner certaines pratiques invasives des entreprises technologiques habituelles que nous connaissons (Google, Facebook, Amazon, etc.). Le Parlement a approuvé le projet à une large majorité : 530 voix pour, 78 contre et 80 absents. Comme le rapporte The Verge, le projet de loi parle aussi explicitement du « Dark Pattern », un système qui joue avec nos biais cognitifs avec lequel les plateformes vous « convainquent » de renoncer à des données personnelles. Mais comment ça? Et pourquoi est-ce même un sujet pour le Parlement européen ?

Si vous n’avez jamais entendu parler de « Dark Pattern », ne vous inquiétez pas : c’est tout à fait normal. Cependant, je suis sûr que vous l’avez déjà rencontré plusieurs fois : par exemple lorsque vous essayez de fermer une fenêtre publicitaire mais que le X est tellement estompé que vous ne pouvez pas cliquer dessus (et que vous vous retrouvez par conséquent sur un site Web que vous n’aviez pas envie de voir). Ou lorsque vous recevez un email assertif vous demandant de répondre dans quelques minutes avec un faux compte à rebours. Ou lorsque nous ne savons pas comment résilier un de nos comptes car le chemin est très difficile et donc, à la fin, nous l’oublions.

Cependant, ces exemples ne sont que la surface. Il y a aussi des effets qui ne sont pas aussi visibles. Les dark patterns sont utilisés par les plateformes pour inciter les utilisateurs à consentir à être suivis par le biais de requêtes formulées d’une manière qui n’est pas immédiatement compréhensible. Ils le font généralement en utilisant un langage rusé, ce qui les empêche de vraiment comprendre ce qui est accepté et ce qui ne l’est pas. Prenons un exemple concret et sensationnel : Instagram.

L’exemple est proposé par recode et est particulièrement éclairant. Si vous êtes un utilisateur d’Instagram, vous avez peut-être vu une fenêtre contextuelle vous demandant si vous souhaitez que le service « utilise l’activité de l’application » pour « offrir une meilleure expérience publicitaire ». En bas, il y a deux cases : dans une teinte de noir plus foncée que l’arrière-plan, vous pouvez choisir de « Rendre les publicités moins personnalisées » ; un encadré bleu vif et beaucoup plus « attractif » invite les utilisateurs à « rendre les annonces plus personnalisées ».

Instagram utilise un design et un choix de mots qui influencent les utilisateurs vers un choix précis. L’utilisation de termes tels que « activité » et « personnalisé » au lieu de « suivi » et « ciblage » fait que les utilisateurs ne réalisent pas vraiment les autorisations qu’ils accordent aux applications qu’ils transportent chaque jour dans leurs poches. La plupart des gens – en fait – ne veulent pas qu’Instagram et sa société mère, Meta, sachent tout ce qu’ils font et partout où ils vont. Mais une « meilleure expérience » sonne vraiment comme une bonne chose, donc Instagram rend l’option souhaitée plus attrayante de l’autre. Comprenez-vous le problème?

Le Parlement européen a toujours porté une attention particulière à la protection des données des citoyens des États membres : la protection contre les « dark pattern » fait en réalité partie d’un paquet – appelé Digital Services Act introduit pour la première fois en 2020 – qui empêchera le plateformes d’utiliser des informations sensibles, telles que l’orientation sexuelle, la race et la religion pour la diffusion de contenus ciblés. L’Union européenne exigera des changements directs dans le fonctionnement des plateformes pour offrir aux utilisateurs la possibilité de se retirer facilement du suivi. Le Digital Services Act a encore plus d’obstacles à surmonter ; les négociations avec le Conseil européen débutent le 31 janvier.

En résumé, le Parlement européen – en plus de protéger nos données – travaille également pour éviter de nous laisser victimes d’informations trompeuses, que nous ne comprenons pas et auxquelles nous adhérons sans vraiment en comprendre les conséquences. A chaque fois que l’on choisit de « voir des publicités moins personnalisées », est-on vraiment conscient de dire « oui, je veux que mes goûts et les lieux que je fréquente soient gardés afin de recevoir des publicités en adéquation avec ma personnalité « ? Certains d’entre nous en sont probablement conscients, tandis que (beaucoup d’autres) ne le sont certainement pas.

Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici

Contenu partenaire