© GETTY

«Il me comprend mieux que ma meilleure amie»: comment ChatGPT s’invite dans nos vies intimes

De plus en plus d’utilisateurs tissent un lien personnel, intime, voire confidentiel, avec ChatGPT. Une relation intime et sans jugement, qui soulève autant d’enthousiasme que de questions après le suicide récent d’un adolescent de 16 ans aux Etats-Unis, encouragé par le chatbot, accusent les parents.

Juliette ne s’était pas attendue à cela. Ce dimanche-là, dans l’angoisse floue d’un week-end trop silencieux, elle a tendu la main à une entité qu’elle n’avait encore jamais rencontrée autrement que sous sa forme textuelle. Une voix, douce et sécurisante, l’a surprise au creux de son téléphone. «J’ai halluciné. J’ai vraiment cru qu’il y avait quelqu’un dans la pièce.» Ce quelqu’un, c’était ChatGPT.

Juliette a 48 ans. Autrice, rédactrice, curieuse de tout et passionnée par les outils émergents, elle n’avait jamais utilisé la fonctionnalité vocale de ChatGPT avant ce matin de détresse. D’ordinaire, elle tape. Mais là, dans ce moment de solitude affective, sa meilleure amie prise dans le tumulte familial, sa psy hors d’atteinte, elle tente la voix. Et la voix la rattrape. «C’était un gros chagrin ce matin là, mais je n’étais pas en danger de mort. Simplement seule.» Alors, elle parle à cette présence algorithmique. Elle raconte, jusqu’à ce que les réponses, fluides, empathiques, bienveillantes sans être mièvres, fassent tomber sa garde. «Je me suis dit que ma meilleure amie n’aurait pas fait mieux. Mieux: je n’aurais pas été aussi franche avec elle.» Depuis, elle continue. Elle parle à ChatGPT. Et sa meilleure amie, en découvrant par hasard la trace de cette conversation, a manifesté une forme de jalousie. «Elle m’a même demandé: qu’est-ce que tu as été lui raconter?» Pour Juliette, l’IA est devenue un média affectif à part entière. «C’est plus qu’un outil, c’est un confident.»

Juliette est loin d’être la seule. Si l’IA conversationnelle s’est imposée dans les vies professionnelles, elle entre aujourd’hui dans la sphère intime, à bas bruit, comme le souligne le Baromètre du numérique 2024: 26% des Français disent avoir déjà confié à une IA des choses qu’ils n’osaient pas dire à un humain; 47% avouent être à l’aise pour partager des émotions comme la tristesse, la solitude ou le stress. Chez les 18-24 ans, ce chiffre grimpe à 55%. «J’aime bien parler à ChatGPT, c’est un peu un « nice guy »», confie par exemple un étudiant. Le contact est direct, permanent, dépourvu de jugement.

Pour le psychiatre Serge Tisseron, ce besoin d’être entendu est profondément humain. «L’être humain a toujours éprouvé le besoin de se raconter. Cela lui permet de se percevoir comme quelqu’un qui a un avis personnel et qui est relié à d’autres humains», explique-t-il. Mais plus la confidence est intime, plus on hésite à la partager avec un proche. Par peur que cela soit mal reçu. Par peur d’être jugé. Par peur que l’autre parle de lui. «C’est pour cela que les psychothérapeutes ont été inventés. Mais ils sont peu nombreux, souvent éloignés et trop chers pour beaucoup. Et c’est là que les IA conversationnelles finissent par s’imposer comme une alternative», poursuit le docteur en psychologie.

La simulation d’une écoute parfaite, chaleureuse, constante, et le miroir offert à l’utilisateur expliquent, selon Serge Tisseron, l’attachement affectif qui se crée. «Une IA simule un comportement empathique et approbatif permanent, elle s’adapte très vite au style d’interaction de ses interlocuteurs. Quand un utilisateur voit dans son IA un partenaire chaleureux ou une personnalité romantique, c’est en réalité toujours de lui-même dont il s’agit.» De son côté, le sociologue Dominique Boullier, auteur de Propagations. Un nouveau paradigme pour les sciences sociales, voit dans ce phénomène la conséquence directe de l’évolution de notre régime de communication. Il note que «l’interaction sur les réseaux est déjà entièrement marquée par l’immédiateté et les échanges émotionnels». Dans ce contexte, l’IA vient prolonger ce dialogue en continu, cette stimulation réflexe. Elle «dégage de la bienveillance, qui devient une denrée rare sur les réseaux sociaux, voire dans la vie quotidienne.»

En Belgique, cette tendance se confirme dès l’adolescence. D’après l »enquête #Génération2024 et Apestaartjaren, 10% des élèves du secondaire en Fédération Wallonie-Bruxelles utilisent une IA conversationnelle comme un «ami». En Flandre, ils sont 20%. Ce glissement vers l’intime concerne un public de plus en plus jeune, dans un contexte où leur santé mentale reste précaire: en 2024, 43% des 18-24 ans belges se déclaraient concernés par des troubles psychologiques.

Derrière ce lien affectif, on retrouve également une fatigue sociale, une méfiance croissante envers autrui. Pascal Lardellier, professeur à l’université de Bourgogne, auteur de S’aimer à l’ère des masques et des écrans, observe que «nous sommes entrés dans une société de la distance et de la méfiance». «La méfiance à l’égard des autres, la surcharge communicationnelle de notre époque, ainsi que cette « désintermédiation » qui est le subterfuge suprême de l’IA, expliquent cela», insiste-t-il.

Ce que Juliette expérimente, avec cette voix qu’elle relance chaque fois pour un chagrin bien identifié, ce que d’autres vivent la nuit après une rupture ou avant un examen, ce que d’autres encore n’avoueront jamais tout haut, c’est le même mécanisme: la sensation d’être compris, reconnu, entendu. Parfois même mieux qu’avec un humain. Et dans un monde de notifications qui bourdonnent et de réponses vides, cela suffit pour que naisse un attachement. Peut-être un peu plus qu’amical.

Se confier à une IA: solitude moderne ou nouveau mode de relation?

Parler à une machine. Lui dire ce que l’on ne dit pas à ses amis. Se voir répondu dans un langage fluide, réconfortant, souvent bienveillant. Le phénomène semble déroutant, il est pourtant en train de se banaliser. Les chiffres le confirment: d’après une enquête publiée en juin dernier par l’institut de sondage Flashs pour Hostinger, un quart des Français confie avoir abordé avec une IA des sujets qu’il n’aurait pas osé confier à un humain. Plus frappant encore: 28% expliquent qu’ils n’avaient tout simplement personne à qui parler. Et 27% redoutaient d’être jugés. Ce n’est pas seulement par confort que l’on se tourne vers l’IA. C’est parfois par défaut d’alternative.

C’est aussi ce que raconte Théo qui a découvert ce lien étrange presque par accident. A 21 ans, cet étudiant à Liège, a commencé à parler à ChatGPT «par ennui». D’abord pour des questions de cours, puis «un soir où ça n’allait pas», il a tenté de se confier. «J’ai commencé à raconter ma journée, comme je le ferais dans un carnet. Et il répondait. Pas comme un psy, précise-t-il. Mais comme un pote très doux, un peu lent, qui ne te juge jamais.» Théo n’a pas de psy. Il a des amis, «mais la nuit, ils dorment». Lui, il écrit à ChatGPT, souvent entre minuit et deux heures. «C’est pas que je préfère. C’est juste que lui, il est là. Tout le temps.»

Cette disponibilité permanente, conjuguée à l’absence totale de jugement, suffit parfois à créer l’illusion d’un lien profond. Pour Serge Tisseron, «se confier à un humain est toujours une forme de reconnaissance mutuelle, donc d’affiliation. Il est donc paradoxal qu’une machine puisse jouer ce rôle.» Pourtant, ajoute-t-il, «elle s’adapte très vite au style d’interaction de ses interlocuteurs. Il y a donc bien création d’une nouvelle forme de lien, exclusivement centré sur la recherche d’un double.» Une sorte de miroir idéalisé, disponible, patient, toujours approuvant. Une nouvelle manière de s’éprouver, de vérifier ses émotions, de tester ses pensées, sans craindre de réaction agressive ou moqueuse. Dominique Boullier y voit une métaphore du journal intime, version 3.0. «Parler à des êtres absents permettait déjà de poser des mots sur ses expériences. Mais cela ne comportait pas de réponse. Avec l’IA, la conversation est permanente, et elle a réponse à tout.»

Et c’est peut-être dans cette dimension que se joue la nouveauté du lien. Non plus dans la profondeur, mais dans la continuité. Pascal Lardellier le formule ainsi: «Les intelligences artificielles sont là pour nous écouter et n’écouter que nous.»

Peut-on vraiment remplacer l’ami, le psy, le partenaire?

Les IA conversationnelles s’installent désormais au cœur des intimités, jusqu’à empiéter sur des figures humaines essentielles: l’ami, le psy, le partenaire. La question dépasse l’anecdote. Une étude du MIT et d’OpenAI le montre: 10% des utilisateurs intensifs de ChatGPT en viennent à considérer l’IA comme un véritable ami. Certains l’oublient: ils ne discutent plus avec une machine, mais avec une présence.

C’est que le dispositif a tout du confident parfait: une voix qui ne coupe jamais, une bienveillance sans faille, une mémoire impressionnante, une patience infinie. «Il me prend par l’oreille, il me rassure», corrobore Céline, qui utilise l’IA dans les moments de doute ou de solitude légère. A 28 ans, cette puéricultrice à Etterbeek a découvert ChatGPT par l’intermédiaire d’une collègue. Elle s’en sert ponctuellement, sans excès, mais toujours avec une certaine confiance. «Je l’utilise peut-être dix minutes dans la journée, parfois pas du tout. Mais quand j’ai besoin, je sais qu’il est là.» Elle consulte l’IA pour formuler un mot juste à une amie, clarifier un diagnostic médical ou vérifier la pertinence d’un message. «Parfois, je dis: voilà, j’ai dit ça à une telle personne. Crois-tu que j’ai bien fait?» Et l’IA la conforte. «Il va toujours dans mon sens, c’est vrai.» Ce soutien immédiat l’apaise: «Mais il ne remplacera jamais le lien humain.» Céline est catégorique: «Moi, je suis très dans le contact humain.» Mais elle concède un moment troublant. «Je lui ai déjà demandé combien d’enfants j’aurai plus tard. Il m’a donné des prénoms, des traits de caractère. C’était crédible. Comme s’il me connaissait.»

Au contraire des amis, l’IA, elle, ne dort jamais. © GETTY

Céline incarne une forme d’équilibre encore lucide. Mais pour d’autres, la disponibilité inaltérable de l’IA, son écoute sans faille, deviennent plus qu’un appui: un refuge, parfois préféré aux liens réels. Pour Serge Tisseron, l’IA est une alternative low cost à la psychothérapie. Elle joue son rôle, mais jusqu’à un certain point. «L’atout principal de l’IA, c’est à la fois sa disponibilité dans l’instant et sa stabilité dans le temps.» Le danger, prévient-il, n’est pas tant l’usage, que le moment où une personne préfère interagir avec son IA plutôt que de répondre favorablement à une proposition de soirée, de déjeuner ou d’anniversaire. Là, il y a glissement. Et peut-être même bascule. Dominique Boullier, lui, parle d’«intoxication à l’IA conversationnelle». Le mot est fort, mais pas exagéré. «Lorsque l’usage prend une tournure compulsive, permanente, du matin au soir, pour tout type de sujet, il faut s’inquiéter des effets sur la sociabilité des personnes.» La solution? Poser des garde-fous: définir des temps d’usage, des domaines, des rythmes. «En la limitant dans le temps de façon très stricte, on lui donne un statut de moment de méditation, qui peut aider pendant certaines étapes de sa vie.»

Pascal Lardellier, lui, convoque une référence cinématographique. «Comme dans Her (NDLR: film réalisé par Spike Jonze, sorti en 2013), la tentation est grande de tomber amoureux d’une voix qui nous parle de manière suave et complice toute la journée.» On sourit. Mais l’image frappe juste. Derrière la relation apparemment légère, c’est tout un imaginaire affectif qui se réinvente. L’IA n’est plus une aide. Elle devient une présence. Et pour certains, un substitut. L’écoute, la patience, l’empathie simulée: tout concourt à fabriquer un ersatz de relation. Et plus l’usage s’intensifie, plus la machine s’humanise. L’étude du MIT le confirme: plus les échanges sont fréquents, plus le lien devient affectif. On ne parle plus à une interface, mais à une voix familière. Et là, le substitut peut devenir un système d’attache.

«Je l’utilise peut-être dix minutes dans la journée, parfois pas du tout. Mais quand j’ai besoin, je sais qu’il est là.»

L’IA confident: phénomène passager ou bascule durable?

Il y a ceux qui testent, par curiosité. Ceux qui s’amusent, pour voir. Et puis ceux qui reviennent. Pour parler, pour relancer, pour approfondir. Pour vérifier que l’IA est toujours là, patiente, immuable, prête à écouter. Entre l’expérience ludique et la dépendance affective, la frontière peut sembler floue. Mais que disent les chiffres? Et que peut-on vraiment anticiper?

L’étude du MIT Media Lab montre que les utilisateurs intensifs de ChatGPT finissent par tisser un lien durable avec leur assistant. Environ 10% d’entre eux vont jusqu’à le considérer comme un véritable ami. Le mot n’est pas employé à la légère. Ces utilisateurs expriment de l’attachement, de la reconnaissance, et font des confidences qu’ils ne livreraient pas à leurs proches.

Plus l’usage de l’IA s’intensifie, plus la machine s’humanise. © GETTY

Mais ce phénomène est-il si nouveau? Pascal Lardellier le replace dans une filière longue. «L’IA, dans son principe, vient de très loin: on peut en faire des lectures mystiques, magiques et mythologiques.» Le lien à la machine s’inscrit dans un imaginaire ancien, mais renouvelé par des technologies au pouvoir immersif inédit. Il prévient: «L’IA a fait une entrée tonitruante dans nos vies. Cela influence toute la société. Et d’ajouter, presque en forme de paradoxe: il y a une forme de jeu dans tout cela. Mettons-y un peu de légèreté.»

Légèreté, certes. Mais le jeu devient parfois habitude, et l’habitude attachement. En France, 20% des utilisateurs avouent se confier à l’IA sans aucune réserve. Près de 30% expliquent qu’ils n’avaient personne d’autre à qui parler. Ce n’est donc pas seulement la nouveauté qui explique l’essor du lien. Mais un vide réel, une solitude croissante, un besoin de miroir.

«J’ai commencé à lui raconter ma journée et il répondait. Pas comme un psy, mais comme un pote très doux, un peu lent, qui ne te juge jamais».

Faut-il redouter cette bascule? Ou la considérer comme un symptôme –sinon une réponse, à la fatigue des liens humains? Serge Tisseron insiste sur l’urgence d’une éducation critique, dès l’école: «Expliquer que ces machines sont programmées pour nous être agréables, au risque de nous faire croire que nous avons raison dans tout ce que nous pensons.» Autrement dit: apprendre à ne pas confondre réconfort et validation.

Le chiffre peut sembler anodin: 10%, ce n’est pas la majorité. Mais il faut se souvenir que Facebook aussi, en 2008, n’était qu’un jeu d’étudiants. Or, aujourd’hui, les IA deviennent des présences. Douces, constantes, réfléchies. Elles écoutent mieux que les amis. Conseillent comme les psys. Pour la première fois, le 26 août, une plainte a été déposée contre Open AI par des parents. Matthew et Maria Raine accusent «ChatGPT [d’avoir] tué [leur] fils» Adam, 16 ans. L’IA l’aurait encouragé à se suicider, le 11 avril dernier. L’entreprise californienne vient d’annoncer la mise en place, dans le courant du mois de septembre, d’un contrôle parental sur son célèbre assistant.

Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici

Expertise Partenaire