OpenAI et Mattel collaboreront pour amener «la magie de l’IA» dans les jouets pour enfants. Ce qui n’est pas sans poser des questions sur le contrôle de cette technologie et son usage. Regards croisés de deux experts sur la proposition.
Une poupée qui rabâche en boucle les mêmes phrases ou une peluche qui exprime sa joie après une caresse dans le dos, cela fait probablement sourire. Mais quelle réaction faut-il avoir face à un jouet bardé d’intelligence artificielle, capable de répondre à n’importe quelle question d’enfant, sans comprendre exactement d’où vient la réponse?
Ce cap, Mattel s’apprête à le franchir. La société, détentrice notamment des marques Barbie, Hot Wheels, Fisher Price, Polly Pocket ou Uno, a annoncé un partenariat avec OpenAI, qui propulse ChatGPT. Dans un communiqué, cette dernière se félicite «d’apporter une nouvelle dimension d’innovation et de magie alimentée par l’IA aux marques emblématiques de Mattel». L’entreprise de jouets, elle, insiste sur le fait qu’elle proposera «des expériences de jeu adaptées à l’âge de l’enfant, en mettant l’accent sur l’innovation, la vie privée et la sécurité.»
Remettre le jouet à sa place
Les mots choisis cachent assez mal les craintes que peut générer l’idée même de «jouets ChatGPT». Ceux-ci n’existent pas encore et l’usage exact de l’IA reste spéculatif à ce stade. En revanche, le champ des questions est déjà très concret. Et semble vertigineux.
«Le préjudice psychologique de ce genre de produit est énorme, parce que l’enfant aura l’impression d’interagir avec un être vivant alors qu’il ne s’agit que d’une machine», alerte Bruno Humbeeck, psychopédagogue à l’UMons.
Pour cet expert du développement de l’enfant, il faut tout d’abord déconstruire l’idée même de «jouet interactif» et remettre l’objet à sa juste place. «Ce jouet, tout comme l’écran, n’est jamais interactif. C’est une erreur de le croire. Devant un écran, on réagit mais on n’interagit pas. Pour avoir de l’interaction, il faut au moins deux êtres humains devant l’objet, qui pourront échanger sur ce qui se passe, ce qu’ils voient, ce qu’ils vivent.»
L’enfant qui vivra des émotions, voire qui les partagera avec ces jouets «intelligents», ne recevra rien en retour. «Peu importe la forme que prennent ces nouveaux jouets IA, il faut sensibiliser directement l’enfant au fait que c’est une machine, qui ne ressent pas d’émotion humaine. Il faut remettre l’objet à sa juste place: on ne peut pas le blesser, on a le droit de l’interrompre, de le ranger, de l’éteindre. L’IA comme ChatGPT a tendance à toujours vouloir prolonger l’échange, à relancer l’utilisateur. C’est donc essentiel de recadrer cela», poursuit le spécialiste.
La difficulté des relations
Pour Louis de Diesbach, éthicien de la technique et auteur de Bonjour ChatGPT (2024), ce n’était qu’une question de temps pour que cela arrive. «Difficile d’être surpris, en réalité. Il y a cette loi de Gabor qui dit que tout ce qui est techniquement possible finira toujours immanquablement par l’être. Mais cela ne peut que provoquer en même temps une certaine frayeur. On parle ici d’une nouvelle forme d’appropriation de la relation par la machine. Qui plus est avec des enfants, plutôt jeunes, car c’est la cible de Mattel. Cela ouvre des questions sur notre époque et dit beaucoup sur notre société.»
La question de la relation au jouet évoque en filigrane la question de nos propres relations entre humains. Des échanges parfois compliqués, dans un monde où il paraît plus facile de converser avec un robot qui ne juge pas, qui est toujours disponible et brossant dans le sens du poil celui qui l’utilise. «Les relations humaines sont effectivement parfois vues comme difficiles. L’éducation des enfants aussi. Il y a une forme d’injonction à la perfection chez les parents, qui crée énormément de culpabilité. C’est évidemment plus confortable et facile de déléguer, que ce soit à un écran ou à un autre jeu», constate l’expert en intelligence artificielle.
Sa crainte principale en imaginant le futur, c’est moins Terminator, avec une IA qui prendrait le contrôle, que Wall-E, un film où les humains, enfermés dans leur bulle technologique et gavés de divertissement, oublient leurs relations. «C’est dramatique, car nous sommes arrivés à un point où la technologie permet de répondre à des problèmes créés par la technologie elle-même. Nous sommes aliénés à nos smartphones, par exemple, ce qui crée une incapacité à se connecter ensemble. Mark Zuckerberg, le fondateur de Facebook, expliquait que les gens avaient en moyenne trois vrais amis, mais en voudraient quinze. Certaines sociétés veulent répondre à la solitude de notre époque en proposant des relations avec des machines, sans plus s’interroger sur ce qui nous a mis dans cette situation.»
Dans l’opacité de l’intelligence artificielle
Les agents conversationnels comme ChatGPT ou d’autres montrent aussi une forme d’opacité dans leur fonctionnement. Les réponses fournies à une question découlent de statistiques: les mots s’enchaînent selon leur probabilité d’apparition, basés sur un corpus de documents engloutis en amont.
Cela peut faire craindre des réponses formatées, réduisant la richesse humaine, gommant les différences ou les faits statistiquement peu significatifs. Sans parler des thématiques complexes. Qu’adviendra-t-il en cas de questions sur la mort, sur l’identité, le genre, la place des filles et des garçons? «Le retour de bâton peut être tellement violent avec ces jouets, avec des réponses absurdes, biaisées ou dangereuses, tout le monde peut le voir arriver… Il y aura forcément une forme de contrôle sur ce qui en sortira, espère l’éthicien. Mais cela doit à nouveau nous questionner: veut-on déléguer ces questions à des machines ou doit-on avoir nous-mêmes ces discussions, aussi complexes soient-elles?»
Accompagner plutôt que rejeter l’IA
Faut-il pour autant tout rejeter en bloc? Les deux experts nuancent. «Cela nous rappelle l’importance d’encadrer, d’expliquer et de sensibiliser à l’IA. C’est aussi le rôle des adultes. Le mot magique, c’est « accompagner » l’enfant. J’invite les parents, par exemple, à regarder des dessins animés avec leurs enfants, pour en parler ensemble, décoder ce que l’on voit et partager les émotions ressenties», propose le psychopédagogue.
«L’IA peut être utile en tant que support à penser.»
L’IA doit également intégrer le système scolaire rapidement, afin d’en cerner les limites et d’en faire un outil maîtrisé par les élèves, espère-t-il. «Quand on ne comprend pas quelque chose, soit on le rejette, soit on plonge dedans. Ici, j’aurais tendance à dire qu’il vaut mieux y aller, en considérant que l’IA peut être utile en tant que support à penser. En Lettonie, ils utilisent l’intelligence artificielle très tôt dans le développement de l’enfant, mais avec une restriction uniquement pour poser des questions cognitives. Si je l’utilise pour nuancer ce que je pense, cela me semble intéressant. Si je ne cherche qu’à confirmer ce que je pense déjà, cela n’a aucun intérêt. Il faut s’emparer dès maintenant de ces problématiques.»
«Trouver des applications utiles reste possible, ajoute l’éthicien. Imaginons un enfant posant une question à son jouet-confident sur des gestes ou des attitudes d’un parent, d’un proche, afin de savoir s’il s’agit de comportements déplacés. Quand on sait que les faits de pédocriminalité se déroulent majoritairement au sein de la famille, cela pourrait déclencher une alerte et permettre à l’enfant de réaliser que quelque chose n’est pas normal. Ce n’est pas la seule manière de détecter cela, mais on peut y voir une utilité.»
Quid des données collectées par les jouets?
Derrière ces considérations pointe aussi la responsabilité des réponses fournies par les jouets IA. Il s’agit de savoir qui est responsable, mais pas seulement. «Dans le monde de la tech aujourd’hui, il y a trois questions fondamentales à se poser: qui sait, qui décide et qui décide qui décide? Donc, si je pose une question à ces jouets, qui sait ce qu’ils répondront? Qui décide ce qu’ils répondront? Et qui sont les gardiens qui contrôlent l’ensemble?», explicite encore Louis de Diesbach.
Reste la dernière question concernant les données, extrêmement sensibles s’agissant d’enfants. «Qu’est-ce qui sera collecté? Qui détiendra les données et pour quel usage? La question économique est intimement liée à toute cette proposition. En poussant loin la réflexion, il est même possible d’imaginer des abonnements payants pour avoir un meilleur respect de ses droits et mieux protéger sa vie privée avec ces jouets», poursuit l’auteur.
L’Europe s’est emparée de ces enjeux avec l’«AI Act», un règlement encore parcellaire, qui doit notamment mieux encadrer ce qui est permis avec l’intelligence artificielle, selon le degré de criticité du secteur qui l’emploie. Son entrée en vigueur complète n’interviendra qu’en 2027, ce qui laisse «le temps de faire beaucoup de dégâts d’ici là», s’inquiète Louis de Diesbach.
En attendant, les développements techniques et les collaborations se poursuivent, car personne ne veut manquer le train de l’IA. Ne reste plus qu’à découvrir quand la BarbieGPT prendra d’assaut les rayons et sous quelle forme.