brainrots
Le personnage de Ballerina Cappuccina fait partie des mèmes du phénomène des italian brainrots. © Capture YouTube

Les brainrots ont envahi les cours de récré: pourquoi les parents devraient s’en soucier

Benjamin Hermann
Benjamin Hermann Journaliste au Vif

Les vidéos «brainrot» ont envahi les réseaux sociaux et, ces derniers mois, les cours de récréation. Créées par l’intelligence artificielle, elles peuvent avoir un côté abrutissant. Certaines contiennent même des contenus douteux. Voici pourquoi, selon un expert en IA, les adultes devraient s’y intéresser.

«Quoi? Tu ne connais pas les brainrots? Tout le monde connaît ça…» Cette interrogation effarée d’un fils d’une dizaine d’années à son père, tirée de la vie réelle, a probablement été vécue par plus d’un parent. «C’est même un peu limite, parfois, les brainrots», ajoute d’emblée l’enfant, visiblement pas trop mal informé sur le sujet. C’est que le phénomène apparu il y a quelques mois sur les réseaux sociaux a depuis lors déferlé dans les cours de récréation, fort de son efficacité virale.

Les termes brain rot, tout d’abord, se traduisent littéralement par «pourriture de cerveau». Ils désignent en général les effets produits par des contenus créés par des intelligences artificielles génératives, dans un but de divertissement pur. Il s’agit bien souvent de vidéos abondamment partagées sur TikTok, Instagram ou YouTube et dont les contenus ne volent pas très haut. Les visionner abondamment finit par produire une sorte d’abrutissement, tant ils sont triviaux et addictifs. En 2024, l’université d’Oxford faisait même de «brain rot» son mot de l’année, en identifiant déjà l’effet de saturation produit. Un «pourrissement du cerveau», en quelque sorte.

Brainrot et nonsense

La tendance brainrot, si on l’observe avec indulgence, cultive même un petit côté absurde et un certain art du nonsense. Il n’y a pas grand-chose à comprendre, juste des images qui s’enchaînent, dénuées de sens, mais qui ont une capacité de viralité époustouflante. Ainsi en est-il souvent des phénomènes à succès auprès des jeunes, il ne faut pas y voir de signification particulière, si ce n’est un référentiel commun destiné à se marrer. Ainsi en est-il aussi de l’expression «six seven», dont les ados américains se sont emparés l’été dernier et qui semble avoir traversé l’Atlantique entre-temps.

Tout un business s’est développé autour du phénomène, qui génère des centaines de millions de vues sur les plateformes, comme le documentait une enquête du quotidien Le Monde en juin. Espaces publicitaires et outils de création de ces contenus permettent désormais d’engranger des profits conséquents. Une rapide recherche en ligne permet aussi de découvrir la panoplie de figurines, peluches, cartes et même calendriers de l’Avent, directement inspirés des personnages de l’univers brainrot, accessibles sur des plateformes comme Amazon et Temu.

Dans un registre moins reluisant, en outre, certaines de ces vidéos ont été épinglées par des internautes pour leur contenu plutôt abrutissant, certes, mais charriant également des relents douteux, voire racistes.

En l’occurrence, ce sont quelques-unes des vidéos des italian brainrots qui sont concernées. Il s’agit d’une sous-catégorie de brainrots appelés de la sorte, non parce qu’ils ont été produits en Italie, mais parce que les personnages générés par l’intelligence artificielle baragouinent des paroles vaguement italiennes. Les personnages estampillés italian brainrots, en particulier, ont récolté du succès auprès de nombre d’enfants ces derniers mois, en faisant un des phénomènes de l’année au sein des cours de récré.

Les italian brainrots, une tendance 2025

Les personnages créés par intelligence artificielle, dans une approche absurde toujours, s’appellent Tralalero Tralala, Tung Tung Tung Sahur, Ballerina Cappuccina, Bombardiro Crocodillo ou Brr Brr Patapim. Ils ressemblent à un requin chaussé de Nike, un tronc d’arbre anthropomorphe, une ballerine avec une tête en forme de tasse, un bombardier à tête de crocodile, etc. Lorsqu’on y prête une oreille attentive, on peut déceler dans ce semblant d’italien l’un ou l’autre passage problématique: tel personnage chargé de bombarder des enfants à Gaza, tel autre qui scande «porco Dio e porco Allah», qui peut s’entendre comme une injure islamophobe.

L’affichage de ce contenu a été bloqué pour respecter vos choix en matière de cookies. Cliquez ici pour régler vos préférences en matière de cookies et afficher le contenu.
Vous pouvez modifier vos choix à tout moment en cliquant sur « Paramètres des cookies » en bas du site.

Certains enfants ont conscience du caractère inapproprié de certains de ces contenus, d’autres pas. Et souvent, les parents sont loin d’être au courant des dernières tendances, celle-ci s’étant répandue dans le courant de l’année 2025.

S’agit-il de contenus abrutissants, mais globalement inoffensifs? Les jeunes n’ont-ils pas de tout temps joué la provocation? Yves Deville, professeur à l’Ecole polytechnique de l’UCLouvain et spécialiste des intelligences artificielles, préfère prévenir: les adultes gagneraient à s’intéresser à ces phénomènes aux formes nouvelles. «En parler avec les enfants et ne surtout pas le nier», préconise-t-il.

Des contenus énergivores

«L’intelligence artificielle générative, au départ, est un outil censé aider à concevoir et structurer des idées, faire du brainstorming, etc. Ensuite, les générateurs d’images et de vidéos devraient poursuivre des objectifs similaires, donc fournir de l’aide. Puis ces créateurs de vidéos ont été détournés de leur usage initial pour en faire des blagues, notamment entre jeunes», résume-t-il. Pour Yves Deville, il ne faut certainement pas réduire les IA génératives à ces excès, puisqu’elles constituent aussi «des outils formidables dans différents domaines». Pour autant, ces usages particulièrement triviaux ne s’apparentent pas à de simples divertissements, selon lui.

Les ressources énergétiques, premièrement. «On fait attention aux consommations en énergie, on appelle à réduire les trajets en avion, à préserver la planète. Et à côté de cela se cache une débauche d’énergie, de serveurs, d’infrastructures et d’investissements colossaux des sociétés de l’IA. Aux Etats-Unis, on rouvre des centrales nucléaires et on développe des parcs éoliens gigantesques pour faire tourner cette IA.» Dans cette perspective, s’imaginer que des pans entiers de ce déploiement énergétique sont consacrés à du divertissement à faible valeur ajoutée «me semble désolant en matière de ratio coûts/bénéfices. Faire circuler une mauvaise blague sur un bout de papier est une chose, créer une vidéo en une trentaine de secondes pour l’envoyer sur l’Internet en est une autre.»

L’affichage de ce contenu a été bloqué pour respecter vos choix en matière de cookies. Cliquez ici pour régler vos préférences en matière de cookies et afficher le contenu.
Vous pouvez modifier vos choix à tout moment en cliquant sur « Paramètres des cookies » en bas du site.

Justement, regrette Yves Deville dans un deuxième temps, la facilité et la rapidité avec lesquelles ces contenus brainrots peuvent être créés et diffusés à très large échelle sont interpellantes. «Trois mots-clés, une petite phrase, un clic et 30 secondes plus tard, vous avez une vidéo, éventuellement avec des contenus inappropriés, désobligeants, voire appelant à la haine ou à la violence.» Ces vidéos rapidement créées peuvent produire bien plus d’effets négatifs que les médias, disons, plus traditionnels.

Un problème éthique

Troisièmement, observe Yves Deville, le manque de filtres caractéristique de l’intelligence artificielle laisse libre cours à toute une série de contenus douteux. «Les normes sociales en vigueur dans la vraie vie, donc tous les comportements que nous considérons collectivement comme acceptables ou inacceptables, ne sont pas encore établies dans le monde de l’IA.» Et le professeur de citer le deepfake porn en exemple, à savoir la création de vidéos à caractère pornographique, éventuellement en usurpant l’image «de votre voisine ou d’une copine de classe. Prenez Grok, l’intelligence artificielle créée par Elon Musk, donnez-lui une photo de n’importe qui et demandez-lui de mettre cette personne dans n’importe quelle situation, il le fera» sans trop de scrupules.

OpenAI, société à la base de ChatGPT, a mis au point Sora 3, «qui n’est pas encore disponible en Belgique, précise Yves Deville. Mais il s’agit d’un réseau social dont les seules interactions se font via des vidéos créées par l’IA, mais transmises par le réseau social, dont c’est le seul but. On vit dans un monde où on trouve normal de développer ce type d’outils sans s’interroger sur son utilité, hormis le côté amusant. On a le droit d’aimer les Ferrari. Mais est-ce utile d’utiliser sa Ferrari pour aller acheter son pain? N’est-ce pas un peu disproportionné?», s’interroge le professeur.

Il s’agit alors d’une forme de dévoiement de l’intelligence artificielle, qui peut pourtant constituer un outil intéressant, assure Yves Deville. C’est pourquoi il convient de s’y intéresser, notamment dans un but de sensibilisation, de dialogue et d’éducation avec la plus jeune génération. «En tout cas, je recommande d’éviter de mettre la tête dans le sable», recommande-t-il encore.

Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici

Expertise Partenaire