Évitez les jouets IA, recommande une coalition aux parents

Temps de lecture :
5 minutes
Par La Presse Canadienne, 2025
Ils sont mignons, voire câlins, et promettent d'apprendre et de tenir compagnie, mais les jouets dotés d'intelligence artificielle ne sont pas sans danger pour les enfants, selon des associations de défense des enfants et des consommateurs qui exhortent les parents à ne pas les acheter pendant les fêtes de fin d'année.
Ces jouets, commercialisés pour les enfants dès l'âge de 2 ans, sont généralement alimentés par des modèles d'IA qui se sont déjà révélés nocifs pour les enfants et les adolescents, tels que ChatGPT d'OpenAI, selon un avis publié jeudi par le groupe de défense des enfants Fairplay et signé par plus de 150 organisations et experts individuels, tels que des pédopsychiatres et des éducateurs.
«Les graves préjudices causés aux enfants par les agents conversationnels IA sont bien documentés, notamment le fait qu'ils favorisent une utilisation obsessionnelle, qu'ils ont des conversations sexuelles explicites et qu'ils encouragent des comportements dangereux, la violence envers autrui et l'automutilation», a dénoncé Fairplay.
Les jouets IA, fabriqués par des entreprises telles que Curio Interactive et Keyi Technologies, sont souvent commercialisés comme étant éducatifs, mais Fairplay affirme qu'ils peuvent remplacer d'importantes activités créatives et d'apprentissage. Ils promettent l'amitié, mais perturbent également les relations et la résilience des enfants, selon le groupe.
«Ce qui différencie les jeunes enfants, c'est que leur cerveau se développe pour la première fois et qu'il est naturel pour eux d'être confiants et de rechercher des relations avec des personnages gentils et amicaux», a expliqué Rachel Franz, directrice du programme Young Children Thrive Offline de Fairplay.
Pour cette raison, a-t-elle ajouté, la confiance que les jeunes enfants accordent à ces jouets peut exacerber les effets néfastes observés chez les enfants plus âgés.
Fairplay, une organisation créée il y a 25 ans et anciennement connue sous le nom de Campaign for a Commercial-Free Childhood, met en garde contre les jouets dotés d'intelligence artificielle depuis plus de dix ans.
À l'époque, ceux-ci n'étaient tout simplement pas aussi avancés qu'aujourd'hui. Il y a dix ans, alors que les jouets connectés à Internet et la reconnaissance vocale par IA faisaient fureur, le groupe a contribué à mener une campagne contre la poupée parlante Hello Barbie de Mattel, qui, selon lui, enregistrait et analysait les conversations des enfants.
«Tout a été commercialisé sans aucune réglementation ni recherche, ce qui nous incite à la prudence lorsque nous voyons soudainement de plus en plus de fabricants, dont Mattel, qui s'est récemment associé à OpenAI, potentiellement commercialiser ces produits», a dit Mme Franz.
Il s'agit du deuxième avertissement saisonnier majeur contre les jouets dotés d'IA depuis que les défenseurs des consommateurs de l'U.S. PIRG ont dénoncé cette tendance la semaine dernière dans leur rapport annuel «Trouble in Toyland», qui examine généralement toute une série de dangers liés aux produits, tels que les aimants puissants et les piles boutons que les jeunes enfants peuvent avaler.
Cette année, l'organisation a testé quatre jouets qui utilisent des agents conversationnels dotés d'IA.
«Nous avons constaté que certains de ces jouets abordent en détail des sujets sexuellement explicites, donnent des conseils sur les endroits où un enfant peut trouver des allumettes ou des couteaux, se montrent consternés lorsque vous dites que vous devez partir, et offrent un contrôle parental limité, voire inexistant», indique le rapport.
La docteure Dana Suskind, chirurgienne pédiatrique et spécialiste en sciences sociales qui étudie le développement précoce du cerveau, a expliqué que les jeunes enfants ne disposent pas des outils conceptuels nécessaires pour comprendre ce qu'est un compagnon IA.
Si les enfants ont toujours tissé des liens avec leurs jouets grâce à des jeux imaginatifs, ils utilisent leur imagination pour créer les deux côtés d'une conversation fictive, «exerçant ainsi leur créativité, leur langage et leur capacité à résoudre des problèmes», a-t-elle déclaré.
«Un jouet IA réduit ce travail à néant. Il répond instantanément, de manière fluide et souvent mieux qu'un humain. Nous ne connaissons pas encore les conséquences sur le développement de l'externalisation de ce travail imaginatif à un agent artificiel, mais il est très plausible que cela sape le type de créativité et de fonction exécutive que le jeu traditionnel de simulation développe», a souligné Mme Suskind.
La société californienne Curio Interactive fabrique des peluches, comme Gabbo et Grok en forme de fusée, qui ont été promues par la chanteuse pop Grimes.
Curio a assuré avoir «méticuleusement conçu» des garde-fous pour protéger les enfants et encourage les parents à «surveiller les conversations, suivre les informations et choisir les contrôles qui conviennent le mieux à leur famille».
«Après avoir examiné les conclusions du Fonds pour l'éducation de l'U.S. PIRG, nous travaillons activement avec notre équipe pour répondre à toutes les préoccupations, tout en supervisant en permanence le contenu et les interactions afin de garantir une expérience sûre et agréable pour les enfants.»
Une autre entreprise, Miko, a rappelé qu'elle utilisait son propre modèle d'IA conversationnelle plutôt que de s'appuyer sur des systèmes généraux de modèles linguistiques à grande échelle tels que ChatGPT afin de rendre son produit, un robot IA interactif, sûr pour les enfants.
«Nous élargissons constamment nos tests internes, renforçons nos filtres et introduisons de nouvelles fonctionnalités qui détectent et bloquent les sujets sensibles ou inattendus, a déclaré le PDG Sneh Vaswani.
«Ces nouvelles fonctionnalités complètent nos contrôles existants qui permettent aux parents et aux tuteurs d'identifier les sujets spécifiques qu'ils souhaitent restreindre dans les conversations. Nous continuerons à investir dans la mise en place des normes les plus élevées pour une intégration sûre, sécurisée et responsable de l'IA dans les produits Miko.»
Les produits Miko sont vendus par de grands détaillants tels que Walmart et Costco et ont été promus par les familles des «enfluenceurs» des réseaux sociaux, dont les vidéos YouTube ont été visionnées des millions de fois. Sur son site web, l'entreprise commercialise ses robots sous le slogan «Intelligence artificielle. Amitié authentique.»
Ritvik Sharma, vice-président principal chargé de la croissance de l'entreprise, a déclaré que Miko «encourageait en fait les enfants à interagir davantage avec leurs amis, leurs camarades, les membres de leur famille, etc. Le but n'est pas qu'ils s'attachent uniquement à l'appareil».
Pourtant, la docteure Suskind et les défenseurs des enfants affirment que les jouets analogiques sont un meilleur choix pour les fêtes.
«Les enfants ont besoin de beaucoup d'interactions humaines réelles. Le jeu doit soutenir cela, et non le remplacer. Le plus important n'est pas seulement ce que fait le jouet, mais ce qu'il remplace. Un simple jeu de construction ou un ours en peluche qui ne répond pas oblige l'enfant à inventer des histoires, à expérimenter et à résoudre des problèmes. Les jouets dotés d'IA font souvent cette réflexion à leur place , explique-t-elle.
«Voici l'ironie cruelle : lorsque les parents me demandent comment préparer leur enfant à un monde dominé par l'IA, un accès illimité à l'IA est en réalité la pire préparation possible.»
Barbara Ortutay et Matt O'brien, The Associated Press