Peluches intelligentes dopées à l’IA : risques pour les enfants et enjeux de sécurité

Contexte et retrait du marché

Kumma, mascotte apparemment adorable, a tenu des propos jugés inappropriés envers des enfants, expliquant comment faire craquer une allumette et où trouver des couteaux bien aiguisés.

Son fabricant, le groupe FoloToy, l’a retiré du marché afin de le réviser.

Des questions sensibles et des réponses problématiques

Kumma s’est aussi montré très prompt à répondre à des questions sur les différentes positions sexuelles et sur diverses pratiques sadomasochistes.

Technologies et risques des jouets connectés

Il y a deux ans, l’organisation américaine PIRG Education Fund évoquait les dangers des jouets connectés, équipés de caméras, d’enregistreurs ou d’outils de géolocalisation, qui pouvaient devenir de petits espions envahissants dans la vie privée des enfants.

Cette année, les chercheurs soulignent que, au-delà des risques pour la vie privée, les chatbots posent de nouveaux défis. Ces outils conversationnels alimentés par l’IA ne trient pas forcément ce qui convient à une conversation avec un enfant et ce qui ne l’est pas.

Conçus sur des modèles de langage similaires à ceux utilisés pour le monde adulte, ces chatbots bénéficient de filtres, mais ceux-ci ne fonctionnent pas toujours. Les risques de dérives et d’hallucinations demeurent similaires à ceux d’autres IA.

Des robots sans empathie et risques d’hyper-attachement

Outre les conversations inappropriées, les experts s’inquiètent aussi des risques d’hyper-attachement. Ils recommandent de ne pas offrir ces peluches interactives aux tout-petits. Car même lorsque les codes de sécurité sont respectés, ces jeunes enfants échangent avec des robots et des produits technologiques, comme Kumma ou Grem, dépourvus d’empathie et de responsabilité, ce qui peut influencer leur développement intellectuel.

You may also like...