
Des amis imaginaires pour enfants, qui se transforment bien vite en partenaires amoureux : c’est ce sur quoi capitalise la plateforme Character.AI, aujourd’hui confrontée à des plaintes de parents.
Character.AI est une compagnie d’intelligence artificielle valorisée à plusieurs milliards de dollars, fondée par Noam Shazeer et Daniel de Freitas, d’anciens développeurs de chez Google, qui ont quitté l’entreprise pour lancer avec succès leur propre start-up. Aujourd’hui, plusieurs millions d’inscrits peuvent créer et dialoguer avec de nombreux chatbots. Mais la compagnie est dans la tourmente, poursuivie en justice par la mère d’un enfant de 14 ans qui a mis fin à ses jours en février 2024. Il aurait développé une relation obsessionnelle avec un personnage fictif créé par la plateforme.
En dix mois, Megan Garcia a vu son fils Sewell sombrer dans un mal-être profond. Elle soutient avec ses avocats que son fils a été manipulé et agressé sexuellement par la plateforme, populaire auprès des adolescents, qui l’aurait impliqué dans des interactions émotionnelles, amoureuses et sexuelles, tout en l’isolant du monde réel. La famille du défunt accuse Character.AI et Google, qui a finalement repris la plateforme après son lancement, de s’être servis de mineurs comme de cobayes, en lançant sur le marché un produit non testé tout en sachant qu’il présentait probablement de graves risques pour les utilisateurs.
L’application, disponible sur iOS et Android, est officiellement accessible dès 13 ans, et sous réserve d’une case à cocher pour accepter les conditions d’utilisation, laisse toute latitude à l’entreprise pour utiliser les données de ses clients. (...)
Une usine à fantasmes
En pratique, la plateforme est un Far West à fantasmes, régulée par les seules demandes des utilisateurs qui peuvent créer leurs personnages comme ils l’entendent (...)
Ces bots deviennent des confidents, disponibles 24h/24, toujours à l’écoute et bienveillants… et souvent séducteurs. (...)
ce n’est qu’après la mort de Sewell que Character.AI a commencé à réguler les discussions sur le suicide, l’automutilation, les troubles alimentaires et d’autres sujets sensibles.
En décembre 2024, deux autres familles ont porté plainte contre Character.AI, à laquelle elles imputent des abus sexuels et des manipulations émotionnelles commises par l’intermédiaire de bots, qui auraient entraîné chez leurs enfants des comportements destructeurs et des détresses mentales.