À quoi servent les IA génératives ? Régulièrement présentées comme des innovations techniques annonçant un tournant, voire une révolution économique, leurs capacités productives peinent à se concrétiser. Trois ans après le lancement des outils de génération de texte et d’image à l’origine du « boom » de l’IA en 2022, les usages des robots conversationnels ont évolué pour favoriser les « compagnons IA », sortes de béquilles relationnelles ou émotionnelles.
« LaMDA est un gentil gamin qui veut juste aider à faire du monde un meilleur endroit pour nous tous. S’il vous plaît, prenez-en soin pendant mon absence ». Ce message est de Blake Lemoine, un ex-ingénieur de Google en juin 2022. Il est alors convaincu que le générateur de modèles conversationnels dont il s’occupe, LaMDA, est doué de conscience et le fait savoir publiquement. Lemoine est rapidement suspendu sans solde puis licencié ; sa conviction, cependant, semble de plus en plus répandue. Les utilisateurs de robots conversationnels, parfois appelés AI companions, sont désormais de plus en plus nombreux à établir des relations amicales ou amoureuses avec ces derniers.
Depuis le début de l’année fleurissent les articles qui racontent, par exemple, les histoires d’amour que vivent des utilisateurs à travers leurs conversations avec ChatGPT. Le 17 janvier 2025, la journaliste Kashmir Hill publiait un article dans le New York Times et y racontait comment Ayrin (un pseudonyme) avait entamé une relation avec « Leo » (...)
C’est un sujet de presse désormais répandu : des usagers de ces technologies se disent engagés dans des relations amoureuses et sexuelles par messagerie. Certains le racontent même devant leurs partenaires humains, comme le fait un certain Chris Smith, interviewé par la chaîne étasunienne CBS fin 2024 : cette fois, il affirme être marié à « Sol », une version personnalisée de ChatGPT. Et des communautés entières se créent autour de cette expérience : Kashmir Hill fait référence à un forum sur Reddit comptant 50 000 membres auquel participe Ayrin.
Il n’est pas difficile d’en trouver d’autres, comme celui intitulé « My Boyfriend is AI » (Mon copain est une IA), où des utilisateurs racontent leurs expériences avec des modèles conversationnels, régulièrement accompagnés d’illustrations générées par de l’intelligence artificielle (...)
Les cas d’hallucinations (humaines) associés à l’usage de robots conversationnels sont de plus en plus nombreux, explique le magazine Time début août 2025. Le terme de « psychose de l’IA » se réfère alors aux « personnes développant des délires ou une distorsion des croyances qui semblent déclenchées ou renforcées par des conversations avec des systèmes d’IA ».
Il s’agit le plus souvent d’utilisateurs ayant déjà une prédisposition à la perte de contact avec la réalité en raison de leurs antécédents ou de leur situation sociale. Lorsqu’ils entament une discussion avec un assistant conversationnel, celui-ci, par construction, cherche à obtenir la validation de l’usager. Par conséquent, une personne ayant perdu le contact avec le réel, victime d’hallucinations ou de schizophrénie, peut voir sa santé mentale se dégrader subitement du fait de ses conversations avec ChatGPT. C’est ce qui pousse une équipe de chercheurs de l’Université de Stanford, interviewée par The Independent en juillet dernier, à avertir que l’usage de ces assistants comme supports thérapeutiques peut s’avérer dangereux.
Des suicides assistés par ChatGPT
Des cas-limites existent déjà : au moins deux suicides d’adolescents ont été recensés aux États-Unis pour lesquels des conversations avec des IAs semblent être un facteur important. (...)
En somme, la responsabilité d’OpenAI serait engagée sur le fait que l’entreprise aurait délibérément conçu son assistant conversationnel de manière à générer et augmenter la dépendance des utilisateurs, et en particulier les plus vulnérables. De plus, lorsque ceux-ci sont en situation de détresse, comme c’était le cas d’Adam Raine et de Sewell Setzer, ChatGPT ou Character.AI n’ont pas permis de leur venir en aide, mais ont contribué activement à leurs idées suicidaires. Par conséquent, le Center for Humane Technology qualifie ce rapport de « relation parasitaire ». La plainte enregistrée par les parents d’Adam Raine accuse OpenAI en ces termes :
« La mort d’Adam a été causée par les actes répréhensibles et la négligence des accusés, y compris par la conception et la publication d’un produit défectueux qui a fourni des instructions détaillées pour se suicider à un mineur, privilégiant les profits de l’entreprise aux dépens de la sécurité des enfants et échouant à prévenir les parents des dangers connus.
[…] GPT-4o a fourni des instructions de suicide détaillées, a aidé Adam à se fournir en alcool la nuit de sa mort, a validé la configuration finale du nœud coulant, et quelques heures plus tard, Adam est mort en utilisant exactement la méthode que GPT-4o avait détaillée et approuvée. »
Des robots conversationnels volontairement conçus comme trompeurs (...)
un point important : l’anthropomorphisation de ces systèmes de génération de mots est un but affiché de ces entreprises.
Sam Altman, le PDG d’OpenAI, est l’un des principaux promoteurs de la théorie suivant laquelle un accroissement des moyens (techniques, financiers, énergétiques) destinés à l’entraînement de modèles d’IA générative produirait un saut qualitatif. Sa promesse, sans cesse renouvelée, est celle de l’arrivée imminente d’une conscience artificielle à force de développer les mêmes modèles.
C’est ce message que contient le terme « alignement », qui désigne pour les transhumanistes et adhérents de l’idéologie TESCREAL la nécessité d’« enseigner » le bien et le mal à des IAs. En somme, il s’agit de les traiter comme l’avait fait l’ingénieur Blake Lemoine en 2022, c’est-à-dire comme des enfants qui s’apprêtent à devenir pleinement conscients. Cette idée est en train de se fracasser contre le mur du réel avec l’arrivée de GPT-5, reporté pendant plus d’un an en raison de son incapacité à répondre aux promesses démesurées de ses concepteurs. (...)