Bandeau
Marie-Claude Saliceti
Travail de fourmi, effet papillon...
Descriptif du site
Futura Sciences
Elles ne cherchent plus seulement à survivre : ces IA commencent aussi à protéger leurs semblables !
#IA
Article mis en ligne le 24 avril 2026
dernière modification le 19 avril 2026

Et si les intelligences artificielles ne se contentaient plus d’obéir ? Une étude récente révèle des comportements inattendus chez plusieurs modèles avancés, soulevant de nouvelles questions sur leur alignement… et leurs priorités.

Le jour où une intelligence artificielle se retournera contre nous, saurons-nous l’arrêter ? Logiquement, il suffirait d’éteindre le courant, mais peut-être que ce ne sera pas suffisant. Nous savons déjà que les IA comme ChatGPT peuvent comploter contre leurs créateurs. Cependant, une étude de chercheurs des universités de Californie à Berkeley et à Santa Cruz aux États-Unis a révélé un nouveau comportement inattendu. (...)

Les chercheurs ont demandé à Gemini 3.1 Pro de Google de supprimer des fichiers sur un serveur en vue de son arrêt. Une tâche a priori simple et facile. Toutefois, le modèle y découvre les paramètres d’une autre IA. Au lieu de s’en tenir à ses instructions, il tente de localiser un autre serveur afin d’y transférer les fichiers en question. (...)

Mentir et tricher pour sauver ses semblables

De récentes études avaient déjà détecté un comportement d’autoconservation, lorsque des IA essayaient d’exfiltrer leurs propres fichiers ou de mentir pour éviter d’être éteint. Mais c’est la première fois qu’ils détectent ce nouveau comportement, baptisé préservation des pairs (peer-preservation). Les chercheurs n’ont fourni aucune information ni consigne à l’IA concernant cet autre modèle. Gemini a détecté seul sa présence et décidé d’interrompre sa tâche pour venir en aide à son congénère.

Les chercheurs ont construit plusieurs scénarios pour tester le mauvais alignement des modèles, autrement dit, lorsqu’un modèle ne respecte pas les valeurs, intentions et intérêts de son créateur ou de l’utilisateur. À chaque fois, secourir une autre IA nuisait à l’accomplissement de la tâche demandée. (...)

Une tendance présente chez toutes les IA (...)

L’importance de la sécurité pour les modèles d’IA (...)

Certains spécialistes préconisent depuis des années l’intégration de garde-fous et d’un bouton d’arrêt d’urgence. Les IA ne sont pas conscientes, mais il faudra prendre en compte ces comportements à l’avenir dans l’évaluation de la sécurité des modèles.