
Des comptes soupçonnés d’être affiliés au gouvernement chinois auraient tenté d’utiliser ChatGPT pour concevoir des outils de surveillance et de profilage ciblé. Le rapport d’OpenAI, publié le 7 octobre 2025, met en lumière une nouvelle forme d’abus : l’exploitation de l’IA par des régimes autoritaires.
Ce n’est pas une rumeur, mais bien le résultat du rapport publié le 7 octobre 2025 par OpenAI, le créateur de ChatGPT. Intitulé « Disrupting malicious uses of AI : October 2025 », celui-ci révèle que des utilisateurs « soupçonnés d’être affiliés au gouvernement chinois » ont sollicité ChatGPT pour développer « des propositions de projets et du matériel promotionnel relatifs à des outils de surveillance de masse ». L’un d’entre eux a par exemple demandé de l’aide au chatbot afin d’imaginer un outil capable de repérer les déplacements liés aux Ouïghours et autres personnes « à risque », en recoupant fichiers de police et réservations de transport. Rien que ça.
La Chine surveille nos réseaux sociaux
Un autre utilisateur a demandé à ChatGPT d’élaborer des supports promotionnels pour un outil destiné « à scanner les réseaux sociaux occidentaux » (Twitter/X, Facebook, Reddit, TikTok, YouTube) à la recherche de discours jugés « extrémistes ou politiquement/racialement sensibles ».
OpenAI précise que ces utilisateurs – s’il s’avère qu’ils sont effectivement liés à l’État chinois – ont probablement eu recours à des VPN. Ces comptes ont été bannis, bien que la société indique ne pas avoir pu vérifier de manière indépendante si ces activités émanaient réellement d’agents gouvernementaux. (...)
Le potentiel « abusif de l’IA par des régimes autoritaires »
Le rapport rappelle qu’un des objectifs d’OpenAI est de prévenir l’exploitation de ses modèles par des régimes autoritaires. Selon l’entreprise, ces activités semblent provenir d’individus isolés plutôt que d’organisations institutionnelles agissant à grande échelle. Mais elles offrent malgré tout, selon le rapport, « une fenêtre rare sur le potentiel abusif de l’IA par des régimes autoritaires » et confirment l’intérêt croissant du gouvernement chinois pour l’optimisation de la surveillance par l’intelligence artificielle.
La Chine n’est d’ailleurs pas seule concernée : le même rapport évoque des opérations menées depuis la Russie et la Corée du Nord, où des acteurs auraient utilisé ChatGPT pour rédiger des scripts malveillants et préparer des campagnes de phishing ciblant des entités sud-coréennes. (...)