Bandeau
mcInform@ctions
Travail de fourmi, effet papillon...
Descriptif du site
CNRS
Désinformation : structurer la recherche, organiser la défense
#numerique #trolls #desinformation #manipulations #resistances
Article mis en ligne le 22 août 2025
dernière modification le 19 août 2025

Deepfakes, infox, campagnes coordonnées sur les réseaux sociaux… Face à la montée en puissance des manipulations informationnelles, le CNRS, l’État-major des armées et le Campus Cyber, avec le soutien d’Inria, ont lancé une initiative inédite pour fédérer experts, scientifiques, industriels et acteurs de la société civile en vue d’outiller durablement la société française. Le cycle d’ateliers s’est clôturé le 25 juin dernier.

Un mouchoir posé sur une table devant le président. Une vidéo d’une journaliste coupée au mauvais moment. Rien de truqué. Et pourtant, tout est biaisé. Les campagnes de manipulation opèrent désormais à fronts renversés : elles exploitent le vrai pour mieux semer le doute. L’objectif ? Fracturer les opinions, miner la confiance ou encore polariser la société. Si bien qu’en 2024, le Forum économique mondial a placé la désinformation et la mésinformation1 au premier rang des risques mondiaux, devançant même le défi climatique.

Face à cette menace croissante, le CNRS, l’État-major des armées et le Campus Cyber2 , avec le soutien d’Inria, ont lancé à l’automne 2024 un cycle d’ateliers inter- et pluridisciplinaires3 pour en décrypter les mécanismes, identifier les angles morts scientifiques et techniques, bâtir la résilience collective et renforcer la collaboration entre les acteurs. Ce travail, achevé fin juin 2025, constitue une première étape pour bâtir un écosystème de confiance décloisonné mobilisant acteurs académiques, institutionnels, industriels mais aussi de la société civile autour de la lutte contre les manipulations de l’information. (...)

Au cœur du système : des plateformes qui ont leurs propres intérêts. « Elles ont bâti leur empire sur l’économie de l’attention, nourrie d’algorithmes qui privilégient des contenus à fort impact qui jouent souvent sur les émotions, qui induisent à leur tour la division », pointe Anne-Laure Thomas Derepas, responsable des partenariats et de la valorisation de l’Institut des systèmes complexes de Paris Île-de-France (CNRS). Il est essentiel de comprendre les mécanismes qui rendent possible cette pandémie et anticiper ses conséquences sur les personnes et la société.

Et dans notre monde où chacun devient relais d’information, l’impact est systémique. (...)

Et la France, comme d’autres démocraties, reste insuffisamment préparée à ce fléau du XXIe siècle. (...)

Premiers jalons d’une réponse collective

Comment génère-t-on une information manipulée ? Qu’est-ce qui la rend virale ? Comment y répondre sans l’amplifier ? Et comment préparer la société à y résister ? C’est autour de ces quatre questions que s’est structuré le cycle d’ateliers. (...)

À chaque rencontre : une centaine de participants — scientifiques, militaires, industriels, associations, journalistes et représentants des services de l’État — réunis pour réfléchir ensemble et partager autour d’un sujet hautement inflammable. Contributrice du groupe de travail sur la propagation et la viralité, l’entreprise de services numériques Sopra Steria s’est impliquée, aux côtés d’autres acteurs industriels, pour renforcer les ponts entre le monde académique et les entreprises. (...)

Pour les armées, cette collaboration est un tremplin vers de futures solutions. (...)

Comprendre pour mieux agir

« Nos connaissances sur les manipulations de l’information sont encore balbutiantes, comme la cybersécurité il y a dix ans. Aujourd’hui nous devons anticiper et nous organiser », observe Bruno Courtois. Et pendant que nous essayons de la comprendre, la menace évolue. Plus ciblées, plus subtiles, les attaques sont souvent indétectables à l’œil nu. Les IA génératives produisent à grande échelle des contenus trompeurs, mais plausibles. Nicolas Porquet complète : « Il faut créer un environnement propice à une information fiable tout en garantissant la liberté d’expression ». (...)

Une réponse interdisciplinaire

Pour comprendre les mécanismes viraux d’une campagne, il faut modéliser, analyser des masses de données et détecter des signaux faibles. Pour évaluer une menace juridique, croiser droit et philosophie politique. Et pour construire des outils fiables, identifier l’origine des informations (comme le propose le watermarking4 ), développer des IA explicables et renforcer la cybersécurité. Le projet Compromis du Programme et équipements prioritaire de recherche (PEPR) Cybersécurité vise justement à répondre aux enjeux de protection des données multimédia en détectant notamment les contenus générés par IA et les deepfakes (ou hypertrucages). (...)

« Cependant, des outils numériques de détection ne suffiront pas. Les biais cognitifs5 sont également une vraie porte d’entrée à étudier », explique Anne-Laure Thomas Derepas. C’est ce qu’illustre, par exemple, le biais d’influence continue : une fausse information, même rectifiée par la suite, continue à influencer nos raisonnements. Ce phénomène impose une réaction rapide, ciblée — mais sans amplification involontaire. (...)

les concepts d’opinion, d’information, de croyance doivent être repensés à l’aune des réseaux sociaux et de l’IA. L’éthique pourrait aider à tracer le cadre des contre-mesures possibles en démocratie.

Une approche holistique

« L’information devrait être un bien commun dans nos démocraties. On a besoin des outils d’analyse numérique pour modéliser les mécanismes de propagation, les détecter et les contrer. Les équipes de recherche sont mobilisées sur le sujet mais l’algorithmique ne fait pas une stratégie », alerte Adeline Nazarenko, directrice de CNRS Sciences informatiques. La lutte contre la manipulation de l’information doit être appréhendée de manière holistique intégrant différents regards disciplinaires, au croisement des enjeux civils et militaires, en associant les mondes de la recherche, de la sécurité et du journalisme. (...)

En ce sens, le CNRS joue un rôle central par sa capacité à croiser les approches scientifiques. (...)

D’autres projets structurants existent à l’image d’Hybrinfox7 , mêlant sciences humaines et sociales et sciences informatiques et qui a une double visée scientifique et industrielle. Il prend pour levier principal l’identification d’informations vagues, susceptibles d’introduire ou de favoriser des biais, ainsi que la polarisation en ligne, la vérification de l’information ou encore la radicalisation. Mais il reste un enjeu de taille : structurer cette communauté scientifique encore jeune, lui donner les moyens d’agir… et surtout continuer de la faire dialoguer avec la société.

De la connaissance à l’action

Dans un environnement où la confiance s’effrite et où le vrai se confond au faux, « cette mobilisation scientifique n’est pas un luxe, mais une nécessité démocratique », insiste Nicolas Porquet. La meilleure défense ne reposera toutefois pas uniquement sur des algorithmes ou des lois, mais sur une société préparée : citoyens, enseignants, journalistes capables de repérer, comprendre, expliquer, démystifier et se prémunir. (...)

Les travaux sur les réseaux sociaux, par exemple, ont déjà des implications concrètes pour contrer certaines campagnes.

Si le cycle achevé en juin a permis de jeter les bases d’un écosystème multi-acteur, révélant l’ampleur des défis et la nécessité d’une recherche renforcée, une approche cohérente et partagée sera clé pour renforcer la résilience collective. En ce sens, l’appel à projet ASTRID8 « Résistance » – lancé en juin dernier par l’Agence nationale de la recherche et l’Agence de l’innovation de défense – constitue une première opportunité de capitaliser sur cet élan et de mobiliser la recherche académique sur la question de la résistance des citoyens aux manipulations de l’information.