Bandeau
mcInform@ctions
Travail de fourmi, effet papillon...
Descriptif du site
France24
Arnaque et propagande : des images de soldats israéliens amputés générées par IA
#IA #propagande #manipulations #arnaques
Article mis en ligne le 9 août 2025

De nombreuses photographies de soldats israéliens amputés des deux jambes sont partagées sur les réseaux sociaux. Elles ont en fait été créées par intelligence artificielle et sont utilisées tout autant par des comptes pro-israéliens que pro-palestiniens, ainsi que pour monter des escroqueries en ligne.

Elles semblent susciter des élans de compassion ou de patriotisme parmi certains internautes israéliens. Ou au contraire attiser les railleries des détracteurs de l’armée israélienne. Depuis le mois de juin, de poignantes images de soldats israéliens amputés des deux jambes circulent massivement sur les réseaux sociaux Facebook, Instagram et TikTok, ainsi que sur YouTube.

Ces images sont pourtant factices : elles ont toutes été générées par IA. Malgré cela, ces pseudo-photographies de militaires blessés sont abondamment utilisées par une variété d’acteurs aux objectifs parfois diamétralement opposés. (...)

Comment expliquer le succès de ces publications ?

La fausse photo de mariage est visiblement parvenue à tromper une page Facebook de soutien de l’armée israélienne spécialisée dans la publication d‘images et de vidéos de militaires israéliens, IDFtweets, suivie par 465 000 abonnés. Les contenus d’IDFtweets visent à "soutenir le moral", explique auprès de la rédaction des Observateurs de France 24, Tal Hagin, chercheur en guerre informationnelle pour FakeReporter, un groupe de surveillance israélien spécialisé dans la lutte contre les contenus malveillants en ligne. La page Facebook a relayé le 30 juillet la fausse photo de mariage du soldat amputé. (...)

Comme l’explique Tal Hagin :

"Ce qui se passe généralement avec la désinformation ou la mésinformation, c’est qu’elle s’appuie sur quelque chose de réel. [En Israël] Les gens voient tous les jours des posts sur un membre de leur famille qui a été blessé. Ils essaient alors de mobiliser du soutien, de lui remonter le moral.

Et c’est là que ces images générées par l’IA entrent en jeu. Comme les gens voient déjà de vraies images et vidéos de soldats de Tsahal blessés pendant la guerre, les internautes pensent [qu’une image générée par IA] est juste une autre image. Et leur esprit ignore automatiquement les petits signes [qui indiquent que ces images sont factices]."

(...)

"Un dernier groupe qui diffuse ces photographies générées par IA sont les arnaqueurs. Les arnaques les plus simples sont celles que l’on voit sur X, où les personnes gagnent de l’argent par les interactions, les vues et les engagements sur leurs posts", analyse Tal Hagin.

"Donc, si je publie une photo vraiment triste de quelqu’un qui a été blessé et que tout le monde répond : ’Je te soutiens. J’espère que tu iras mieux’ ; ou au contraire, si des gens qui veulent que cette personne souffre disent : ’Bien fait. Je suis content que tu aies été blessé. J’espère que tu vas mourir’, à la fin de la journée, quel que soit le contenu, c’est de l’engagement et cela rapporte de l’argent."

L’IA pour des escroqueries plus sophistiquées

D’autres escroqueries sont plus sophistiquées que la simple recherche d’engagement et de clics. Certaines chaînes YouTube partagent de fausses vidéos créées par IA de militaires amputées et demandent aux internautes qui commentent leurs vidéos de s’inscrire à un groupe WhatsApp "consacré à la Torah". Une fois à l’intérieur du groupe, un administrateur propose à l’internaute de le contacter directement en lui demandant s’il aurait besoin de prières pour ses proches.

Ces groupes sont très suspects. S’ils postent des messages en hébreu, l’indicatif des numéros de téléphones de leurs administrateurs les situent en Turquie ou au Portugal. Certains administrateurs affichent une présentation rédigée en chinois.

Pour Tal Hagin, il s’agit sans doute d’une escroquerie visant à récolter des donations (...)