Bandeau
mcInform@ctions
Travail de fourmi, effet papillon...
Descriptif du site
972 magazine (traduction DeepL.com/Translator)
Lavande" : La machine d’IA qui dirige les bombardements israéliens à Gaza
#israel #palestine #Hamas #Cisjordanie #Gaza #IA
Article mis en ligne le 27 janvier 2025
dernière modification le 25 janvier 2025

En 2021, un livre intitulé "The Human-Machine Team : How to Create Synergy Between Human and Artificial Intelligence That Will Revolutionize Our World" a été publié en anglais sous le pseudonyme de "Brigadier General Y.S." Dans cet ouvrage, l’auteur - un homme dont nous avons confirmé qu’il est l’actuel commandant de l’unité d’élite du renseignement israélien 8200 - plaide en faveur de la conception d’une machine spéciale capable de traiter rapidement des quantités massives de données afin de générer des milliers de "cibles" potentielles pour des frappes militaires dans le feu de l’action. Cette technologie, écrit-il, résoudrait ce qu’il décrit comme un "goulot d’étranglement humain, tant pour la localisation des nouvelles cibles que pour la prise de décision concernant l’approbation des cibles".

Il s’avère qu’une telle machine existe réellement.

Une nouvelle enquête menée par +972 Magazine et Local Call révèle que l’armée israélienne a mis au point un programme basé sur l’intelligence artificielle, connu sous le nom de "Lavender", dévoilé ici pour la première fois. Selon six officiers de renseignement israéliens, qui ont tous servi dans l’armée pendant la guerre actuelle contre la bande de Gaza et ont été directement impliqués dans l’utilisation de l’IA pour générer des cibles à assassiner, Lavender a joué un rôle central dans le bombardement sans précédent des Palestiniens, en particulier pendant les premières phases de la guerre. En fait, selon les sources, son influence sur les opérations militaires était telle qu’elles traitaient les résultats de la machine d’IA "comme s’il s’agissait d’une décision humaine".

Officiellement, le système Lavender est conçu pour marquer tous les agents présumés des ailes militaires du Hamas et du Jihad islamique palestinien (PIJ), y compris les moins gradés, comme des cibles potentielles pour les bombardements. Les sources ont déclaré à +972 et à Local Call que, durant les premières semaines de la guerre, l’armée s’est presque entièrement appuyée sur Lavender, qui a marqué jusqu’à 37 000 Palestiniens comme militants présumés - et leurs maisons - en vue d’éventuelles frappes aériennes.

Au début de la guerre, l’armée a largement autorisé les officiers à adopter les listes d’objectifs de Lavender, sans exiger de vérification approfondie des raisons pour lesquelles la machine avait fait ces choix, ni d’examen des données brutes de renseignement sur lesquelles elles étaient basées. Une source a déclaré que le personnel humain ne faisait souvent qu’entériner les décisions de la machine, ajoutant que, normalement, il ne consacrait personnellement qu’environ "20 secondes" à chaque cible avant d’autoriser un bombardement - juste pour s’assurer que la cible marquée par Lavender est bien un homme. Et ce, tout en sachant que le système commet ce qui est considéré comme des "erreurs" dans environ 10 % des cas, et qu’il est connu pour marquer occasionnellement des individus qui n’ont qu’un lien ténu avec des groupes militants, voire aucun lien du tout. En outre, l’armée israélienne a systématiquement attaqué les individus ciblés alors qu’ils se trouvaient chez eux - généralement la nuit, en présence de toute leur famille - plutôt qu’au cours d’une activité militaire. Selon les sources, cela s’explique par le fait que, du point de vue du renseignement, il est plus facile de localiser les individus dans leurs maisons privées. D’autres systèmes automatisés, dont celui appelé "Where’s Daddy ?", également révélé ici pour la première fois, ont été utilisés spécifiquement pour suivre les individus ciblés et commettre des attentats à la bombe lorsqu’ils étaient entrés dans les résidences de leur famille.

Le résultat, comme en témoignent les sources, est que des milliers de Palestiniens - pour la plupart des femmes et des enfants ou des personnes qui n’étaient pas impliquées dans les combats - ont été anéantis par les frappes aériennes israéliennes, en particulier au cours des premières semaines de la guerre, en raison des décisions du programme AI. "Nous ne voulions pas tuer les agents [du Hamas] uniquement lorsqu’ils se trouvaient dans un bâtiment militaire ou participaient à une activité militaire", a déclaré A., un officier de renseignement, à +972 et à Local Call. "Au contraire, les FDI les ont bombardés dans leurs maisons sans hésitation, comme première option. Il est beaucoup plus facile de bombarder la maison d’une famille. La machine Lavender rejoint un autre système d’IA, "The Gospel", au sujet duquel des informations ont été révélées lors d’une précédente enquête menée par +972 et Local Call en novembre 2023, ainsi que dans les propres publications de l’armée israélienne. La différence fondamentale entre les deux systèmes réside dans la définition de la cible : alors que The Gospel marque les bâtiments et les structures à partir desquels, selon l’armée, les militants opèrent, Lavender marque les personnes - et les inscrit sur une liste de personnes à abattre.

En outre, selon les sources, lorsqu’il s’agissait de cibler des militants juniors présumés marqués par Lavender, l’armée préférait n’utiliser que des missiles non guidés, communément appelés bombes "muettes" (par opposition aux bombes de précision "intelligentes"), qui peuvent détruire des bâtiments entiers sur leurs occupants et causer d’importantes pertes humaines. "Vous ne voulez pas gaspiller des bombes coûteuses sur des personnes sans importance - cela coûte très cher au pays et il y a une pénurie [de ces bombes]", a déclaré C., l’un des officiers de renseignement. Une autre source a déclaré qu’elle avait personnellement autorisé le bombardement de "centaines" de domiciles privés d’agents subalternes présumés marqués par Lavender, nombre de ces attaques tuant des civils et des familles entières en tant que "dommages collatéraux". Dans une démarche sans précédent, selon deux des sources, l’armée a également décidé au cours des premières semaines de la guerre que, pour chaque agent subalterne du Hamas marqué par Lavender, il était permis de tuer jusqu’à 15 ou 20 civils ; par le passé, l’armée n’autorisait aucun "dommage collatéral" lors de l’assassinat de militants de bas rang. Les sources ont ajouté que, dans le cas où la cible était un haut responsable du Hamas ayant le rang de commandant de bataillon ou de brigade, l’armée a autorisé à plusieurs reprises le meurtre de plus de 100 civils lors de l’assassinat d’un seul commandant.

L’enquête qui suit est organisée selon les six étapes chronologiques de la production hautement automatisée de cibles par l’armée israélienne au cours des premières semaines de la guerre de Gaza. Tout d’abord, nous expliquons la machine Lavender elle-même, qui a marqué des dizaines de milliers de Palestiniens à l’aide de l’IA. Ensuite, nous dévoilons le système "Where’s Daddy ?" (Où est papa ?), qui permet de suivre ces cibles et de signaler à l’armée qu’elles entrent dans leur maison familiale. Troisièmement, nous décrivons comment les bombes "muettes" ont été choisies pour frapper ces maisons.

Quatrièmement, nous expliquons comment l’armée a assoupli le nombre autorisé de civils pouvant être tués lors du bombardement d’une cible. Cinquièmement, nous indiquons comment un logiciel automatisé a calculé de manière inexacte le nombre de non-combattants dans chaque foyer. Sixièmement, nous montrons qu’à plusieurs reprises, lorsqu’une maison a été frappée, généralement la nuit, la cible individuelle n’était parfois pas à l’intérieur, parce que les officiers militaires n’ont pas vérifié l’information en temps réel.

(...)