
Les contenus pédopornographiques en ligne se multiplient avec le développement des outils d’intelligence artificielle, ce qui banalise les violences sexuelles contre les enfants et complique le travail des autorités chargées de protéger les jeunes victimes réelles, alertent des fondations en Europe.
Des vidéos d’enfants virtuels en train d’être violés ou des images d’adolescentes dénudées, dont seul le visage est réel : l’intelligence artificielle générative permet de créer à l’infini de tels contenus conservés sur ordinateur ou partagés en ligne.
En septembre 2023, en l’espace d’un mois seulement, plus de 20.000 images générées par intelligence artificielle ont été publiées sur un forum accessible sur le dark web, la partie clandestine d’internet, rapporte l’Internet Watch Foundation (IWF), l’une des principales associations européennes de lutte contre la diffusion de ces contenus. (...)
Si la plupart des logiciels grand public ont des limitations sur l’usage de certains termes et rendent ces créations impossibles, ce n’est pas le cas d’autres logiciels accessibles via le dark web.
"Dans quelques années, 95% des images pédocriminelles qui seront diffusées sur Internet seront issues de l’intelligence artificielle", avait souligné en juillet Gabrielle Hazan, cheffe de l’Office des mineurs (Ofmin), service de police judiciaire dédié à la lutte contre les violences faites aux jeunes, sur France Inter. (...)
Même s’il s’agit de montages, la diffusion massive de telles images "est grave car cela contribue à la banalisation des pratiques pédocriminelles et à l’objectification de l’enfant", a souligné auprès de l’AFP Angèle Lefranc, chargée de plaidoyer de la Fondation pour l’enfance, qui vient de mener un travail de recherche sur le sujet et publie mardi ses conclusions dans un rapport.
La prolifération de contenus pédopornographiques "augmente les comportements addictifs des consommateurs, avec des images de plus en plus extrêmes, explicites, violentes", indique la synthèse du rapport.
Et la consommation aisée de contenus pédopornographiques augmente les risques de passage à l’acte.
"Les profils et motivations des personnes qui visionnent ces contenus sont extrêmement différents mais quand il y a eu un passage à l’acte, très souvent, il y a eu avant un visionnage", décrit Angèle Lefranc.
L’Office des mineurs estime que dans 40% des affaires, la consultation de contenus à caractère pédopornographique a entraîné un passage à l’acte sur un enfant. (...)
Principale "difficulté" : l’intelligence artificielle est en "constante évolution" et les personnes "qui consomment des contenus pédocriminels, très au fait des nouvelles technologies, s’en emparent rapidement", détaille Angèle Lefranc.
La Fondation pour l’enfance recommande d’une part une sensibilisation du grand public. (...) (...)
La fondation demande également aux pouvoirs publics d’amender le Code pénal pour pénaliser la création de montages à caractère sexuel représentant des mineurs. A l’heure actuelle, le "vide juridique" sur ce sujet "permet à la pratique de s’intensifier".
Autre conséquence de cette multiplication d’images et de vidéos pédopornographiques : il devient plus difficile pour les forces de l’ordre d’identifier et de protéger les enfants réellement victimes de violences sexuelles qui apparaissent dans ces contenus.
Les contenus pédocriminels générés par l’IA vont devenir un problème de "premier plan dans un futur proche", relevait un rapport d’Europol publié en juillet. (...)
La fondation recommande d’inciter les acteurs privés à coopérer pour mettre en place des outils permettant de distinguer les contenus générés par intelligence artificielle des contenus réels.