Bandeau
mcInform@ctions
Travail de fourmi, effet papillon...
Descriptif du site
engadget (traduction DeepL.com/Translator)
Selon un rapport, les applications de Meta continuent de promouvoir des contenus de prédation d’enfants
#Meta #pedocriminalite #pedopornographie #algorithmes #enfance #moderation
Article mis en ligne le 4 décembre 2023
dernière modification le 3 décembre 2023

Meta ne parvient pas à empêcher de vastes réseaux de personnes d’utiliser sa plateforme pour promouvoir des contenus pédopornographiques, selon un nouveau rapport publié dans le Wall Street Journal, citant de nombreux exemples troublants d’exploitation d’enfants qu’il a découverts sur Facebook et Instagram. Ce rapport, qui intervient alors que Meta fait l’objet d’une pression renouvelée concernant sa gestion de la sécurité des enfants, a suscité un nouvel examen de la part des autorités de régulation de l’Union européenne.

Dans son rapport, le Wall Street Journal détaille les tests qu’il a menés avec le Centre canadien de protection de l’enfance, montrant comment les recommandations de Meta peuvent suggérer des groupes Facebook, des hashtags Instagram et d’autres comptes utilisés pour promouvoir et partager du matériel pédopornographique. D’après ces tests, Meta a été lent à réagir aux signalements de tels contenus, et ses propres algorithmes ont souvent facilité la mise en relation de personnes avec des contenus abusifs et d’autres personnes intéressées par ces contenus.

Par exemple, le Centre canadien de protection de l’enfance a déclaré au journal qu’un "réseau de comptes Instagram comptant chacun jusqu’à 10 millions de followers a continué à diffuser en direct des vidéos d’abus sexuels sur des enfants des mois après avoir été signalé à l’entreprise". Autre exemple troublant, Meta a d’abord refusé de donner suite à un rapport d’utilisateur concernant un groupe Facebook public appelé "Incest". Le groupe a finalement été supprimé, ainsi que d’autres communautés similaires.

Dans une longue mise à jour sur son site web, Meta a déclaré que "les prédateurs sont des criminels déterminés qui testent les défenses des applications, des sites web et des plateformes" et qu’elle avait amélioré un grand nombre de ses systèmes internes pour restreindre les "adultes potentiellement suspects". La société a déclaré qu’elle avait "élargi la liste existante des termes, phrases et emojis liés à la sécurité des enfants que nos systèmes peuvent trouver" et qu’elle avait utilisé l’apprentissage automatique pour découvrir de nouveaux termes de recherche susceptibles d’être exploités par des prédateurs d’enfants.

La société a déclaré qu’elle utilisait une technologie pour identifier les "adultes potentiellement suspects" afin de les empêcher de se connecter les uns aux autres, y compris dans les groupes Facebook, et de voir le contenu des autres dans les recommandations. Meta a également déclaré au Wall Street Journal qu’elle "a commencé à désactiver les comptes individuels qui dépassent un certain seuil de comportement suspect".

Le réseau social est confronté à une levée de boucliers croissante concernant sa gestion de la sécurité des enfants. Le Wall Street Journal a également rapporté récemment que les recommandations d’Instagram Reels proposaient des contenus destinés à des personnes "susceptibles de s’intéresser de près aux enfants". Des dizaines d’États ont récemment poursuivi Meta pour avoir prétendument porté atteinte à la santé mentale de ses plus jeunes utilisateurs et n’avoir pas empêché les enfants de moins de 13 ans d’accéder à ses applications. Mark Zuckerberg devra sans doute répondre à de nombreuses questions sur ces allégations le mois prochain, lors d’une audition de la commission judiciaire du Sénat consacrée à la sécurité des enfants en ligne. Ses homologues de TikTok, Snap, X et Discord sont également mis en cause.

L’audition de la commission judiciaire du Sénat porte sur la sécurité des enfants en ligne. Ses homologues de TikTok, Snap, X et Discord doivent également témoigner.

Parallèlement, Meta doit faire face à de nouvelles pressions de la part des autorités de régulation à l’étranger. Les fonctionnaires de l’Union européenne ont recours à une nouvelle loi pour enquêter sur la manière dont l’entreprise a traité les contenus pédopornographiques, à la suite du rapport de The Journal. L’entreprise a reçu une date limite du 22 décembre pour remettre ses données à l’Union européenne.