
L’intelligence artificielle est une industrie où les femmes sont rares et les biais nombreux, explique la journaliste Mathilde Saliou. Une bifurcation masculiniste apparue lorsque les métiers de l’informatique devinrent valorisés.
Mathilde Saliou est journaliste indépendante, spécialisée dans les questions numériques. Elle est autrice de Technoféminisme : comment le numérique aggrave les inégalités (ed. Grasset). Elle travaille principalement pour le média Next, spécialisé sur le numérique. Elle collabore aussi avec La Déferlante, 20 Minutes et Alternatives économiques.
Mathilde Saliou
L’IA étant un sous-domaine des nouvelles technologies, elle est soumise aux mêmes biais que l’industrie de la tech qui emploie très peu de femmes. C’est problématique, car c’est désormais l’un des secteurs dans lesquels on fait les plus belles carrières, au sens financier. Le fait que les femmes soient si peu nombreuses à y accéder participe au renforcement des inégalités salariales.
Dans les nouvelles technologies, environ un quart seulement des employés sont des femmes, et elles sont généralement confinées à des postes subalternes : des fonctions support dans le juridique, dans les ressources humaines, dans la comptabilité… Elles sont peu nombreuses à avoir les mains dans le code et à construire les outils numériques que nous utilisons au quotidien.
Cela dit, des femmes comme Timnit Gebru — chercheuse en éthique de l’intelligence artificielle —, Margaret Mitchell — spécialiste des biais algorithmiques — et Joëlle Barral —directrice de la recherche fondamentale en IA chez Google DeepMind — sont des figures actuelles de l’intelligence artificielle (...)
À l’époque, on pensait que les rôles valorisables et valorisés de l’informatique, c’étaient surtout ceux dédiés au hardware, la fabrication des machines et des composants. Les femmes étaient assez nombreuses dans la partie qu’aujourd’hui on qualifierait de software, la fabrication des logiciels. Ce sont elles qui ont fabriqué les langages permettant d’interagir avec les machines pour leur faire faire des opérations. (...)
Mais par la suite, pour savoir qui embaucher, et comment, on a fait appel à des experts qui sont arrivés à la conclusion que « les programmeurs parfaits sont dingues de puzzles, aiment prendre des risques, trouver des applications à leurs recherches et n’aiment pas les gens ». Cette phrase semble très cliché, mais elle a vraiment servi à formaliser le type de personnes qu’on cherchait dans le monde de la tech. Et ces caractéristiques étaient davantage admises chez les hommes.
Lors de l’apparition des ordinateurs personnels dans les années 1980, les publicitaires les ont massivement promus à destination des hommes et des garçons (...)
Dans son livre Les oubliés du Numérique (ed. Le Passeur), Isabelle Collet relève aussi que beaucoup de figures présentées comme les pères de l’informatique et les pères de l’IA sont aussi assez misogynes
Donc l’intelligence artificielle hérite de toute cette tradition sexiste du monde des nouvelles technologies…
Ça pousse à s’interroger sur notre définition de l’intelligence artificielle. Peut-être que s’il y avait eu plus de femmes dans le monde de l’IA, on aurait considéré qu’une intelligence artificielle, c’était quelque chose de beaucoup plus relationnel, capable de mettre en connexion des objets ou des concepts différents… Et non pas cette logique très poussée sur l’optimisation, la rationalité et les probabilités.
(...) tous les barons de la tech se rangent derrière Donald Trump, et n’hésitent pas à nourrir son idéologie viriliste. Ce qu’on voit ces dernières semaines est très inquiétant, mais pour qui on suit le sujet depuis longtemps, ce n’est pas tellement une surprise. (...)
on donne tout plein d’éléments à la machine à partir desquels elle trouve elle-même le chemin pour aboutir à un résultat.
On a tendance à considérer que les données qu’on lui apporte sont neutres, sauf que la manière de les choisir, de les hiérarchiser, de les collecter, ça va avoir des impacts concrets sur les résultats donnés. Le plus souvent, on entraîne ces machines à partir d’éléments qui sont disponibles librement sur Internet. Or, ce n’est pas du tout représentatif de l’intégralité de la population. Ce qu’on donne aux machines, c’est déjà très biaisé. (...)
Si vous demandez à un modèle d’IA génératif de vous produire une image de patron d’entreprise, neuf fois sur dix, il va vous donner une image d’homme blanc en costume, parce qu’il ne peut pas imaginer que ce soit une femme, quelqu’un qui ne soit pas en costume, ou quelqu’un de non-blanc. Inversement, si vous demandez de générer une image de personne qui fait du ménage, ça va quasiment être uniquement des personnes noires, probablement des femmes.
La machine n’est pas capable d’autre chose puisqu’on ne lui a donné que des images en ce sens. L’IA concentre de manière extrême les stéréotypes qui existent dans la société. (...)
L’apparition des deepfakes — cette technologie consiste à reproduire de manière très réaliste les traits de quelqu’un grâce à l’IA, et à les placer dans des situations imaginaires —, avant même les IA actuelles, est très préoccupante.
Aujourd’hui, les chiffres montrent que plus de 98 % de ces contenus sont des deepfakes à caractère pornographique, et parmi eux, 99 % représentent des femmes. Sans leur consentement l’essentiel du temps. Ces images sont utilisées pour faire pression, pour les harceler, pour leur faire du mal, pour les faire disparaître de l’espace public… (...)
Qu’est-ce qui pourrait être mis en place pour limiter ces biais ?
Une piste de solution, ça peut être de mettre plus de diversité dans les équipes de fabrication de nos outils numériques, IA et autres. Sans ça, on continuera de créer des outils calibrés pour une toute petite part de la population masculine, blanche et privilégiée. (...)
Par ailleurs, ces technologies ont des impacts très concrets sur la planète. Pour faire tourner les modèles d’intelligence artificielle générative, il y a besoin d’énormément d’énergie. (...)
Une autre piste de réponse est donc de viser la frugalité. (...)
L’IA frugale consiste à utiliser cette technologie là où elle est vraiment utile, par exemple, dans la santé ou dans la science, pour mettre en place des modèles qui nous permettent de mieux prévoir les évolutions climatiques…
Par contre, des modèles qui ne servent qu’à fabriquer des deepfakes dénudés pour harceler des femmes, on peut légitimement interroger leur utilité sociale ! Surtout que pour fabriquer ces images, on brûle du CO₂ et on pompe de l’eau… (...)