
Le propos fera certainement bondir nombre de thuriféraires de l’IA. Il mérite pourtant une écoute attentive car il souligne que la face sombre de l’IA est plus sombre qu’on le pense. Dan McQuillan est maître de conférence au département d’informatique de l’université Goldsmiths de Londres. Il est l’auteur de Resisting AI, an anti-fascist approach to artificial intelligence (Résister à l’IA, une approche anti-fasciste de l’IA, Bristol University Press, 2022, non traduit).
L’IA : une vision réactionnaire du monde
Dans l’introduction de son livre, Dan McQuillan est plus radical encore. Il explique que le développement de l’IA peut être vu comme un écho aux tendances austéritaires, autoritaires et réactionnaires du monde actuel. Pour lui, si elle prend tant d’ampleur, c’est parce qu’elle est compatible avec le capitalisme financier, mais également convergente avec le fascisme qui monte. (...)
L’IA n’est pas qu’une méthode de production de la connaissance, elle est aussi un paradigme pour l’organisation sociale et politique, explique-t-il. Elle agit sur le monde de façon à affecter la distribution même du pouvoir. Elle altère notre monde commun.
Alors que le storytelling de l’IA ne cesse de nous faire des promesses pour que nous en ayons de grandes attentes, la réalité de l’IA consiste surtout à réduire le réel. En réalité, l’IA amplifie les inégalités et les injustices d’existence, approfondie les divisions. (...)
si nous devons avoir une approche antifasciste de l’IA, ce n’est pas parce que l’IA peut être utilisée par des régimes autoritaires, mais parce que l’IA apporte des “solutions fascistes aux problèmes sociaux”.
“Je ne dis pas que l’IA est fascite”, précise-t-il, “mais que la contribution de l’IA est un moyen de normaliser des réponses fascistes aux instabilités sociales”. L’IA est particulièrement forte pour séparer et discriminer les choses et les gens ainsi que pour préserver le pouvoir existant (en renforçant les monopoles). (...)
Pour contrer cette dérive fasciste de l’IA, nous devons nous extraire de l’inférence statistique pour en revenir au soin mutuel. Pour construire une IA alternative nous devons construire des organisations différentes, plus démocratiques et fondées sur la solidarité. En s’inspirant des luttes politiques contre l’injustice et l’autoritarisme et donc des techniques de mobilisation anti-fascistes. Nous devons refuser les exclusions du calcul et pour cela restructurer le monde qui a permis à l’IA d’advenir. (...)
Les avantages sociaux de l’IA sont toujours spéculatifs, toujours à venir… alors que les inconvénients eux, sont déjà là. La violence algorithmique de l’IA est “légitimée par les prétentions de l’IA de révéler un ordre statistique dans le monde”, mais c’est là une erreur logique et une bien mauvaise utilisation des statistiques, explique le profeseur. Appliquée aux contextes sociologiques de la vie quotidienne, les statistiques produisent une injustice épistémique, où la voix et l’expérience de chacun sont dévalorisées par rapport aux jugements immédiats ou prédictifs. Ce que produit d’abord l’IA, c’est de la précarité. (...)
Deleuze et Guattari nous ont avertis que le fascisme apparaît souvent caché imperceptiblement dans notre vie quotidienne. L’IA concentre et condense ces microfascismes par la façon dont elle crée des états d’exception (...)
Comme le QI, l’IA classe les gens, et elle a vite fait de produire une forme d’eugénisme, comme le dénonçait également la chercheuse Kate Crawford, distinguant ceux qui ont droit et ceux qui n’ont pas droit. Le risque de l’IA n’est pas la super-intelligence, mais au contraire le solutionnisme populiste qui risque d’émerger de la convergence entre le capitalisme de la Silicon Valley et les politiques d’extrême droite qui montent un peu partout.
Dans ce travail de résistance qu’il faut mener contre l’IA les perspectives les plus pertinentes
viennent des personnes marginalisées dont la vie est déjà impactée par les calculs. Dan McQuillan invite à remplacer l’IA au profit de dispositifs qui ne cherchent pas à favoriser la rationalité et la normalité mais qui valorisent la relationnalité et la différence. (...)
McQuillan plaide pour le développement de l’auto-organisation sur les lieux de travail et pour la constitution d’assemblées citoyennes pour freiner ou contrôler l’utilisation de l’IA dans nombres de domaines spécifiques, comme l’attribution de logements ou les services sociaux.
Reprendre la main sur les décisions qui nous sont imposées, bien sûr ! C’est la conclusion de tous les livres sur la technologie que je lis. Mais peu est fait pour que cette reprise en main démocratique progresse, advienne.