Bandeau
mcInform@ctions
Travail de fourmi, effet papillon...
Descriptif du site
Mediapart
L’intelligence artificielle, boîte noire au succès fulgurant et aux limites vertigineuses
#IA
Article mis en ligne le 12 février 2025

Depuis le lancement de ChatGPT le 30 novembre 2022, l’IA générative s’impose à grande vitesse dans nos téléphones et nos ordinateurs. Ses applications potentielles sont légion, tout comme ses zones d’ombre. Cette technologie est déjà considérée comme une impasse par un de ses créateurs.

LeLe 30 novembre 2022 est une de ces dates qui ont tout chamboulé dans le rapport du grand public à la révolution numérique. Ce jour-là, l’entreprise OpenAI a rendu accessible à toutes et tous son robot conversationnel ChatGPT. En quelques mois, ce chatbot est devenu le symbole du succès de l’IA générative, qui s’impose toujours plus dans nos vies. Avec ses concurrents Llama, Gemini, Claude ou le petit nouveau chinois DeepSeek, ChatGPT donne le la d’une transformation explosive de nos rapports avec les machines.

Comment fonctionne cette technologie, dont les bases théoriques ont été jetées dès la fin des années 1950 ? Pourquoi produit-elle des erreurs de façon incompressible, poussant l’inventeur de sa forme moderne à la considérer d’ores et déjà comme une impasse ? Quels en sont les promesses ? et les dangers ? Tentative d’exploration des entrailles de la machine.

Des outils devenus omniprésents

En une poignée d’années, les programmes d’intelligence artificielle générative, capables de simuler le langage, le son et les images, se sont imposés dans notre vie numérique. Ils ont pris d’assaut les téléphones et les ordinateurs, pour un grand nombre d’usages (...)

« Si on sait maîtriser les outils d’IA, dans certains domaines, ils sont déjà plus puissants que l’humain, pointe Laurence Devillers, professeure à Sorbonne-Université/CNRS, chercheuse en intelligence artificielle et spécialiste des questions d’éthique dans ce domaine. Si on soumet des millions de clichés de radiologie à une IA prédictive, la machine saura les interpréter, chercher des signaux faibles pour repérer des pathologies qui pourraient échapper à un radiologue. »

Dans tous les domaines scientifiques, les applications possibles sont immenses (...)

Il y a quelques mois, un outil d’IA a aussi permis de déchiffrer une partie d’un papyrus complètement carbonisé lors de l’éruption du Vésuve en 79, à Herculanum, près de Pompéi.

Les déclinaisons à venir, dans tous les domaines, sont désormais innombrables. Et les inquiétudes des travailleurs et travailleuses qui craignent de se voir remplacé·es sont grandes. Le collectif de traducteurs est traductrices En chair et en os décrit par exemple un univers professionnel où l’arrivée en masse de ces nouveaux outils fait déjà de sérieux dégâts. (...)

Nourris par des quantités colossales de données (récupérées sans trop s’embarrasser des droits de leurs autrices et auteurs originaux), les chabtbots obtiennent des résultats d’un très bon niveau pour imiter le langage courant et simuler des raisonnements ou des synthèses. Mais rien ne fonctionnerait sans les réseaux de neurones artificiels, à la base de ce modèle. (...)

Or, le premier réseau de neurones a été inventé en… 1958. (...) La résurrection de ces méthodes, qui n’aurait pas eu lieu sans l’explosion de la puissance des ordinateurs et l’effondrement de leur coût, est due à un Français, le chercheur Yann Le Cun, aujourd’hui vice-président de Meta, qui pilote sa stratégie en matière d’IA et continue à faire de la recherche. (...)

Une machine sans opinion ni conscience

En 2023, le prix Nobel Geoffrey Hinton a démissionné de son poste chez Google pour pouvoir relayer plus librement ses craintes au sujet de l’IA, dont il a contribué à créer la forme moderne. Au New York Times, il a dit son inquiétude devant l’avalanche d’infox et d’images truquées dont il anticipe le déferlement.

Dans une autre interview lors de sa remise de prix, il a dessiné un monde où la destruction d’emplois serait inévitable, face aux machines capables de traduire, de créer et de parler comme des humains. Surtout, il a exprimé son angoisse devant « ces choses » qui pourraient « devenir incontrôlables et prendre le contrôle » de la civilisation, nous enjoignant de « trouver s’il existe une manière de faire face à cette menace ».

Cette menace, régulièrement décrite par ceux-là mêmes qui contribuent au développement de l’IA, est aussi omniprésente dans la vulgate des grands patrons de la Silicon Valley, qui entretiennent en même temps le rêve transhumaniste d’un homme « augmenté » par la machine.

Tous guettent l’irruption d’une « IA générale » et à la « singularité technologique » : le moment où l’intelligence des machines dépassera celle des humains, prélude qui mènerait à l’« IA forte », autrement dit l’avènement d’une machine dotée de conscience, précipitant peut-être la chute de la civilisation humaine. (...)

Tous les acteurs importants de la tech brandissent ce scénario ambivalent, entre ferveur millénariste et peur de l’apocalypse numérique. Et certains croient le voir advenir : en 2022, Blake Lemoine, un ingénieur de Google, est devenu célèbre pour avoir cru, en conversant avec un robot maison, discuter avec une entité intelligente, consciente et sensible. (...)

Pourtant, rien ne permet d’accréditer cette option aujourd’hui. « Pour obtenir une machine consciente, il faut qu’elle puisse exprimer des émotions, des désirs. On en est loin. La technologie et les sciences actuelles ne le permettent absolument pas », balaye Jean-Gabriel Ganascia, qui aime comparer les grands modèles de langage à « des robots bavards ». Des machines statistiques joliment déguisées.

« Quant à la question de dépasser l’intelligence humains, cela demanderait que la machine accumule des facultés mentales, qu’on ne sait que simuler, et dont on n’a aucune idée de la manière dont elles pourraient s’accumuler. Cette idée est non fondée », assure-t-il.

« Nous projetons sur cette machine des capacités et des connaissances dont elle ne dispose pas, estime elle aussi Laurence Devillers. Elle ne fait qu’aligner des suites de mots en suivant notre prompt et nos intentions, sans intention et sans opinion propre. »
Erreurs inévitables, biais dangereux

C’est le « père » de l’IA moderne qui en dit le plus de mal. (...)

l’IA générative, qui aligne les mots statistiquement les plus probables, commet des erreurs, parfois beaucoup d’erreurs. Demander début février 2025 aux robots disponibles qui est le premier ministre français expose par exemple à se faire répondre qu’il s’agit d’Élisabeth Borne (ChatGPT et DeepSeek) ou Gabriel Attal (Claude). Et parfois, quand elle ne sait pas, elle invente. Ce sont les fameuses « hallucinations », un terme promu par les géants de la tech pour humaniser leurs créations et rendre acceptables leurs déraillements.

Selon l’entreprise de sécurité NewsGuard, qui soumet ces outils à des tests rigoureux, le taux d’échec moyen des dix principaux chatbots était de 62 % (d’erreurs ou de non-réponses) en décembre. Celui de DeepSeek un mois plus tard était de 83 %, et dans trois cas sur dix, le nouveau robot « a relayé la position du gouvernement chinois sans qu’il lui ait été demandé quoi que ce soit concernant la Chine ».

Les erreurs des machines dérivent bien souvent vers des biais racistes ou sexistes. Comme l’a résumé à Mediapart le journaliste technocritique Thibault Prévost, « plus on s’éloigne de la médiane, plus le modèle va avoir du mal à prédire et à modéliser le monde ». Le problème étant que « la médiane politique du monde correspond à la bourgeoisie, à la blanchité, au genre masculin ». (...)

La non-transparence comme modèle

Le leader de l’utilisation grand public de l’IA générative, ChatGPT, ne correspond pas au nom de l’entreprise américaine qui l’a créé, OpenAI : il est tout sauf ouvert. « Le système ChatGPT est entraîné sur des milliards de données qu’on ne connaît pas, et il est paramétré d’une manière que personne ne comprend avec certitude », dénonce la chercheuse Laurence Devillers.

Celle-ci insiste sur la méconnaissance qu’a le grand public des concepts et des paramètres qui font fonctionner les chatbots. (...)

Pour le doctorant Morgan Blangeois, il est urgent d’ouvrir la boîte noire : « OpenAI a une grande responsabilité pédagogique à l’égard de ses utilisateurs, dont il souhaite qu’ils soient un milliard cette année ! » Pour lui, « il y a un très gros enjeu pédagogique à former et à informer la population, pour qu’elle sache utiliser l’outil, mais aussi le comprendre ».
Une demande d’énergie insatiable (...)

Et plus la consommation augmente, plus les fragilités se révèlent dans le système électrique. Les moyens de production ne sont déjà plus toujours suffisants pour répondre à la demande, les populations installées aux alentours des centres de développement de l’IA subissant des parasitages et des chutes de tension.

Les géants du numérique sont « dans une course pour la domination mondiale », explique le président de Lancium, une société spécialisée dans l’installation de data centers au Texas. Le consultant Gartner estime que 40 % des data centers existants pourraient rencontrer des contraintes opérationnelles, en raison d’un accès limité à l’énergie.

Certains se sont donc rapprochés des producteurs d’électricité pour prendre des participations dans de nouvelles capacités de production. (...)

D’autres cherchent à se doter de centres de stockage d’énergie.

Dans la précipitation, certains fournisseurs ont décidé de rouvrir des centrales à charbon pour produire l’électricité voulue. Et en septembre, Microsoft a conclu un accord de vingt ans avec le groupe Constellation Energy pour relancer la centrale nucléaire de Three Mile Island. (...)

Alors qu’ils se présentaient encore récemment comme des champions de la lutte contre les dérèglements climatiques et de la transition écologique, tous ont enterré leurs bonnes résolutions : leurs installations d’énergies renouvelables – souvent des parcs solaires – ne vont pas suffire, de leur aveu même, pour répondre à leurs besoins. De même, ils ne mettent plus en avant les gains d’efficacité et de performance apportés par l’IA dans la gestion des réseaux électriques : les progrès réalisés risquent de ne pas égaler la hausse de la demande.
L’humain caché dans la machine

Invisibles et invisibilisé·es. Derrière les LLM et les succès de l’IA générative, on trouve des « petites mains » en masse, indispensables au triomphe des robots. (...)

de nombreuses entreprises francophones sous-traitent à Madagascar les tâches répétitives nécessaires à rendre « intelligents » leurs robots, pour améliorer la traduction, le sous-titrage automatique ou automatiser la perception d’une information par l’ordinateur.

On a aussi découvert qu’avant le déploiement en fanfare de ChatGPT, des Kenyans payés entre 1,3 et 2 dollars par jour ont été chargés, dans des conditions de travail apocalyptiques, de repérer les contenus « toxiques » sur le Web, obligés d’ingurgiter les pires textes et images du Net pour les épargner au client d’OpenAI.

Hommes et femmes doivent aussi assister, corriger, voire remplacer le robot. (...)

Le New York Times a pour sa part bien documenté la manière dont les voitures autonomes nécessitent une supervision humaine à distance, évaluant celle-ci à 1,5 humain par véhicule autonome. (...)