Bandeau
mcInform@ctions
Travail de fourmi, effet papillon...
Descriptif du site
Mediapart
L’intelligence artificielle ne fera pas disparaître le travail, mais risque de le dégrader
#IA #travail #productivite
Article mis en ligne le 12 avril 2023
dernière modification le 10 avril 2023

Le succès de ChatGPT, robot d’intelligence artificielle « générative », a lancé un nouveau récit techno-solutionniste. La réalité est néanmoins beaucoup plus complexe.

Le 3 avril dernier, le ministre de l’économie et des finances, Bruno Le Maire, s’est livré pour BFM TV à l’attraction du moment : utiliser le robot d’intelligence artificielle (IA) ChatGPT pour rédiger un « discours ».

Le ministre a obtenu le résultat attendu : « J’ai eu un discours assez intelligent, bien structuré, en exactement cinq minutes. Là où, il y a vingt ans, il m’aurait fallu trois ou quatre heures pour faire ce discours. » Le ministre trouve cela « assez fascinant », avant de mettre en garde contre les conséquences éthiques et économiques de cette nouvelle technologie et d’appeler à une « meilleure régulation ».

Ces propos ministériels traduisent le mélange de fascination, de peur et d’espoirs que les élites agitent depuis le lancement, en novembre 2022, de ChatGPT par l’entreprise OpenAI, alliée à Microsoft. On retrouve les discours habituels liés aux ruptures technologiques. (...)

Pour savoir ce qu’il en est concrètement, il faut d’abord comprendre ce que représente ChatGPT. Ce programme est la première application grand public d’une technologie qui a émergé à la fin des années 2010, le LLM (« large language model »).

À la différence des précédentes méthodes d’apprentissage mécanisé qui dominaient jusqu’ici, le LLM permet de traiter des bases de données générales, non spécialisées, dans le langage humain courant et de produire des contenus en langage courant ou sous forme de vidéos ou d’images. C’est ce qui a surpris les utilisateurs de ChatGPT : la production de la nouvelle IA ressemble à s’y méprendre à un contenu humain.

La rupture technologique est certaine (...)

Le récit dominant autour de l’IA générative

Devant ce développement spectaculaire, le monde des affaires s’est emballé. Il faut dire que, sur le papier, ce développement de l’IA représente une forme de « pierre philosophale ». Dans le contexte d’un capitalisme en proie à la baisse de ses gains de productivité, beaucoup pensent que, désormais, tout peut changer.

La capacité mimétique de l’activité intellectuelle humaine de l’IA permet de penser que cette technologie sera capable de remplacer massivement l’activité humaine, conduisant à une hausse formidable de la productivité du travail. En clair : l’IA permettrait de réduire le besoin de travail pour réaliser de la production.

Un des éléments permettant de croire au développement de l’IA est la baisse vertigineuse du coût de développement des LLM. (...)

Les annonces d’expérimentations concernant l’usage de l’IA par de grands groupes se succèdent. (...)

Les agences de conseil comme PwC ou EY veulent, elles, utiliser cette technologie pour rendre « plus efficaces » leurs services fiscaux et légaux. La société de gestion de paiements Stripe intègre aussi ChatGPT dans son processus de vérification et de paiement.

Bref, chaque jour, une nouvelle multinationale semble annoncer l’utilisation de l’IA. (...)

Dès lors, l’heure est à la publication d’études prospectives effrayantes ou rayonnantes, selon ce qu’on veut y voir. Celle de la banque états-unienne Goldman Sachs a fait grand bruit. Elle estime, dans son scénario central, que si l’IA générative, celle du LLM, « tient toutes ses promesses », alors 300 millions d’emplois à plein temps seront menacés d’automatisation au niveau mondial.

En retour, la croissance de la productivité du travail pourrait progresser de 1,5 point de pourcentage par an chaque année pendant dix ans, doublant le niveau actuel. L’étude termine avec une promesse de hausse annuelle du PIB mondial de 7 % (contre 2,9 % prévus pour 2023 par le Fonds monétaire international).

Ces prévisions et la forte demande des entreprises provoquent, en retour, une forte concurrence dans le domaine des producteurs du service technologique en question. (...)

Google, Meta et... Baidu sur les rangs

Les coûts d’entrée sont désormais élevés, mais les autres géants technologiques entendent rester dans la course. Google a resserré ses liens en février avec la société Anthropic, fondée par un ancien d’OpenAI, et a développé son propre outil, Bard, destiné à concurrencer ChatGPT.

De son côté, Marc Zuckerberg, président de Meta, ex-Facebook, a dû réviser ses plans. Lui qui, depuis des années, misait à coups de milliards de dollars sur le métavers, sans succès notable, a décidé de mettre désormais la priorité sur l’IA pour rester dans le jeu. Même Baidu, géant technologique chinois, tente de développer sa propre IA générative, Ernie, pour le moment avec peu de succès.

Globalement, l’offre de l’IA générative est en train de se structurer, et il semble certain que les géants technologiques, en recherche d’un second souffle de croissance mais disposant toujours de ressources considérables, y joueront le premier rôle. À ce moment, on peut penser que la nouvelle génération de l’IA représente une formidable poule aux œufs d’or pour le capitalisme contemporain. (...)

La question de l’acceptabilité

Or, les doutes existent bel et bien et pèsent sur l’acceptabilité de l’IA. La première de ces incertitudes concerne sa fiabilité. Les producteurs parviennent certes à améliorer constamment les performances de leurs machines, mais ils ne peuvent éviter les erreurs et les fausses informations qui sont partie prenante du système LLM. C’est ce que l’on appelle des « hallucinations ». À certains moments, le système répond n’importe quoi avec l’assurance de la certitude. Beaucoup d’utilisateurs et utilisatrices de ChatGPT en ont fait l’expérience.

Ces déraillements sont inévitables parce que le système produit ses réponses à partir de l’analyse de vastes données récoltées sur Internet. Dans ces données, il existe des erreurs, des délires et des fausses informations que l’IA ne peut distinguer des données véritables. Ces machines ne sont pas conscientes, elles traitent de l’information. Si ce traitement produit une erreur, cette erreur sera sa vérité. (...)

une confiance trop avancée dans son fonctionnement peut conduire, lorsqu’il s’agit de prendre des décisions importantes, à des erreurs désastreuses. (...)

Dans une relation interpersonnelle, l’erreur est souvent acceptable et réparable par un dialogue. Dans une relation avec la machine, elle l’est moins, précisément parce que c’est ici l’avantage « vendu » d’une machine : réduire la capacité d’erreur de l’humain.

(...)

Un autre point de l’acceptabilité sera précisément l’absence de sensibilité de l’IA, qui limitera de facto la relation avec le public. L’IA singe un type de comportement humain, le traitement des données, qu’elle est capable de réaliser parfois mieux qu’un humain. Mais la relation humaine, même celle d’une relation marchande de vente ou d’achat d’un service, ne se limite pas toujours à cette dimension. Il y a là une limite qui représente aussi un risque, celui d’imposer une relation unidimensionnelle pour des raisons marchandes. (...)

Dans un ouvrage publié en 2021, Deep Earnings, le physicien Pablo Jensen résume de cette façon le problème : si l’IA voulait réfléchir comme les humains, « il lui faudrait un corps similaire au nôtre » et « sans représentations symboliques intermédiaires ». Le corps pense aussi, et c’est même l’objet d’une partie non négligeable de la création humaine.

Ce qui nous mène à un dernier problème, celui de la « neutralité » de l’IA. Ces machines sont, comme toutes les autres, programmées et calibrées par des humains. Elles sont certes capables de produire du contenu inédit et de façon autonome, mais dans un cadre prédéfini au départ. Les réponses produites sont aussi le fruit de ce cadre.

Ce fait a été utilisé comme une arme contre le développement actuel de l’IA, notamment par Elon Musk, qui n’a cessé de parler « d’IA biaisée » ou « d’IA woke ». C’est aussi ce qui a motivé en grande partie ce même Elon Musk à lancer voici quelques jours une lettre ouverte pour un moratoire de six mois dans le développement de l’IA, signée par 1 000 chercheurs, chercheuses, acteurs et actrices du secteur afin de la « réguler » pour éviter, affirme-t-il, un « risque pour la civilisation et l’humanité ». (...)

Car, en réalité, l’IA ne peut, par nature, être neutre. La volonté d’Elon Musk d’opposer un « Truth GPT » à un « Woke GPT » est avant tout un leurre destiné à cacher un enjeu économique : la volonté des concurrents qui ont raté le train de couper l’herbe sous le pied des premiers entrants. Pour cela, on utilise volontiers le combat à la mode à droite aux États-Unis, celui contre le « capitalisme woke ». Mais la Chine agit d’une certaine façon avec la même méthode : elle a interdit l’utilisation de ChatGPT, tout en investissant pour développer l’outil de Baidu…

Le paravent des discours moraux (...)

l’émergence d’une technologie de rupture produit des suppressions de postes qui se traduisent par du temps libéré pour de nouvelles tâches « plus productives », tout cela faisant augmenter la productivité globale de l’économie, donc les profits, les salaires et la demande.

Ce récit néo-schumpétérien est séduisant, mais il y a un os. C’était le même qui accompagnait le développement de l’informatique et de l’Internet. Or, ces technologies ont donné lieu à une poursuite de la baisse des gains de productivité depuis trente ans. C’est le fameux paradoxe formulé par l’économiste Robert Solow : « On voit les ordinateurs partout, sauf dans les chiffres de la productivité. »

Quel impact sur le travail ?

Rien ne dit que l’IA soit capable de résoudre ce paradoxe. (...)

L’étude de Goldman Sachs reconnaît d’ailleurs que les secteurs de la production ne seront pas ou quasiment pas affectés par l’IA. (...)

La question n’est donc pas tant la disparition du travail que l’effet de la technologie sur les gains de productivité globaux. Et rien n’assure qu’elle permette, comme le dit Goldman Sachs, de libérer du temps pour « des tâches plus productives ». (...)

pour ce qui est du bien-être des populations et des travailleurs, comme d’ailleurs de la crise structurelle sociale et environnementale du capitalisme, l’IA ressemble plus à une nouvelle fuite en avant insensée qu’à une quelconque solution.

Si l’idée de stopper une avancée technologique semble vaine, il devient urgent de ne plus accepter cette avancée sous sa forme marchande, mais au contraire de la placer en regard des besoins sociaux et environnementaux qui sont les nôtres. Plus que jamais, il est urgent de lancer un débat sur le contenu et le sens des technologies.