Bandeau
mcInform@ctions
Travail de fourmi, effet papillon...
Descriptif du site
Terrestres/Olivier Lefebvre
« ChatGPT, c’est juste un outil ! » : les impensés de la vision instrumentale de la technique
#IA #ChatGPT
Article mis en ligne le 26 juillet 2025
dernière modification le 23 juillet 2025

L’arrivée des IA génératives (IAg1) suscite de nombreux débats dans l’espace public et dans différents milieux professionnels qui s’interrogent sur leurs risques et leurs potentialités. Un lieu commun revient régulièrement dans ces discussions : une IAg serait « juste un outil »2. Cette affirmation s’inscrit dans une vision dite « instrumentale » de la technique, qui draine avec elle plusieurs présupposés : dans le sens commun, un « instrument » est un objet « neutre » qui reste sous le « contrôle » de son utilisateur et dont les effets ne dépendent que de l’usage qu’on en fait. Dans le cadre des débats sur les IAg, cette vision instrumentale et les discours qui la véhiculent produisent de puissants effets de cadrage : ils concentrent la réflexion sur les seuls usages finaux et tendent à invisibiliser de nombreux aspects cruciaux dont il est pourtant nécessaire de tenir compte si l’on souhaite penser les effets de ces technologies dans toute leur complexité.

Ce texte propose de caractériser ces effets de cadrage, ceux-ci se situant principalement sur deux plans. Le premier plan concerne l’effacement des « conditions de possibilités » de ces technologies, c’est-à-dire l’invisibilisation – en particulier auprès de leurs utilisateur·ices – de l’ensemble des dispositifs matériels et sociaux nécessaires à leur usage. Le second plan concerne l’occultation de la manière dont ces technologies transforment et structurent la société. La vision instrumentale, qui repose sur le postulat que les utilisateurs conservent en dernière instance la maîtrise et le contrôle sur les technologies, ne tient pas compte des contraintes sociales qui s’exercent sur les individus et orientent leurs usages.

L’écrasement des différences

Commençons par une observation : le déploiement d’une technologie ne s’accompagne pas systématiquement d’un discours instrumentaliste. Si cette idée est répétée avec tant d’insistance au sujet des IAg, c’est précisément parce que leur arrivée suscite de nombreux débats, et plus encore des inquiétudes, que l’argument instrumentaliste cherche à désamorcer. Rabattre cette technologie bien particulière dans le champ général et indifférencié des « outils » permet de circonscrire la réflexion dans un cadre connu et donc rassurant. « C’est juste un outil » : sous-entendu « comme les autres », « n’ayez pas peur ». (...)

Le raisonnement selon lequel « l’IA ne serait qu’un outil » revient à mettre sur un même plan le couteau à pain, le smartphone, l’avion, le marteau, Internet, la bombe atomique et la brosse à cheveux. (...)

L’occultation des conditions de possibilité de l’IAg (...)

L’inventaire peut commencer par les datacenters, dont les constructions se multiplient afin d’accueillir le déploiement de ces technologies5, aboutissant à une croissance vertigineuse des besoins en électricité6. Ces nouvelles infrastructures drainent avec elles des réseaux de télécommunication7, des usines de production de composants électroniques, des mines8, etc. Si la matérialité de l’IA et du numérique en général9 est une réalité dont on prend progressivement conscience10, cette préoccupation se réduit bien souvent à une simple invitation à un usage « réfléchi », dont on observe l’inefficacité à infléchir les trajectoires insoutenables de l’impact environnemental du numérique. (...)

Car dans le même temps, les entreprises du secteur tablent de leur côté sur une croissance exponentielle des usages. (...)

 : des milliards de dollars11 investis en salaires d’ingénieurs en IA, en infrastructures de calcul pour entraîner les modèles, en activité de R&D pour développer des calculateurs ad hoc12, etc.

Ces investissements ont été réalisés dans une perspective de rentabilité. Or, s’il n’est pas sûr que les profits escomptés par les acteurs de la Big Tech se traduisent en croissance économique13, cette situation participera nécessairement à donner forme au déploiement futur de l’IA, malgré tous les éventuels appels à la modération ou au discernement.

À cela s’ajoute l’exploitation humaine pour l’entraînement et la modération des modèles14 : des millions de personnes vivant essentiellement dans des pays du Sud sont payées quelques centimes de dollar pour labeliser des données. Comme le dit Sébastien Broca, « sans la globalisation des chaines de valeur et la persistance de logiques néocoloniales, l’IA générative n’existerait pas » (...)

Planter un clou avec un marteau n’engage physiquement que l’utilisateur du marteau, le clou et le support. Effectuer une requête sur ChatGPT mobilise au contraire une gigantesque infrastructure. (...)

penser les effets sociaux de l’IAg par le seul prisme de ses usages conduit à occulter les mécanismes par lesquels la société toute entière se transforme sous l’effet d’une technologie.

La dépendance au sentier

L’histoire du déploiement progressif de l’automobile fournit une excellente illustration de ces mécanismes. Ce déploiement s’est accompagné du développement de nombreuses infrastructures, autant matérielles (les routes, les réseaux de transports de pétrole, etc.) que socio-économiques (l’industrie automobile, l’industrie pétrolière, les banlieues résidentielles, etc.) selon un principe d’auto-renforcement : le développement des infrastructures vient structurer les modes de vie autour de cette technologie, engendrant une forme de dépendance sociale qui contribue à son tour à accroître le développement de ces infrastructures.

La notion de dépendance au sentier est employée pour décrire ce phénomène, soulignant comment des déploiements techniques passés ont un effet structurant sur le futur des sociétés : le futur d’un système socio-technique est déterminé par la trajectoire qu’il a suivie dans le passé.

La question du bon et du mauvais usage individuel de la voiture n’a aujourd’hui pas vraiment de sens : cet usage est en partie imposé. (...)

L’IA en général, et les IA génératives dont il est plus particulièrement question dans ce texte, constituent un prolongement de la trajectoire socio-technique du numérique : c’est parce que le numérique imprégnait nos sociétés et leurs organisations19 que les IAg ont pu être développées et qu’elles se déploient avec une telle rapidité. Pour que cela ait lieu, il était en effet a minima nécessaire que les données d’apprentissage soient disponibles sur Internet et que l’usage d’applications sur smartphone ou par Internet fassent partie des habitudes sociales. (...)

Comment les IAg peuvent devenir incontournables

La question que l’on peut alors se poser est de savoir quelle dépendance au sentier vont engendrer les IA génératives : quelles formes prendront les mécanismes d’auto-renforcement ? Pour quelles pratiques sociales leur usage deviendra-t-il incontournable ?

Une illustration de cette logique d’auto-renforcement s’observe actuellement dans les débats sur l’usage des IAg dans l’enseignement supérieur. Au motif que les étudiant.es les utilisent de toute façon déjà, mais surtout que ces « outils » seront communément utilisés dans leur future activité professionnelle, on voit se multiplier les formations, à destination des étudiant.es et des personnels enseignants, pour intégrer les IAg dans les pratiques pédagogiques et pour maîtriser « l’art du prompt20 ». Cette préoccupation, parfaitement légitime au demeurant, qui vise à doter les étudiant.es des compétences qui leur seront nécessaires car elles seront devenues incontournables, contribue de manière certaine à rendre l’usage de ces technologies effectivement nécessaire et incontournable. Dit autrement, ce qui rend véritablement inéluctable le déploiement d’une technologie, c’est la croyance partagée dans son aspect inéluctable. (...)

si tout le monde (ou presque) utilise une IAg, ne pas l’utiliser devient trop pénalisant et on finit par l’utiliser. Ce dernier cas, qui est de loin le plus répandu, échappe presque par définition à la vision instrumentale, car celle-ci ne tient pas compte des effets que produisent les usages d’une technologie sur… celles et ceux qui ne l’utilisent pas (encore) ! (...)

Il existe une immense variété de pratiques sociale dont la norme sera ainsi progressivement modifiée par la généralisation des usages de l’IAg. On peut d’ailleurs remarquer que dans une société valorisant la productivité (autant dans la sphère économique que dans la sphère individuelle), le déplacement de la norme sociale sous l’effet des IAg sera globalement orienté dans une unique direction : celle qui laisse escompter les gains de productivité les plus grands.

C’est la multiplication des situations dans lesquelles les IAg deviennent incontournables – que cela soit de manière stricte ou parce qu’il devient trop pénalisant de ne pas les utiliser – qui contribue à engendrer ce phénomène de dépendance sociale et ce mécanisme de dépendance au sentier. (...)

Une dépendance à l’IA qui reste encore essentiellement à venir

L’une des raisons pour lesquelles l’argument affirmant que « l’IAg c’est juste un outil » peut être martelé sans rencontrer de forte opposition réside dans la relative nouveauté de cette technologie.

Si tout le monde peut aisément mesurer aujourd’hui combien l’automobile a radicalement transformé les modes de vie, les paysages, l’urbanisme, etc., ces bouleversements ne se sont pas faits en un jour. La dépendance de nos sociétés au « tout voiture » est le fruit d’un processus qui s’est étalé sur plusieurs dizaines d’années.

En comparaison, nous n’en sommes encore qu’au tout début des IAg21 et certains arguments soutenus par la vision instrumentale peuvent à l’heure actuelle difficilement être démentis. (...)

Les analyses des usages des débuts de l’histoire d’une technologie perdent leur pertinence lorsque les mécanismes de structuration sociale commencent à se faire sentir. Plusieurs signaux laissent penser que nous y sommes.

L’intention « rassuriste »

On mesure donc à quel point l’idée de contrôle de l’outil, présupposée par la vision instrumentale de l’IA, est problématique. D’une part, une technologie comme l’IA « fait » beaucoup plus que la seule intention de ses utilisateurs finaux (...)

La vision instrumentale des IAg porte avec elle une forme de « rassurisme » sur la capacité de contrôle et de maîtrise que les usagers finaux peuvent avoir des objets techniques.

Que ce « rassurisme » soit intentionnel ou qu’il soit l’effet d’une vision naïve de la technique, le résultat est le même : il participe de la banalisation – voire de la promotion – de cette technologie, nous empêchant de penser la complexité de ses effets et d’adopter les mesures appropriées. (...)

L’idée est en somme que nous n’avons d’autre choix que de nous adapter, mais qu’il n’y a pas de raison d’avoir peur du futur que cette technologie nous bâtit. (...)

Comment tenir une critique radicale du « rassurisme » sans céder aux discours apocalyptiques qui nous maintiennent dans un état d’aveuglement quant aux dimensions matérielles et sociales décrites précédemment ?

Il s’agirait de penser lucidement ce que l’on perd et ce que l’on gagne au déploiement de ces technologies, pas seulement en tant qu’utilisateur, mais aussi en tant que société. On ne peut évidemment pas prédire comment les IAg transformeront la société et les individus qui la composent, il n’existe pas de déterminisme technique absolu, mais on peut néanmoins anticiper certains effets indésirables et s’organiser dès à présent pour tenter de les contenir. (...)

Que penser d’une technologie qui développe la compétence « écrire le bon prompt » au prix de l’élimination du processus cognitif si singulier que constitue le passage de la pensée à l’écrit ? Comme le formulent efficacement deux enseignant·es : « on nous propose donc de nous libérer de la condition même de notre émancipation » (...)

En pédagogie comme ailleurs, ce n’est pas la destination qui compte mais le voyage, ce n’est pas le résultat mais l’expérience vécue pour le produire. Il s’agirait donc de faire l’inventaire de ce que l’on pourrait perdre avec la généralisation des IAg et auquel on tient pourtant, pour trouver les moyens de le conserver. (...)

Il existe une forme particulière de dépendance à la technologie, déjà largement constatée avec les smartphones, les réseaux sociaux et le numérique en général : l’addiction des individus à ces technologies. (...)

Le problème des discours « rassuristes » est que non seulement ils évacuent des problématiques dont il serait nécessaire de débattre, mais en outre, en propageant un cadre d’analyse des effets sociaux des technologies totalement inadapté, puisque reposant sur une vision instrumentale, ils sapent les possibilités même d’un débat éclairé. (...)

Savoir contrer la « rhétorique de l’outil »

Au terme de ce parcours, sommes-nous mieux « outillé·es » pour démentir l’affirmation selon laquelle « ChatGPT, c’est juste un outil », comme nous en formulions l’intention en introduction ?

Si l’occasion se présente, on pourra commencer par rappeler les conditions de possibilité de ChatGPT, qui sont totalement invisibilisées par ce discours, et qui montrent qu’il s’agit plus d’un système complexe que d’un simple outil.

Ensuite, il pourra être utile d’exposer une brève histoire du développement de l’automobile, qui illustre le phénomène de dépendance au sentier. Celle-ci pourra être suivie par quelques exemples de pratiques sociales pour lesquelles l’usage du numérique est aujourd’hui incontournable, afin de souligner le fait que les futurs usages et effets de ChatGPT ne seront pas simplement un reflet étendu et amplifié des usages actuels et de ce qu’on peut constater de leurs effets.

La question n’est pas tant de savoir si tel usage est « pratique » ou pas, mais de déterminer si l’on souhaite contribuer à ce système et au monde qu’il façonne. (...)

Nos sociétés sont traversées de dynamiques néfastes auxquelles on s’oppose tout en cherchant à vivre avec : des inégalités, des discriminations, des rapports de domination, des pollutions, des dégradations environnementales, des déséquilibres planétaires, etc. Le risque étant que, parce qu’elles sont considérées comme un simple « outil », les IAg continuent d’être adoptées de façon irraisonnée, et viennent renforcer ces dynamiques néfastes.

Olivier Lefebvre
Après une dizaine d’années à travailler en tant qu’ingénieur-docteur en robotique, Olivier Lefebvre s’est réorienté vers les sciences humaines et sociales. Il est l’auteur de “Lettre aux ingénieurs qui doutent” (L’Echappée, 2023), dans lequel il questionne le rôle et le positionnement des ingénieurs vis-à-vis de l’innovation technologique. Il est chargé de cours dans le champ Sciences, Techniques et Société au sein de plusieurs établissements universitaires toulousains et est membre du collectif interdisciplinaire l’Atecopol (Atelier d’écologie politique). Ses réflexions portent sur les relations entre innovations technologiques et transformations sociales