Bandeau
mcInform@ctions
Travail de fourmi, effet papillon...
Descriptif du site
la Croix
Intelligence artificielle : « Notre société poursuit sa fuite en avant sans s’interroger sur les risques »
#IA #ChatGPT
Article mis en ligne le 25 mai 2024
dernière modification le 22 mai 2024

L’intelligence artificielle (IA) connaît un regain d’intérêt fulgurant depuis le succès de ChatGPT. Un succès qui pousse à investir massivement dans cette technologie sans s’interroger sur les risques et les conséquences de son développement, s’inquiètent un philosophe, un mathématicien et une journaliste.

« Intelligence artificielle » (IA), rien que le terme biaise les discussions depuis les années 1950. Les algorithmes de prévision, d’aide à la décision, de génération de textes, d’images… simulent et surpassent quelques fonctions cognitives. Mais l’intelligence artificielle ne ressemble en rien à l’intelligence humaine, de toute façon si difficile à définir. Pourtant, le débat ne cesse de porter sur le risque d’une prise de contrôle par des machines, pour les uns, et les promesses d’une IA sauveuse de l’humanité, pour les autres.

Alors que ces algorithmes sont présents dans nos quotidiens depuis les années 1990, le succès fulgurant de ChatGPT explose les compteurs. En conséquence, une course effrénée au plus gros modèle entre les principaux acteurs du numérique draine des financements considérables ; des débats déconnectés de la réalité mais omniprésents, qui prévoient la date de dépassement du naturel par l’artificiel, nous distraient de dangers plus insidieux et de bien d’autres périls.

Aux antipodes de l’humain

L’une des premières conséquences n’est donc pas que les humains soient dépassés par des machines qui prennent le contrôle mais que nous devenions des machines à force d’interagir avec ces dernières. La numérisation massive de la société nous en apporte des preuves quotidiennes. Nous essayons non sans mal de dialoguer avec des ordinateurs. Des commerces aux services publics. Nous appauvrissons notre langage à force de communiquer avec des interfaces numériques.

« L’histoire de l’intelligence artificielle, entre promesses tonitruantes et brutales déconvenues »

Même très complexes, les algorithmes d’IA schématisent et formalisent la réalité, ils la simplifient tout en la rendant opaque. Ils sont des boîtes noires fermées à l’explication d’une décision. La conception d’un système d’IA est une succession d’étapes qui modélise, réduit et fige la réalité. (...)

ces algorithmes ont des limites intrinsèques qui mériteraient un éveil des consciences bien plus important. Leur fiabilité est douteuse dès qu’il s’agit d’anticiper ou de prévoir une action ou un comportement humain. Leur déploiement dans les domaines affectant des personnes physiques pour l’accès à la santé, l’emploi, l’enseignement, la justice, le crédit, etc. entraîne des risques importants, notamment d’erreurs et de biais discriminatoires systémiques. Malheureusement, le règlement européen ne prévoit pas de contrôle de conformité avant leur déploiement.

Intelligence artificielle : « L’objectif est de reporter toujours plus loin le moment de la déconnexion »

En usant à outrance de modèles d’apprentissage reposant sur des relations statistiques, nous supprimons tous les jours un peu plus la singularité et l’unicité de chacun. (...)

Utilisés en grande partie à des fins mercantiles, des algorithmes, notamment ceux de recommandation des réseaux sociaux, nous poussent à rester toujours plus connectés et à consommer. Un des premiers secteurs à les avoir utilisés en masse a été le secteur de la finance. (...)

Pollution numérique

La course effrénée aux plus gros algorithmes avec le plus de paramètres n’a pas d’objectif à atteindre. Elle n’a donc plus de limite hormis celles des ressources : les données réelles disponibles et l’impact sur la planète. Pour l’instant au sein du numérique, l’IA n’est pas ce qui pollue le plus. Cependant pour avoir des données nécessaires à l’entraînement des algorithmes, il faut des capteurs : des équipements dont la fabrication est responsable de la plus grande partie de la pollution produite par le numérique (des émissions de gaz à effet de serre à la consommation de métaux). Les usages de plus en plus massifs de l’IA augmentent de façon exponentielle la part de la pollution liée aux data centers ; l’entraînement d’un algorithme sur de grandes masses de données nécessite beaucoup d’énergie, beaucoup d’eau. Même si cette pollution très diffuse est encore mal évaluée, elle est massive.

Cédric Villani : « Le problème, ce n’est pas que l’IA nous remplace, c’est notre monde de solitude » (...)

, nous continuons à investir des milliards d’euros, sans interroger ni débattre de la balance bénéfice/risque d’un système d’IA avant son déploiement. Le règlement européen récemment adopté ne prend pas en compte les aspects environnementaux et il ne sera réellement efficace que pour les systèmes d’IA embarqués dans des dispositifs déjà objet de contrôle (transports, jouets, santé.) Encore une fois, un lobbying intensif a vidé en partie la loi de son contenu. Notre société continue sa fuite en avant technologique, en croyant que la technologie est neutre et que l’intelligence artificielle pourrait nous sauver de nombreux maux. Ce sujet capital exige un débat à la hauteur des enjeux. Un débat politique où les mythes de science-fiction resteraient dans les salles de cinéma.

Lire aussi :

 (France24/AFP)
Malgré les scandales, OpenAI cherche à rassurer sur l’intelligence artificielle

Sam Altman, le patron d’OpenAI, a affirmé mardi lors de la conférence annuelle de Microsoft, son principal investisseur, que l’intelligence artificielle générative est "suffisamment sûre". Et ce malgré les scandales à répétition qui touchent sa société, célèbre pour sa plateforme ChatGPT. (...)

Sam Altman vient en effet de présenter des excuses à l’actrice Scarlett Johansson, qui l’accuse d’avoir copié sa voix pour le tout nouveau mode vocal de ChatGPT. Il a aussi suspendu Sky, la voix en question générée par l’IA, utilisée lors d’une démonstration des capacités de son nouveau modèle multimodal, GPT-4o.

Dans un communiqué lundi, l’actrice a raconté avoir refusé au dirigeant le droit d’utiliser sa voix, et s’est dite "choquée" par la forte ressemblance. "J’ai été très surpris par à quel point j’aime le nouveau mode vocal", a cependant confié Sam Altman, tout sourire, sur scène mardi.
"Produits tape-à-l’œil"

Il a encouragé les milliers de développeurs qui suivent la conférence à "profiter" de cette "période spéciale", "la plus excitante depuis l’avènement du mobile, voire d’internet". "Ce n’est pas le moment de remettre vos idées à plus tard ou d’attendre les prochaines évolutions", a-t-il insisté.

Il a aussi vanté les performances son nouveau modèle : "la vitesse et le coût sont très importants. Avec GPT-4o, nous avons réussi à diviser le prix par deux tout en doublant la vitesse". Et à l’avenir, "les modèles vont devenir encore plus intelligents", a-t-il promis, assurant que "c’est ce qui compte le plus". (...)

De nombreux observateurs et élus s’inquiètent de la vitesse ultra rapide à laquelle les géants de la tech déploient des outils d’IA toujours plus perfectionnés et humanisés. Les groupes, eux, se félicitent de leurs progrès exponentiels, et assurent que "ce n’est que le début".

Hormis les voix dissonantes, comme Jan Leike, ancien responsable de l’équipe d’OpenAI chargée d’encadrer les éventuels dangers à long terme d’une "super IA", aux capacités cognitives semblables à celles des humains. Il a démissionné la semaine dernière, estimant sur X (ex-Twitter) que l’entreprise donnait la priorité aux "nouveaux produits tape-à-l’œil" plutôt qu’à la sécurité. Son co-directeur, Ilya Sutskever, un cofondateur de l’entreprise, est aussi parti. OpenAI a dissous l’équipe et dispatché ses membres dans d’autres groupes. (...)