Bandeau
mcInform@ctions
Travail de fourmi, effet papillon...
Descriptif du site
Trust my science
Il y a 70 % de chances que l’IA nuise considérablement à l’humanité, selon un ex-employé d’OpenAI
#IA #OpenAI
Article mis en ligne le 9 juin 2024
dernière modification le 7 juin 2024

Un groupe d’anciens et actuels employés d’OpenAI a publié une lettre ouverte alertant une fois de plus sur les problèmes de sécurité liés à la technologie. Ils dénoncent une sous-estimation des risques et une précipitation imprudente dans la course à l’IA générale (IAG) de la part de l’entreprise. L’un d’eux estime qu’il y a environ 70 % de chances que l’IA nuise de manière catastrophique à l’humanité étant donné les négligences en matière de sécurité.

Alors que la technologie évolue à une vitesse fulgurante, l’IA fait l’objet de débats permanents sur les risques qu’elle pourrait engendrer sur la société. Promue pour bientôt égaliser voire dépasser la plupart des compétences humaines, de nombreux experts estiment qu’elle pourrait nuire à l’humanité de nombreuses manières.

Ces risques vont par exemple de la perte massive d’emplois à la perte de contrôle des systèmes d’IA autonomes, qui pourraient prendre des décisions hautement nuisibles, en passant par la manipulation de l’information ou la désinformation. Les entreprises d’IA elles-mêmes et les pionniers de la technologie, ainsi que d’autres experts, ont reconnu ces risques. (...)

Les membres du groupe affirment que bien que certaines normes de sécurité soient mises en place par l’entreprise, elles sont loin d’être suffisantes par rapport à l’ampleur des impacts potentiels. D’autre part, le groupe dénonce l’entreprise de prioriser les profits et la croissance avant la sécurité. Elle instaure aussi une politique stricte et restrictive pour ceux souhaitant soulever les problèmes de sécurité. (...)

« OpenAI est vraiment enthousiasmé par la création de l’IAG et se précipite imprudemment pour être le premier », a déclaré au New York Times Daniel Kokotajlo, l’un des signataires et ancien chercheur de la division de gouvernance d’OpenAI. Ce dernier a démissionné en avril de cette année en affirmant avoir perdu confiance dans l’engagement de l’entreprise à se comporter de manière responsable vis-à-vis de la technologie. Ses années passées chez OpenAI lui ont permis notamment de découler sur un constat alarmant. (...)