Le « cerveau » d’une IA conserve une part de mystère pour les chercheurs. Pour comprendre son fonctionnement et la rendre plus sûre, une équipe de scientifiques l’a « disséqué ».
L’IA L’intelligence artificielle représentée au moyen d’une IA générative. © D. Ichbiah avec Dreamlike.art et Clipdrop de Stable Diffusion.
est une création de l’Homme et pourtant, plus elle s’améliore, plus elle devient difficile à comprendre. De fait, de nombreux scientifiques sont inquiets face à son développement spectaculaire. Pour eux, le danger réside dans la perte totale de contrôle que l’on pourrait avoir sur ces IA.
Depuis plusieurs années, Futura relate cette peur et les conséquences possibles pour notre civilisation. En devenant plus « intelligentes », ce qui se passe dans la machinerie d’une IA devient de plus en plus difficile à cerner. Pour gagner en efficacité, les peuvent même développer leur propre langage, totalement abscons pour leurs créateurs. Globalement, la fenêtre de compréhension du fonctionnement des IA se referme.
Le gros problème, c’est que l’IA peut très bien distiller avec assurance des biais nuisibles et des contenus toxiques, ou bien inventer des faits. L’autre danger, c’est que par excès de confiance, la plupart des utilisateurs vont la croire, sans vérifier. Et ce dernier point va devenir compliqué, puisque les IA s’alimentent désormais de données piochées sur le Web. Des données parfois biaisées qui sont de plus en plus générées par elles-mêmes.
Pour mieux comprendre leur fonctionnement et éviter la catastrophe, de nombreux chercheurs tentent de disséquer ces modèles. C’est le cas de chercheurs de la start-up Goodfore.ai. Ils se sont lancés dans l’étude de la structure interne des grands modèles de langage et visuels. Autrement dit, sa cartographie. (...)