
Docteur en droit international, professeur à l’école de management de Grenoble et auteur de la chronique Juri-Geek sur le site The Conversation, Nathalie Devillier décortique les pratiques numériques pour alerter sur la protection des données personnelles et l’absence de transparence des algorithmes, souvent utilisés pour favoriser les intérêts commerciaux au détriment de ceux des consommateurs.
Lelanceur.fr : Dans une chronique publiée sur le site The Conversation – à lire ci-dessous-, vous rappelez que quatre lanceurs d’alerte, employés d’Uber, ont permis de révéler “Greyball”, un programme mis en place par l’entreprise pour berner les autorités américaines dans les villes où l’application n’avait pas obtenu l’autorisation d’opérer. Que démontre cette manipulation des nouvelles technologies par une entreprise privée ?
Nathalie Devillier : Cette affaire témoigne de la grande opacité qui règne autour des algorithmes. Le degré d’information entre les entreprises qui conçoivent et utilisent les algorithmes et les consommateurs qui les subissent est clairement asymétrique. Du point de vue de l’entreprise, l’opacité est considérée comme une condition de l’efficacité et de la fiabilité de l’algorithme. C’est leur recette magique et leur business model donc cela doit automatiquement rester opaque. Mais nous sommes forcés de constater que les demandes systématiques des applications à avoir accès aux données à travers le système informatique des téléphones paraissent complètement disproportionnées. Lorsqu’une application demande l’accès au répertoire de contacts ou à l’agenda dans le but d’opérer une récolte de données, nous comprenons alors que cette asymétrie dans l’information pèse en faveur des intérêts commerciaux et non dans l’intérêt des consommateurs et des citoyens. On peut imaginer, par exemple, que les données récoltées par les différents traceurs que nous avons sur nos téléphones, tablettes et ordinateurs servent, à travers un algorithme, à calculer le tarif que l’on va nous proposer pour réserver des hôtels ou des billets d’avion. Au final, cela révèle que l’enjeu économique prime sur l’enjeu démocratique, mais aussi que dans l’algorithme, il n’y a pas vraiment d’éthique.
Une recherche est maintenant lancée sur l’éthique des algorithmes et les motivations de ceux qui les préparent (...)
La société civile peut naturellement compter sur les lanceurs d’alerte, même s’il faut mettre un bémol en rappelant qu’ils sont moins bien recrutés ensuite et que cela ne peut donc être qu’une partie de la réponse. Aussi, de nombreux instituts de recherche, associations ou ONG travaillent sur les algorithmes et ont pour mission de les analyser et de vulgariser les informations, c’est le cas par exemple de l’INRIA. Une recherche est maintenant lancée sur l’éthique des algorithmes et les motivations des personnes qui les préparent. Je vais aussi ajouter la Direction générale de la Concurrence, de la Consommation et de la Répression des Fraudes (DGCCRF) qui sait pertinemment pourquoi certains algorithmes sont utilisés. Dans la lignée de la loi Lemaire en France, le projet “Transalgo” a également été crée pour percer à jour les algorithmes. La société civile peut aussi avoir recours à des mécanismes grand public comme des conférences sur le sujet ou la lecture de médias plus ou moins développés qui traitent de la thématique. (...)
Un algorithme pour contourner la loi est-il légal ?
Nous savons nos données malléables, les équipes d’analyse maligne des données comportementales à des fins de marketing ciblé s’en donnent à cœur joie sur les plateformes de données consommateurs. Mais avec l’affaire Uber, un pas a été franchi : ces mégadonnées générées par les applications, les objets connectés et la navigation Internet sont autant de leviers de discriminations entre les mains des entreprises qui choisissent leurs clients et donc en excluent une partie de façon indécelable.
Quelles applications et sites web sont dignes de confiance ? Comment être sûr de ne pas se faire berner ? De ne pas cliquer sur le piège ? Laisser les limites de l’envahissement technologique aux mains de sociétés privées ne semble pas être l’idée du siècle. Avec l’apparition de nouveaux modèles économiques, la frontière de la légalité a été mise à mal une première fois, amenant les autorités nationales ou locales à “négocier” le respect de la loi avec ces entreprises dites innovantes. Aujourd’hui, c’est l’utilisation du code informatique par ces mêmes entreprises qui est questionnée. Il nous faut davantage légiférer sur les algorithmes, opérer des contrôles et donc attribuer les moyens techniques et humains à la hauteur des prétentions des ennemis de l’éthique pour assurer la protection de chacun.