Bandeau
mcInform@ctions
Travail de fourmi, effet papillon...
Descriptif du site
le Monde Diplomatique
Mise en données du monde, le déluge numérique
Article mis en ligne le 1er février 2014
dernière modification le 28 janvier 2014

Amitiés, pensées, échanges, déplacements : la plupart des activités humaines donnent désormais lieu à une production massive de données numérisées. Leur collecte et leur analyse ouvrent des perspectives parfois enthousiasmantes qui aiguisent l’appétit des entreprises. Mais la mise en données du monde risque aussi de menacer les libertés, comme le montre le tentaculaire programme de surveillance conduit aux Etats-Unis.

Au IIIe siècle avant notre ère, on disait de la bibliothèque d’Alexandrie qu’elle renfermait la totalité du savoir humain. De nos jours, la masse d’informations disponibles est telle que, si on la répartissait entre tous les Terriens, chacun en recevrait une quantité trois cent vingt fois supérieure à la collection d’Alexandrie : en tout, mille deux cents exaoctets (milliards de milliards d’octets). Si on enregistrait le tout sur des CD, ceux-ci formeraient cinq piles capables chacune de relier la Terre à la Lune.

L’hyperinflation des données est un phénomène relativement nouveau. En 2000, un quart seulement des informations consignées dans le monde existaient au format numérique. Papier, film et support analogique se partageaient tout le reste. Du fait de l’explosion des fichiers — leur volume double tous les trois ans —, la situation s’est renversée dans des proportions inouïes. En 2013, le numérique représente plus de 98 % du total. Les Anglo-Saxons ont forgé un terme pour désigner cette masse devenue si gigantesque qu’elle menace d’échapper au contrôle des gouvernants et des citoyens : les big data, ou données de masse.

Devant leur démesure, il est tentant de ne les appréhender qu’en termes de chiffres. Mais ce serait méconnaître le cœur du phénomène : l’immense gisement de données numériques découle de la capacité à paramétrer des aspects du monde et de la vie humaine qui n’avaient encore jamais été quantifiés (...)

trois changements majeurs dans notre approche. Le premier consiste à recueillir et à utiliser le plus grand nombre possible d’informations plutôt que d’opérer un tri sélectif comme le font les statisticiens depuis plus d’un siècle. Le deuxième implique une certaine tolérance à l’égard du désordre : mouliner des données innombrables, mais de qualité inégale, s’avère souvent plus efficace qu’exploiter un petit échantillon impeccablement pertinent. Enfin, le troisième changement implique que, dans de nombreux cas, il faudra renoncer à identifier les causes et se contenter de corrélations. Au lieu de chercher à comprendre précisément pourquoi une machine ne fonctionne plus, les chercheurs peuvent collecter et analyser des quantités massives d’informations relatives à cet événement et à tout ce qui lui est associé afin de repérer des régularités et d’établir dans quelles circonstances la machine risque de retomber en panne. Ils peuvent trouver une réponse au « comment », non au « pourquoi » ; et, bien souvent, cela suffit. (...)

Identifier des criminels qui ne le sont pas encore : l’idée paraît loufoque. Grâce aux données de masse, elle est désormais prise au sérieux dans les plus hautes sphères du pouvoir. En 2007, le département de la sécurité intérieure — sorte de ministère de l’antiterrorisme créé en 2003 par M. George W. Bush — a lancé un projet de recherche destiné à identifier les « terroristes potentiels », innocents aujourd’hui mais à coup sûr coupables demain. Baptisé « technologie de dépistage des attributs futurs » (Future Attribute Screening Technology, FAST), le programme consiste à analyser tous les éléments relatifs au comportement du sujet, à son langage corporel, à ses particularités physiologiques, etc. Les devins d’aujourd’hui ne lisent plus dans le marc de café, mais dans les logiciels de traitement des données (2). (...)

Il arrive cependant que les dirigeants américains se mordent les doigts d’avoir tout misé sur l’infaillibilité des chiffres. Ministre de la défense sous les présidences de John Kennedy et de Lyndon Johnson, Robert McNamara ne jurait que par les statistiques pour mesurer les exploits de ses troupes au Vietnam (lire « Tout savoir sans rien connaître »). Avec son équipe, il scrutait la courbe du nombre d’ennemis éliminés. Transmis aux commandants à titre de réprimande ou d’encouragement, diffusé quotidiennement dans les journaux, le comptage des Vietcongs morts devint la donnée cardinale d’une stratégie et le symbole d’une époque. Aux partisans de la guerre, il donnait l’assurance que la victoire était proche. Aux opposants, il apportait la preuve que la guerre était une infamie. Mais les chiffres étaient souvent erronés et sans rapport avec la réalité du terrain. On ne peut que se réjouir lorsque l’interprétation des données améliore les conditions de vie de nos contemporains, mais elle ne devrait pas conduire à remiser son sens commun…

A l’avenir, c’est par elle que va passer toujours davantage, pour le meilleur ou pour le pire, la gestion des grands problèmes planétaires. (...)

Mais, dans un monde où les données de masse orientent de plus en plus étroitement les pratiques et les décisions des puissants, quelle place restera-t-il au commun des mortels, aux réfractaires à la tyrannie numérique ou à quiconque marche à contre-courant ? Si le culte des outils technologiques s’impose à chacun, il se peut que, par contrecoup, l’humanité redécouvre les vertus de l’imprévisibilité : l’instinct, la prise de risques, l’accident et même l’erreur. Pourrait alors se faire jour la nécessité de préserver un espace où l’intuition, le bon sens, le défi à la logique, les hasards de la vie et tout ce qui compose la substance humaine tiendront tête aux calculs des ordinateurs. (...)