
Sans doute nécessaire mais devant absolument être contrôlée, comment appréhender la modération des contenus sur internet ?
Depuis la parution du livre que Romain Badouard leur avait consacré, Les nouvelles lois du web (Seuil/République des Idées, octobre 2020), les questions de modération et de censure sur internet n’ont pas cessé de retenir l’attention.
L’auteur y expliquait que, pour se conformer à la loi et montrer leur bonne volonté, les grandes plateformes du web comme YouTube, Facebook ou Twitter ont été amenées à se doter de moyens algorithmiques et humains conséquents pour modérer les contenus, limiter la propagation des fake news et faire barrage aux discours de haine. Ces moyens restent très imparfaits et on peut soupçonner ces plateformes de ne pas vouloir en faire plus pour préserver les très importants revenus publicitaires qu’elles tirent du web.
En même temps, les mesures qu’elles prennent en ce sens tombent aussi sous le coup du reproche inverse, c’est-à-dire de trop en faire et de censurer au-delà de ce qui est nécessaire. Elles peuvent alors, en retour, être soumises à des pressions fortes issues de la société civile. Ce qui peut finalement les conduire à vouloir en partager la responsabilité avec des émanations de celle-ci. Pour autant, explique alors Romain Badouard, si on ne veut pas être dupe, il est indispensable de se donner les moyens de contrôler les données que les plateformes acceptent de partager et ce qu’elles veulent bien dire de leur fonctionnement, et cela nécessite une autorité investie par les Etats : la création d’une agence publique et indépendante, qui aurait pour fonction de contrôler l’action des plateformes en matière de régulation des contenus. Romain Badouard a aimablement accepté de répondre à quelques questions pour éclairer son propos. (...)
Les discours de haine et la désinformation sont effectivement marqués politiquement. Aux Etats-Unis comme en Europe, on se rend compte que les fausses informations politiques, par exemple, sont majoritairement produites par une blogosphère d’extrême droite, qu’on appelle « fachosphère » en France et « alt-right » outre-Atlantique. Pour autant l’extrême-droite n’a pas le monopole de la violence expressive en ligne : la haine en ligne est également très présente du côté des extrémistes religieux, et beaucoup de réseaux pourvoyeurs de « fake news » ne font pas forcément dans la désinformation politique, comme l’illustre l’essor lucratif des réseaux de production de fausses informations de santé. Ceci dit, la régulation des réseaux sociaux est au cœur de questions proprement politiques, et le cas de la suppression des comptes de Donald Trump en début d’année en est un bon exemple. D’un côté, ses partisans crient à la censure politique, de l’autre ses opposants accusent les réseaux sociaux de ne pas avoir agi plus tôt. C’est pour cette raison qu’il faut d’une part des règles claires qui s’appliquent indépendamment des orientations politiques des acteurs, et d’autre part des instances de contrôle des réseaux sociaux, indépendants des plateformes et des pouvoirs publics, qui s’assurent que les activités de modération se fassent dans le respect des lois et du pluralisme démocratique. (...)
Au nom d’une vision de « régulation correctrice », on peut ainsi considérer que limiter la liberté des uns, notamment lorsqu’ils incitent à la haine contre des personnes ou des groupes de personnes, c’est permettre la liberté des autres.
D’autre part, il est possible de faire tenir ensemble lutte contre la haine et protection des libertés, notamment en reconnaissant de nouveaux droits aux internautes. (...)
Or, la justice est globalement absente des projets de régulation mis en œuvre aujourd’hui en Europe, ce qui prolonge une dynamique d’extra-judiciarisation de la régulation des contenus, déjà en œuvre dans le domaine de la lutte anti-terroriste et la protection du droit d’auteur, qui peut s’avérer dangereuse pour nos libertés.