Bandeau
mcInform@ctions
Travail de fourmi, effet papillon...
Descriptif du site
nextinpact
Désinformation, violence : les licenciements chez les Big Tech affectent-ils les discours en ligne ?
#GAFAM #internet #moderation
Article mis en ligne le 9 juin 2023

Dans les derniers mois, plusieurs dizaines de milliers d’employés de la tech ont été licenciés. Les équipes en charge de la modération des contenus, de l’éthique de l’IA et, plus globalement, de la protection des utilisateurs ont été particulièrement touchées.

Vers la fin 2022, des ingénieurs de Meta étaient prêts à lancer un produit de fact-checking qu’ils avaient mis six mois à construire. L’idée était d’offrir à des experts reconnus et à des acteurs tiers, comme les agences the Associated Press et Reuters, la possibilité de mettre des commentaires sur des articles publiés sur Facebook pour lutter contre la désinformation.

Problème : Mark Zuckerberg a déclaré vouloir faire de 2023 l’« année de l’efficacité » et l’outil, lui, a été complètement abandonné. La raison ? Parmi les 21 000 postes supprimées chez Meta au fil des derniers mois, les équipes « Trust and Safety », qui travaillent sur la protection des utilisateurs, ont particulièrement été touchées, de même que celles dédiées à la modération.

Ce qui pose une question : dans quelle mesure est-ce que ces mouvements affectent les usages numériques des internautes ?
(...)

Licenciements généralisés

Car le mouvement n’a rien de propre à l’entreprise de Zuckerberg. Face au contexte économique et après avoir embauché à tour de bras pendant la bulle Internet provoquée par la pandémie de Covid-19, la plupart des géants numériques opèrent de grands plans de licenciements.

Mais force est de constater que les équipes en charge de la protection des utilisateurs sont particulièrement touchées. (...)

Résultat, le directeur de recherche au CNRS David Chavalarias et son équipe notent des évolutions très claires des discours, notamment sur la question climatique, depuis l’arrivée d’Elon Musk à la tête de Twitter et ses coupes claires dans les effectifs.

Habituellement, « l’été concentre les débats sur la question climatique, puis le sujet se tasse », décrit le mathématicien :

« Or, cette année, le paysage a complètement changé. Quand on compare les chiffres de participation sur ces questions trois mois avant et trois mois après le changement de direction, on constate une fuite très nette de comptes de militants pro-climats contre une baisse relativement faible de la participation de ceux qui nient le climat ».

Pour résumer, les pro-climats postent 33 % moins de tweets orignaux et sont 25 % moins nombreux qu’auparavant, tandis que l’activité de ceux qui remettent en question la réalité du changement climatique n’a baissé que de 10 %. « Ça a changé l’état du discours, puisqu’on se retrouve avec 50 % de climatosceptiques face à 50 % de défenseurs du climat, là où autrefois, la proportion était plus de 30 % contre 70 % ».

Pour le scientifique, la situation reflète une augmentation plus large des discours de désinformation sur la plateforme, tendance tirée par le nouveau directeur lui-même « puisqu’il a décidé, au nom de la liberté d’expression, de remettre en ligne des comptes violents et/ou complotistes » en même temps qu’il réduisait les équipes en charge de contenir ce type de contenus. En mars 2023, l’Institute for Strategic Dialogue constatait effectivement une explosion des discours antisémites sur le réseau.

« Et puis il partage lui-même des contenus complotistes », ce qui, certes, ne facilite pas l’assainissement des discussions, mais participe, aussi, à la spécificité du cas de Twitter. Spécialiste des opérations de désinformation, autrice d’Agora Toxica, la société incivile à l’ère d’internet, Stéphanie Lamy agrée : « c’est le plus gros compte de la plateforme », pointe-t-elle : en matière d’amplification, cela donne à ses publications un avantage particulier.

Gestion de contenu versus design d’interface

Pour la spécialiste, cela dit, le détournement progressif des entreprises de la tech du front de la lutte contre la désinformation remonte à avant les vagues récentes de licenciements. « Certaines, comme Meta, s’étaient beaucoup préparées à la campagne présidentielle américaine de 2020, elles avaient mis en place des dispositifs et des outils. Et malgré ces travaux, il y a eu la campagne #StopTheSteal, il y a eu l’attaque du Capitole. »

À partir de là, estime l’experte, certains acteurs ont commencé à baisser les bras, ce qui peut venir se traduire jusque dans les réductions ou dissolutions récentes des équipes en charge de la protection des internautes. (...)

L’éthique de l’IA elle aussi touchée

Or, quand le design des plateformes numériques recoupe les questions algorithmiques, on peut s’étonner que les équipes en charge de créer des principes et des outils d’éthiques applicables au domaine de l’intelligence artificielle soient, elles aussi, brusquement réduites.

(...)

Problème, explique à CNBC la data scientist et ancienne directrice de l’équipe d’éthique de l’IA chez Twitter Rumman Chowdhury, chez Alphabet comme chez Twitter ou Meta, il est difficile pour ces équipes « de démontrer [leur] valeur quand [leur] valeur consiste à ne pas être poursuivi en justice ou à ce que personne ne subisse de dommage ».

Les équipes d’éthiques de l’IA et de protection des utilisateurs n’ont aucune « objet brillant » à fournir à la fin d’un projet pour démontrer qu’elles ont travaillé. Et si leurs activités « représente un bénéfice financier à long-terme, il est plus dur de mesurer leur efficacité d’un trimestre à l’autre ».

Aux États-Unis, pourtant, la campagne en vue des élections présidentielles 2024 se profile. Avec elle, les effets des interfaces sur les discours en ligne et la gestion des contenus incivils risque de se poser de manière encore accrue jusque sur la terre natale de la plupart de ces géants numériques.