
Le 3 juillet dernier, le tribunal correctionnel de Paris a rendu une décision inédite : pour la première fois en France, deux internautes anonymes ont été condamnés pour cyberharcèlement à 6 mois de prison avec sursis et 2000€ d’amende, après avoir proféré des menaces de mort à l’encontre de la journaliste Nadia Daam. À la suite d’une chronique sur Europe 1 où elle prenait la défense de deux militants féministes eux-mêmes victimes de cyberharcèlement, la journaliste avait fait l’objet d’une campagne particulièrement violente sur des forums de discussion et sur les réseaux sociaux (menaces de viol, appels au meurtre, divulgation de son adresse personnelle, diffusion des photographies de sa fille accompagnées de l’adresse de son école). Au procès, le fossé séparant la violence des propos tenus et les justifications livrées par leurs auteurs ont marqué les journalistes présents sur place : pour ces jeunes adultes, il s’agissait d’humour et de provocations davantage que de réelles menaces.
Si cette décision de justice marque une nouvelle étape dans la lutte contre le cyberharcèlement, elle rouvre un vieux dossier pour les chercheurs en sciences sociales qui s’intéressent aux pratiques participatives sur internet : celui de la « qualité » du débat public en ligne. (...)
Pour certains observateurs, il semble indéniable qu’internet, et les réseaux sociaux en particulier, favorisent la « violence expressive », engendrent un « ensauvagement » des relations sociales ou accompagnent une « démocratisation de la méchanceté ». De notre côté, nous préférons aborder le sujet en mobilisant le concept historiographique de « brutalisation », qui désigne initialement un processus d’amplification de la violence politique dans l’entre-deux-guerres, hérité de l’expérience de la Première Guerre Mondiale. Dans le contexte qui nous intéresse ici, toute connotation guerrière ou toute analogie avec le climat politique de l’époque est à proscrire : si nous utilisons le terme de « brutalisation »
, c’est pour nous intéresser, comme les historiens qui ont mobilisé ce concept dans leurs travaux, au double processus de banalisation et de légitimation de la violence dans le débat public, qui semble aujourd’hui à l’œuvre dans différents espaces de discussion en ligne.
Les causes de la banalisation de la violence dans les conversations politiques du quotidien sont plus complexes qu’il n’y paraît au premier abord et dépassent largement la seule question de l’anonymat des internautes. (...)
faire taire un adversaire en l’intimidant permet alors d’occuper l’espace du débat et d’assurer une visibilité optimale aux arguments que l’on défend. Les plateformes de réseaux sociaux ne sont par ailleurs pas exemptes de responsabilités dans ce dossier, dans la mesure (...) (...)où leur design comme leurs modèles économiques favorisent la propagation de contenus virulents, voire haineux. Les pouvoirs publics, de leur côté, incitent les plateformes à s’investir davantage dans la régulation des contenus qu’ils hébergent, laissant paradoxalement courir le risque d’une privatisation des pouvoirs de censure sur internet. (...)
La première conclusion que l’on peut tirer de cette somme d’études hétérogènes est qu’on ne débat pas mieux ou moins bien sur internet qu’en face-à-face : on y débat autrement. La seconde est qu’il n’existe pas une façon de débattre sur internet, mais que chaque espace d’échange présente ses propres standards de discussion en fonction du public qui s’y retrouve (public homogène ou hétérogène), de la finalité de la discussion (parvenir à une décision commune ou échanger de manière informelle) et de l’architecture de l’espace de débat (les technologies mobilisées pour échanger engendrent des dynamiques plus ou moins délibératives). (...)
une communauté qui débat se montrera plus tolérante à l’égard d’un message vulgaire ou virulent si l’agressivité est tournée vers une personnalité publique ou un sujet de société, que si elle s’adresse directement à l’une des personnes qui participe à l’échange. (...)
Un autre cas où la violence des propos tenus fait l’objet d’une certaine tolérance est celui des « trolls ». Le qualificatif de « troll » désigne un internaute plus ou moins malveillant dont l’objectif est de « pourrir » des fils de discussion en générant artificiellement des polémiques. Pour ce faire, il exprime un désaccord systématique avec ce qui se dit, dénigre ses interlocuteurs ou tient des propos absurdes dans le seul but d’irriter les autres participants à la discussion. Si le « troll » fait l’objet d’une relative tolérance, c’est que ses prises de parole s’en prennent au cadre de la discussion davantage qu’aux participants. Leurs interventions pourraient même avoir des effets positifs sur la qualité des débats. Selon le sociologue Antonio Casilli en effet, un troll fédère contre lui l’ensemble des internautes présents dans un fil de discussion, qui vont ainsi dans leurs réponses prendre la défense du collectif et réaffirmer leur appartenance à la communauté.
(...)Les cas du « trolling » et celui de l’agressivité comme registre d’expression, que l’on pourrait réunir sous le terme d’« incivilités », doivent être distingués du cyberharcèlement et des discours de haine, même si la frontière entre les genres est parfois poreuse. Dans le premier cas, la véhémence des prises de parole ne constitue pas une attaque contre un interlocuteur, mais une transgression des normes sociales qui régissent un espace d’échange. Dans le second cas en revanche, les propos ont une portée personnelle ou collective qui visent explicitement à dénigrer un individu ou un groupe. Si ces pratiques sont punies par la loi en vertu des dommages psychologiques qu’elles peuvent occasionner chez leurs victimes, elles ont également des effets néfastes sur le débat public.
(...)Elles engendrent des phénomènes de censures collectives et d’auto-censure qui appauvrissent le débat. En octobre 2016, la Commission Européenne a ainsi rendu publique une enquête sur la haine en ligne réalisée dans les 28 États membres de l’Union. Dans cette enquête, les 3/4 des sondés qui indiquaient suivre des débats sur internet affirmaient avoir été témoins de discours de haines, de menaces ou d’insultes. Pour la moitié d’entre eux, ces expériences les avaient dissuadés de prendre part aux conversations alors même qu’ils le souhaitaient initialement. (...)
Un cas célèbre de justice punitive en ligne est celui de Justine Sacco. En 2013, la jeune britannique part en voyage en Afrique du Sud. Avant de prendre son avion, elle tweete un message disant « Je pars pour l’Afrique. J’espère que je n’attraperai pas le sida. Je plaisante, je suis blanche ». Le tweet en question, qu’elle justifiera par la suite comme un trait d’humour, est très vite repris et condamné sur Twitter pour sa teneur raciste. Lorsque Sacco atterrit au Cap, son tweet a occasionné des milliers de réponses : des condamnations, des parodies, des insultes et des appels au meurtre. Le temps du trajet en avion, elle a perdu son emploi (son employeur est directement pris à partie sur Twitter) et une bonne partie de ses relations personnelles et familiales lui tournent le dos. Entre le 20 décembre et la fin de l’année 2013, son nom est recherché 1,2 million de fois sur Google. (...)
il semble indéniable que ces formes de condamnation collectives s’inscrivent dans une histoire. Selon le chercheur François Jost, elles peuvent être considérées comme les héritières du « hate watching », cette pratique qui vise à regarder des émissions tout en en détestant le contenu, dans le seul but de les critiquer et de tourner en ridicule ses protagonistes. Les réseaux sociaux prendraient ainsi le relais de la télé-réalité du début des années 2000, en amplifiant la dimension collective de la moquerie et par effet d’entraînement, sa virulence (...)
Le lynchage en ligne comme pratique sociale, voire comme distraction, soulève la question de sa réception. Si l’ironie et le second degré sont des registres d’expression particulièrement mobilisés sur les réseaux sociaux, tous les internautes ne disposent pas de la même grille d’interprétation des messages violents. Les chercheuses Amanda Lenhart et Michele Ybarra ont par exemple mené une étude portant sur la perception du cyberharcèlement chez les adolescents aux États-Unis. Elle révèle que si les garçons sont autant victimes d’agressions verbales que les filles (dans cette étude, un adolescent sur deux se dit avoir été la cible d’attaques en ligne), le discernement entre ce qui relève de l’agression et de l’humour varie considérablement selon les sexes : les jeunes femmes, davantage sujettes à des insultes concernant leur physique, expriment un seuil de tolérance inférieur à la violence expressive, alors que pour les jeunes hommes, un propos est considéré comme « admissible » tant qu’il ne va pas jusqu’à la menace directe de violence physique. (...)
Que des insultes, des propos virulents ou des propos haineux soient formulés au premier ou au second degré, il n’en demeure pas moins que leur prolifération engendre irrémédiablement leur banalisation. (...)
Lorsqu’il s’agit d’aborder la question du cyberharcèlement ou des discours de haine en ligne, l’anonymat des internautes est souvent désigné comme la cause principale de leur prolifération, dans la mesure où il favoriserait une forme de déresponsabilisation des individus. Protégés derrière un pseudonyme, ils trouveraient sur internet un exutoire idéal pour manifester leurs frustrations sans avoir à en payer les conséquences. Ces accusations oublient souvent que l’anonymat constitue l’un des piliers de la culture de débat en ligne, et qu’il est une condition sine qua none à la libération de la parole permise par internet. Dans notre vie quotidienne en effet, nos prises de parole sont en grande partie conditionnées par un ensemble de marqueurs sociaux. (...)
L’émergence d’un internet grand public au milieu des années 1990 a porté en elle la promesse de pouvoir s’affranchir de ces carcans. Sur un forum ou un réseau social, personne ne perçoit l’âge, le sexe ou la couleur de peau de son interlocuteur. On peut y aborder les sujets que l’on n’ose pas aborder avec ses proches en face-à-face, on peut tester la pertinence d’un argument ou la popularité d’une opinion.
Il semblerait par ailleurs que l’anonymat ne constitue pas réellement un élément provocateur de l’agressivité dans le débat. (...)
Tout l’enjeu, dans ces conflits, est moins de convaincre des opposants dont les positions sont bien établies que de s’adresser à la majorité silencieuse qui consulte les débats sans jamais y prendre part. Si l’architecture des réseaux sociaux est conçue de manière à inciter les internautes à prendre la parole ou à réagir, il semblerait que la plus grande partie d’entre eux utilisent ces plateformes à la manière de navigateurs, pour accéder à des contenus sans jamais participer aux conversations, « liker » des messages où partager des posts. Des camps en opposition vont ainsi chercher à diminuer la visibilité des arguments adverses, soit en augmentant la visibilité de leurs propres arguments, soit en cherchant à disqualifier leurs opposants, afin de les délégitimer aux yeux du public « neutre » qui assiste à la joute. Dans ce contexte, faire taire ses adversaires en les intimidant peut relever d’une stratégie collective. Le recours au cyberharcèlement militant tend ainsi à devenir un mode d’action collective à part entière sur les réseaux sociaux. (...)
les plateformes de réseaux sociaux, où se déroule aujourd’hui l’essentiel du débat public en ligne, ont une première responsabilité liée à la conception des espaces de débat qu’ils mettent à disposition de leurs utilisateurs. Le design des outils d’expression a en effet une influence primordiale sur les dynamiques d’échange qu’ils font naître. Sur Twitter par exemple, le recours aux hashtags, l’adressage via l’arobase ou la limite des 140 caractères (aujourd’hui 280) favoriseraient des dynamiques de simplification et de radicalisation des propos, propices à des échanges conflictuels. Les algorithmes qui trient et hiérarchisent les informations sur ces plateformes sont également régulièrement mis en cause. Sur Facebook, la manière dont le EdgeRank organise les posts des contacts des utilisateurs sur leurs fils d’actualité engendrerait la constitution de « bulles informationnelles » où les internautes seraient sans cesse au contact d’informations qui les confortent dans leurs opinions. Plus globalement, la conception des espaces de débat sur les réseaux sociaux est principalement tournée vers l’expression de préférences, par exemple à travers les « likes » sur Facebook ou YouTube. Ceux-ci seraient ainsi relativement peu utilisés comme des dispositifs de prise de parole en tant que tels, et consacreraient à l’inverse une posture réactive chez les internautes, souvent exprimée en termes binaires (j’aime / j’aime pas), qui ne facilite pas l’épanouissement d’un débat constructif et apaisé
.
La seconde responsabilité des plateformes a trait à leur modèle économique. La plupart des grandes entreprises du web génèrent l’essentiel de leur chiffre d’affaires en vendant l’attention de leurs utilisateurs à des annonceurs : plus les internautes passent de temps à utiliser leurs services, plus ils sont exposés à des publicités, et plus les plateformes génèrent des revenus. Dans ce contexte, les contenus haineux, au même titre que les contenus mensongers, constituent des produits informationnels particulièrement compétitifs. (...)
Lutter contre la haine en ligne
La « responsabilisation des plateformes » est ainsi au cœur des politiques publiques de lutte contre la haine en ligne. Historiquement, les géants du web ont toujours adopté une posture de « plombiers », qui gèrent des « tuyaux » mais ne souhaitent pas intervenir dans la régulation des contenus qui y circulent. Ces entreprises ont trainé des pieds, à de multiples reprises par le passé, pour retirer des contenus haineux, déréférencer des sites, supprimer des posts et des contenus. Si la logique semble s’être inversée depuis les attentats de 2015 et la diffusion de propagande djihadiste sur les réseaux sociaux, la nouvelle posture des plateformes (intervenir davantage, et plus rapidement) s’accompagne également de risques de délégation de pouvoirs de censure des états vers des entreprises privées. (...)
La lutte contre les discours de haine en ligne est un exercice particulièrement périlleux dans la mesure où elle peut rapidement constituer une atteinte aux libertés fondamentales sur internet. Dans ce contexte, lutter contre les contenus illicites doit également s’accompagner d’une protection de la liberté d’information et d’expression des internautes, notamment en obligeant les plateformes à plus de transparence sur leurs pratiques de censure (communiquer sur les contenus retirés et les critères à partir desquels ils sont retirés) et en offrant aux internautes des voies de recours ou de contestation quand leurs contenus sont supprimés. (...)
À l’échelle européenne, un code de conduite visant à lutter contre les discours haineux illégaux en ligne a été mis en place en juin 2016. À cette occasion, les principales plateformes ont pris un certain nombre d’engagements, en évitant cependant toute mesure contraignante. La Commission se satisfait pour l’instant de cette situation, qui semble par ailleurs porter ses fruits : d’après une enquête réalisée par ses soins fin 2017, les entreprises signataires retireraient 70% des contenus qui leur sont signalés (contre 59% lors de la précédente enquête, en mai 2017), et dans 81% des cas en moins de 24h.
Une autre piste, qui pourrait s’avérer particulièrement fructueuse mais qui constitue jusqu’à présent le parent pauvre des politiques publiques de régulation des contenus, serait de s’attaquer au marché de la publicité en ligne. En imposant par exemple aux régies publicitaires de rendre publique la liste des sites sur lesquels sont diffusées les publicités des annonceurs, ces derniers seraient incités à refuser que leurs campagnes soient relayées par des sites hébergeant des contenus haineux. De la même façon, les réseaux sociaux pourraient être contraints à davantage de transparence concernant les individus et les organisations qui sponsorisent des contenus douteux via leurs propres régies. Démonétiser les contenus qui propagent des discours de haine pourrait constituer un frein efficace à leur circulation. Ces pistes sont également abordées dans le rapport mentionné plus haut, reste maintenant à savoir si le législateur s’en saisira. (...)
Enfin, la lutte contre les discours de haine ne concerne pas que les plateformes et les pouvoirs publics, il est l’affaire de tous. Des associations ont ainsi entrepris de mettre en place des stratégies de contre-discours sur les réseaux sociaux, visant à mobiliser les internautes témoins de discours de haine à leur porter la contradiction en intervenant dans le débat. (...)
. Ces initiatives accompagnent également une nouvelle approche de l’éducation aux médias et à l’information à l’école, visant à promouvoir une « éducation au débat » qui, au-delà de l’évaluation de la pertinence des sources d’information, s’intéresse à leur appropriation par les enfants et les adolescents et aux mécanismes de construction d’opinions collectives dans l’échange.