Do not follow this hidden link or you will be blocked from this website !

Photo : sebastiaan stam
Photo : sebastiaan stam
Dans le même numéro

Discours de haine

Allier respect de chacun et liberté d’expression sur Internet reste aujourd’hui un sujet central pour de nombreuses associations. Pour ne pas empiéter sur la vie privée ni tomber dans la censure excessive, il faut poursuivre les mobilisations et persévérer dans la recherche d’une meilleure régulation.

Le 16  janvier dernier, une douzaine d’associations de défense des libertés numériques ont publié une tribune commune pour s’opposer à l’adoption de la loi visant à lutter contre la haine sur Internet1. Cet « appel collectif à préserver nos droits fondamentaux dans l’espace public en ligne » pointe du doigt une mesure particulièrement controversée de la loi dite «  Avia  » (du nom de sa rapporteure) : l’obligation pour les grandes plateformes d’Internet de supprimer en moins de 24 heures un contenu haineux qui leur serait signalé. Si les plateformes n’obtempèrent pas dans le délai imparti, elles pourraient se voir soumises à une amende allant jusqu’à 4 % de leur chiffre d’affaires.

La crainte des associations signataires est que la perspective d’une amende pousse les plateformes à trop censurer les contenus qui leur sont signalés, sans prendre le temps d’évaluer leur nocivité réelle. Cette disposition poursuit par ailleurs deux logiques à l’œuvre aujourd’hui dans le domaine de la régulation des contenus sur Internet. La première consiste en une logique d’extra-judiciarisation des décisions, où ce sont les plateformes elles-mêmes qui se prononcent sur le caractère abusif d’un discours, en lieu et place du juge judiciaire. Cette logique, déjà à l’œuvre dans le domaine de la lutte contre le terrorisme ou de la défense du droit d’auteur2, est interprétée par certains signataires comme une forme de privatisation des pouvoirs de censure sur Internet.

La seconde logique, directement liée à la première, s’incarne à travers l’automatisation de la modération sur les réseaux sociaux. Face au volume quotidien de publications sur leurs plateformes (chaque minute, ce sont 500 heures de vidéos qui sont publiées sur YouTube, et 350 000 messages sur Twitter), les grandes firmes d’Internet ont opté pour des solutions de détection automatique reposant notamment sur le recours à l’intelligence artificielle. Ces outils, qui se montrent particulièrement performants pour reconnaître automatiquement des images de nudité par exemple, se heurtent à un certain nombre de difficultés lorsqu’ils ont pour mission d’interpréter des prises de parole d’internautes. L’ironie ou la dénonciation, par exemple, qui sont deux registres d’expression particulièrement courants sur les réseaux sociaux, peuvent contenir des paroles racistes sans avoir de «  portée  » haineuse ou de volonté de nuire. Les algorithmes de détection, qui appliquent un raisonnement binaire (présence ou non, dans un énoncé, d’un mot placé sur une liste noire), se montrent souvent incapables de prendre en considération le contexte d’un échange, pourtant déterminant pour en interpréter le sens.

Face aux risques de censure abusive que font courir les logiques d’automatisation et d’extra-judiciarisation, l’utilité d’une telle loi laisse songeur, d’autant plus que le droit français pénalise déjà les discours haineux. Pour autant, les tenants d’une régulation plus stricte disposent également d’arguments recevables. Si les discours haineux semblent très minoritaires en proportion de l’ensemble des commentaires postés sur les réseaux sociaux (entre 2 et 5 % des messages, selon les plateformes), ils peuvent représenter des volumes très importants. Au troisième trimestre 2019 par exemple, Facebook a traité 7 millions de contenus identifiés comme relevant des discours de haine3. La visibilité de la parole raciste, antisémite, homophobe ou misogyne sur les réseaux sociaux produit deux effets qui nuisent au débat public en ligne. D’une part, elle les légitime : quand ces propos sont tenus publiquement sans être retirés, ils peuvent être interprétés comme des discours acceptables, accompagnant ainsi une logique de « brutalisation » du débat en ligne4. D’autre part, cette visibilité produit des formes d’autocensure chez les populations ciblées par les discours de haine. Lorsqu’ils sont témoins de tels propos, les internautes appartenant à une minorité ethnique, religieuse ou sexuelle préfèrent bien souvent se taire que de prendre le risque d’en devenir à leur tour victimes.

Dans ce contexte, chercher à réguler les discours de haine en ligne apparaît légitime. La question pertinente devient alors : la loi est-elle le meilleur moyen d’y parvenir ? Sur Internet, le droit ne constitue pas forcément la norme sociale la plus contraignante, notamment face au pouvoir de la technologie. Ce que nous faisons en ligne est moins le fruit de ce que la loi nous autorise ou non à faire que de ce que les outils techniques à notre disposition nous permettent ou non de réaliser. Le juriste américain Lawrence Lessig avait, dès les années 1990, résumé ce conflit de normes en une phrase devenue célèbre : “Code is law5.”

La manière dont nous nous exprimons sur les réseaux sociaux dépend des spécificités des outils qui sont mis à notre disposition et qui formatent nos prises de parole, ainsi que du design des plateformes qui influence la visibilité et la viralité des informations qui y circulent. Réguler les prises de parole publique en ligne passe donc par une action sur la conception technique des plateformes elles-mêmes, afin de « lutter efficacement contre le réchauffement médiatique », pour reprendre l’expression du sociologue Dominique Boullier6. Des initiatives de ce genre sont déjà mises en œuvre pour lutter contre la désinformation (limiter techniquement le transfert d’informations de groupe en groupe, sur WhatsApp par exemple) ou pour réduire les effets addictifs de la course à la visibilité (en masquant les likes sur les photos Instagram notamment).

Réguler les prises de parole publique en ligne passe par une action sur la conception technique des plateformes elles-mêmes.

Au-delà de la technologie et de la loi, le marché et les usages constituent également deux leviers d’action particulièrement importants pour faire évoluer les comportements. Côté marché, le fonctionnement des régies publicitaires et la manière dont elles contribuent au financement de sites haineux ont été pointés du doigt par différentes associations ces dernières années. Des réseaux et médias ouvertement racistes, misogynes ou homophobes peuvent faire héberger, sur leur site ou leur chaîne YouTube, des annonces via la régie de Google et générer par ce biais des revenus publicitaires importants. Si la firme de Moutain View a annoncé une série de mesures pour limiter les effets pervers du fonctionnement de ses régies, de leur côté, les États européens ont peu investi le sujet.

Face au désengagement des pouvoirs publics, la société civile s’est emparée du problème. Le collectif Sleeping Giants, par exemple, lance des campagnes de dénonciation sur les réseaux sociaux (name and shame), en publiant sur Twitter des captures d’écran des publicités qui s’affichent sur des sites haineux ou d’extrême droite. Leur but est de mettre en lumière, si ce n’est la collusion, du moins le manque de vigilance des annonceurs à l’égard de ces sites. Ces mobilisations présentent une certaine efficacité : par crainte du bad buzz que pourrait susciter une telle campagne, nombreuses sont les entreprises à restreindre leurs campagnes d’affichage à des sites identifiés comme «  sûrs  ». Le brand safety, qui consiste à garantir aux marques des campagnes «  propres  », est ainsi devenu en quelques années un domaine en vogue du marketing numérique.

Les leviers d’action de la société civile ne s’arrêtent pas là, et d’autres associations parient sur la stratégie du contre-discours pour lutter contre les propos haineux. Le collectif #JeSuisLà, par exemple, qui s’inspire d’une initiative suédoise, cherche à occuper l’espace du débat sur les réseaux sociaux en portant la contradiction aux discours extrémistes. Les membres du collectif se signalent la présence de propos racistes dans des fils de discussion sur des pages de médias et organisent des «  raids  » visant à noyer les commentaires problématiques sous un flot de prises de parole tolérantes et progressistes.

États, plateformes, marchés et internautes : c’est de l’équilibre entre ces quatre pouvoirs normatifs d’Internet (politique, technologique, économique et social) que peut découler une régulation réellement démocratique des contenus, respectueuse du pluralisme d’Internet. Par le passé, des dispositifs de gouvernance «  multipartenaires  » ont été inventés pour prendre en charge la gestion des ressources techniques du réseau. Reste aujourd’hui à appliquer des logiques similaires à la gestion des contenus, afin de lutter efficacement contre les discours haineux, tout en faisant en sorte qu’Internet reste un outil au service de la liberté d’expression.

  • 1. «  Proposition de loi visant à lutter contre la haine sur Internet : appel collectif à préserver nos droits fondamentaux dans l’espace public en ligne  », disponible sur le site de la Ligue des droits de l’homme (www.ldh-france.org, consulté le 2 mars 2020).
  • 2. Voir Félix Tréguer, L’Utopie déchue. Une contre-histoire d’Internet (xve-xxie siècle), Paris, Fayard, 2019.
  • 3.  «  Rapport d’application des Standards de la communauté  » (page consultée le 2 mars 2020 : transparency.facebook.com).
  • 4. Voir Romain Badouard, «  Internet et la brutalisation du débat public  », La Vie des idées, 6 novembre 2018.
  • 5. Lawrence Lessig, Code and Other Laws of Cyberspace, New York, Basic Books, 1999.
  • 6.  Dominique Boullier, «  Lutter contre le réchauffement médiatique  », www.internetactu.net, février 2019.

Romain Badouard

Maître de conférences en sciences de l'information et de la communication à l'Université Paris II Panthéon-Assas, Romain Badouard est également chercheur au CARISM et enseignant à l'Institut français de presse. Il a publié Le Désenchangement de l'internet. Désinformation, rumeur, propagande (Fyp, 2017).

Dans le même numéro

Le virus dans la cité

Ce dossier spécial décrit l’expérience de vulnérabilité commune suscitée par l’épidémie, interroge les règles de l’exception qui lui répond et explore les différents imaginaires qu’il sollicite. À lire aussi dans ce numéro : les pressions chinoises sur la recherche, les discours de haine en ligne et un entretien avec Emma Lavigne sur le Palais de Tokyo.


✅  Les articles du dossier sont en accès libre