
Les plateformes, nouveaux censeurs ?
Les espaces comme Twitter ou Facebook font-ils de la modération ou exercent-ils une nouvelle forme de censure quand ils suppriment un contenu ? La suppression récente du compte Twitter de Donald Trump, à l’issue de l’insurrection du Capitole, constitue le dernier épisode de ce débat au long cours sur le rôle des plateformes. Elle met également en lumière la nécessité d’adapter la législation.
La suppression des comptes de Donald Trump sur les réseaux sociaux en janvier 2021 a fait couler beaucoup d’encre quant aux pouvoirs de censure dont disposent aujourd’hui les principales plateformes d’Internet. Après la « suspension permanente » de son compte Twitter pour incitation à la violence suite à l’invasion du Capitole, ce sont Facebook et YouTube qui ont supprimé ou suspendu les principaux canaux de communication numériques du président des États-Unis. Au même moment, Apple et Google retiraient de leurs magasins d’applications le réseau social Parler, prisé des milieux conservateurs américains.
Modération ou censure ?
Ces sanctions inédites ont donné lieu à des interprétations diverses. D’un côté, les partisans de ces mesures ont souligné que les réseaux sociaux étaient des espaces privés, qui disposaient de leurs propres règles de publication et qu’à ce titre, les plateformes étaient libres de supprimer les comptes des utilisateurs qui ne les respectaient pas, quels qu’ils soient. D’ailleurs, ce sont les comptes personnels de Donald Trump qui ont été supprimés (@realDonaldTrump sur Twitter par exemple) et non les canaux officiels de communication de la Maison Blanche (@POTUS) : les actions de Twitter, Facebook et Google relèveraient donc d’actes légitimes de modération, et en aucun cas d’une forme de censure politique. La critique émise à l’encontre des plateformes a plutôt trait à leur manque de diligence (le président américain n’en étant pas à son coup d’essai en matière d’incitation à la violence sur les réseaux) et à leur opportunisme (les plateformes semblant donner des gages à un futur Congrès démocrate quant à leur capacité à s’autoréguler).
En face, celles et ceux qui s’inquiètent de ces mesures relèvent que si les plateformes sont des espaces privés, elles sont devenues les arènes du débat public en ligne, et qu’à ce titre leur échoit une responsabilité politique. Qu’une entreprise puisse ainsi réduire au silence un président élu démocratiquement, en dehors de toute décision de justice, incarne une forme de censure privée inquiétante à plus d’un titre, qui démontre la nécessité d’un contrôle public de l’activité de modération des plateformes. Au-delà du cas de Donald Trump, nombreux sont les acteurs politiques, se réclamant notamment de l’extrême droite ou de la gauche radicale, à dénoncer ces dernières années les censures dont ils sont victimes sur Internet. Étrange retournement de situation : alors que nous commémorions en janvier les dix ans du printemps arabe, pendant lesquels les réseaux sociaux avaient été célébrés comme des instruments au service de l’émancipation des peuples, voilà qu’une décennie plus tard, ces mêmes réseaux seraient devenus des instruments de censure.
Un vieux débat
La controverse « Twitter vs. Trump » ravive de vieux débats sur la responsabilité des intermédiaires techniques en ligne. Depuis les débuts de l’internet grand public dans les années 1990, les législateurs ont cherché à déterminer si les fournisseurs d’accès, les propriétaires de serveurs et les sites collaboratifs devaient être considérés comme des hébergeurs ou des éditeurs. En tant qu’hébergeurs, les intermédiaires techniques sont considérés comme irresponsables juridiquement des contenus publiés via leurs services, alors que les éditeurs le sont, puisqu’ils sélectionnent, contextualisent et valorisent les informations qu’ils rendent accessibles.
Cette distinction entre hébergeur et éditeur, instaurée par la loi pour la confiance dans l’économie numérique de 2004, est vite devenue obsolète à l’ère des réseaux sociaux. Émergeant à la même époque, ces nouveaux acteurs peuvent juridiquement prétendre aux deux statuts. D’un côté, Facebook, YouTube, Dailymotion ou Twitter n’exercent pas de contrôle a priori sur les publications mises en ligne par leurs services. D’un autre côté, les plateformes ne sont pas complètement neutres par rapport à ces contenus, puisqu’elles exercent, via leurs algorithmes, des activités de filtrage, de tri et de mise en visibilité des publications qui peuvent s’apparenter à des activités éditoriales. Par ailleurs, ce travail de valorisation des contenus publiés par les internautes est au cœur même de leur modèle économique. Tout au long des années 2000 et 2010, la justice française a ainsi rendu des décisions contradictoires quant à la responsabilité des plateformes, celles-ci étant successivement renvoyées dans le camp des « hébergeurs » ou des « éditeurs ».
Au début des années 2010, les travaux du juriste américain James Grimmelmann invitent à dépasser cette opposition : plus que des éditeurs ou des hébergeurs, les plateformes sont des prescripteurs de contenus1. Leur responsabilité doit être évaluée à l’aune des relations qu’elles nouent avec celles et ceux qui utilisent leurs services pour consommer des informations, plutôt qu’avec celles et ceux qui les produisent et les mettent en ligne. Elles doivent, dans ce cadre, être tenues à des obligations strictes de transparence, en communiquant sur le fonctionnement de leurs algorithmes qui trient les informations, recommandent des publications ou valorisent des contenus sponsorisés. L’approche novatrice de Grimmelmann fait son chemin en France, notamment au travers des rapports publiés par le Conseil national du numérique (CNNum) sur la « loyauté des plateformes », avant d’être consacrée par la loi République numérique en 2016. La loi en question crée ainsi le statut d’« opérateurs de plateforme » pour les moteurs de recherche et les réseaux sociaux, qui doivent régulièrement publier des informations techniques sur le fonctionnement de leurs services, cet exercice de transparence étant censé à la fois limiter les risques d’abus de position dominante (en offrant une information stratégique à d’éventuels concurrents), et les risques de censure privée sur les réseaux (en livrant aux usagers des informations sur le classement de celles auxquelles ils sont exposés).
Plus que des éditeurs ou des hébergeurs, les plateformes sont des prescripteurs de contenus.
De nouveaux enjeux
Cette voie de la régulation par la transparence est celle qui a été privilégiée par l’Europe et les États-Unis ces dernières années. À la suite de l’« affaire russe2 », le Congrès américain a poussé Facebook et Google à créer des registres publics des publicités politiques diffusées via leurs services. En Europe, la loi allemande contre les discours haineux (NetzDG) et la loi française contre les manipulations de l’information contraignent les plateformes à publier tous les six mois des rapports de transparence sur leurs activités de modération. Ceux-ci font l’objet d’un contrôle public supervisé par le ministère de la justice en Allemagne, et par le Conseil supérieur de l’audiovisuel (CSA) en France.
La régulation des plateformes par la transparence pose cependant un problème de taille, celui du pouvoir effectif des régulateurs. Le CSA, le ministère de la Justice allemand ou le Congrès américain sont placés en situation de dépendance par rapport aux informations transmises par les plateformes : ils ne disposent d’aucun moyen d’authentifier ni de certifier les données contenues dans les rapports. Il en résulte, pour les plateformes, la possibilité d’une « opacité stratégique3 », où ne seraient portées à la connaissance des pouvoirs publics que les informations que ces dernières souhaitent divulguer. Face à ce problème de certification, la Commission européenne préconise, dans le cadre du Digital Services Act présenté en décembre 2020, la mise en place d’une obligation pour les « très grandes plateformes » (utilisées par plus de 10 % de la population européenne) de financer tous les ans des audits indépendants de leurs services de modération, dont les résultats seraient rendus publics.
Au-delà du contrôle des dispositifs de modération, un moyen efficace de lutter contre la dynamique de privatisation de la censure à l’œuvre sur les réseaux est de réinjecter du droit dans ces procédures. Certes, face au volume des contenus publiés (chaque minute, des centaines d’heures de vidéo sont chargées sur YouTube, et des centaines de milliers de tweets sont publiés sur Twitter), il paraît difficilement concevable d’attendre de la justice qu’elle prenne en charge l’ensemble des conflits liés à la modération. Pour autant, d’autres assemblages sont à inventer : qu’en première instance, les plateformes exercent des fonctions de police pour retirer les contenus qui contreviennent à leurs normes de publication paraît tout à fait légitime ; que les usagers qui estiment avoir fait les frais d’une censure abusive puissent bénéficier d’une procédure d’appel leur permettant de faire réévaluer leur publication, comme cela est déjà le cas sur un certain nombre de plateformes, devrait être un droit garanti à tous les internautes ; qu’une instance judiciaire indépendante puisse jouer le rôle de Cour de cassation, ou de « Cour suprême des contenus » – à l’image du conseil de surveillance mise en place par Facebook, en traitant les cas que les deux étapes précédentes n’auront pas permis de trancher, est une piste à explorer. Après l’épisode de la censure d’un président en exercice, les grandes plateformes ne pourront plus se cacher derrière l’argument de « neutralité » quant aux contenus qu’elles hébergent, quand par le passé elles ont volontiers endossé le costume de « plombiers » de l’ère numérique, gérant des « tuyaux » sans se préoccuper des contenus. Dans ce contexte inédit, de nouveaux modes de régulation sont à inventer.
- 1.J. Grimmelmann, 2014, « Speech Engines », U. of Maryland Legal Studies Research Paper, no 2014-11.
- 2.L’« affaire russe » fait référence au financement par l’Internet Research Agency, agence de communication réputée proche du Kremlin, de publications de supports de propagande pro-Trump sur Facebook pendant la campagne présidentielle de 2016.
- 3.M. Ananny et K. Crawford, “Seeing without knowing : Limitations of the transparency ideal and its application to algorithmic accountability”, New Media & Society, 20(3), p. 973-989.