Do not follow this hidden link or you will be blocked from this website !

Photo : Onur Binay via Unsplash
Photo : Onur Binay via Unsplash
Dans le même numéro

Les règles de la modération. Débat public, pouvoir privé et censure sur les réseaux sociaux

Parce qu’ils sont des espaces encore nouveaux, les réseaux sociaux posent à la législation de nombreux problèmes de définition, qui révèlent l’ambigüité autour de leur rôle et de leur responsabilité. Sont-ils de simples éditeurs, exempts de tout contrôle étatique, ou des administrateurs de forums, tenus de respecter la liberté d’expression ?

Le 8 juillet 2021, Donald Trump a annoncé, depuis son club de golf du New Jersey, qu’il avait déposé plainte contre les principaux réseaux sociaux pour faire cesser leurs activités de « censure illégale ». L’ancien président mettait en garde les citoyens américains contre le risque d’être réduits au silence par les grandes entreprises d’Internet. Les réseaux sociaux étaient, encore il y a peu, fustigés pour leur inaction ; ils sont désormais qualifiés de « censeurs ». Le terme ne va pourtant pas de soi. La censure émane traditionnellement des pouvoirs publics, la liberté d’expression ayant historiquement été conçue comme une protection contre l’ingérence de l’État. Devant les tribunaux, ce droit est généralement invoqué contre une administration. Qu’arrive-t-il alors lorsque des utilisateurs, mécontents d’avoir été privés de l’audience offerte par les réseaux sociaux, font valoir leur liberté d’expression contre ces entreprises privées devant les juges ?

En Europe et aux États-Unis, les tribunaux et les législateurs s’accordent pour dire qu’un réseau privé peut avoir ses propres règles de modération. À ce titre, Twitter ou Facebook bénéficient d’un régime très favorable. Ils ne sont pas tenus responsables des propos illégaux qui sont publiés sur leurs pages par des tiers, à part si ceux-ci leur ont été signalés. Surtout, ils ne sont pas non plus tenus responsables de la suppression de contenus parfaitement légaux. Cette solution laisse les plateformes libres de classer, hiérarchiser et parfois de rendre inaccessibles les informations qu’elles hébergent. Une telle situation est-elle tenable dès lors que le débat public se tient largement dans ces nouveaux espaces ? Et de quels recours disposent ceux qui en sont exclus ? Le comportement des plateformes est évidemment influencé par les exigences des annonceurs et par la vigilance croissante des associations et des observatoires, si bien que la régulation ne se joue pas seulement devant les tribunaux1. Mais face au pouvoir croissant des réseaux sociaux, que peut le droit ?

L’absence de régulation aux États-Unis

Aux États-Unis, des utilisateurs tentent d’invoquer leur droit à la liberté d’expression devant les tribunaux pour contester la suppression d’une page Facebook ou le blocage d’une vidéo publiée sur YouTube. Pour y parvenir, il faudrait toutefois reconnaître aux réseaux sociaux le statut d’acteurs publics.

Le premier amendement de la Constitution américaine pose des interdictions qui s’adressent seulement au Congrès (et par extension à l’État fédéral ou aux États fédérés) : ne pas limiter la liberté d’expression, la liberté de la presse, le droit des citoyens de se réunir pacifiquement. Les droits qui en découlent sont particulièrement bien protégés dans les « espaces publics » (rues, parcs, trottoirs ouverts à l’expression des citoyens). Ils ne sauraient en revanche être opposés à des personnes privées, en vertu de la doctrine de l’action publique (state action doctrine) : la violation des droits constitutionnels ne peut être constatée que lorsqu’elle est l’œuvre de l’État. Les réseaux sociaux, il est vrai, sont les « places publiques modernes » selon la Cour suprême des États-Unis2. Ils ont le pouvoir de réduire au silence certains locuteurs en leur refusant l’accès aux forums les plus fréquentés. Certains utilisateurs, empêchés de s’exprimer, arguent alors que les réseaux sociaux agissent comme des personnes publiques et peuvent être tenues responsables d’atteintes à la liberté d’expression.

Dans des cas très particuliers, la Cour suprême des États-Unis admet que les personnes privées peuvent être à l’origine de la violation de droits fondamentaux. Cette exception repose sur l’idée que certaines démarches d’acteurs privés équivalent à une action publique. En 1946, la Cour a par exemple établi qu’une entreprise privée qui gérait entièrement une ville ne pouvait interdire la diffusion de brochures religieuses sur sa propriété parce qu’elle agissait comme le ferait un maire dans sa municipalité. Les avocats de la chaîne YouTube « PragerU » ont appliqué ce raisonnement aux réseaux sociaux. En soumettant le visionnage de vidéos à une condition d’âge, alors que la chaîne veut justement promouvoir des idées conservatrices auprès d’un jeune public, Youtube « régule », selon eux, la parole publique comme le feraient les autorités d’une ville3. Sur le même fondement, une société russe accusée de diffuser de fausses informations avant l’élection présidentielle américaine a mis en cause Facebook pour contester la suspension de son compte.

Les juridictions américaines rejettent toutefois l’argument. Certains réseaux sociaux ont beau servir de « place publique paradigmatique4  » sur Internet, ils ne font qu’héberger des contenus sur une plateforme privée et cette action ne relève pas des prérogatives exclusives de l’État. Autrement dit, l’ouverture au public n’ôte pas au réseau social son caractère privé.

Les comptes officiels des représentants de l’État échappent-ils à la règle ? La discussion est lancée en 2017, lorsque l’accès de plusieurs utilisateurs au compte Twitter de Donald Trump – son compte personnel, distinct de celui attribué au président des États-Unis – a été bloqué après la publication de « réponses » ou de « commentaires » critiques à l’égard du président et de sa politique. Les juridictions saisies en première instance et en appel estiment que le compte officiel du président est un espace public « par affectation », puisqu’il s’agit d’un espace privé « affecté » à l’expression par une autorité publique5. Le président utilise son compte privé pour faire des annonces officielles et communiquer avec des millions de citoyens sur des sujets politiques d’intérêt général. Aux yeux des juges, la photographie choisie, le nom du titulaire (@realDonaldTrump) et l’archivage des tweets au registre officiel attestent bien de l’usage « public » du compte présidentiel. Bien que Donald Trump ne soit pas forcé d’entendre les critiques qui le prennent pour cible, il ne peut, sans violer le premier amendement, exclure des utilisateurs de la discussion qui se tient sur sa page et qui ne s’adresse pas exclusivement à lui. Selon les juridictions, le blocage, fondé sur le contenu des messages (les points de vue qui y sont soutenus), portait, dans ce cas précis, atteinte à la liberté d’expression des utilisateurs.

Le 5 avril 2021, à la suite de la requête du ministère de la Justice, l’affaire est classée « sans objet » par la Cour suprême, Donald Trump n’étant plus président des États-Unis6. L’assimilation du compte Twitter à un espace public est écartée. La décision rendue par la Cour suprême sur l’affaire des comptes bloqués est l’occasion pour l’un de ses juges, Clarence Thomas, de soulever, dans une opinion concordante, plusieurs questions sur le pouvoir des réseaux sociaux dans l’espace public. Le contexte n’est bien sûr plus le même : les comptes Twitter et Facebook de l’ancien président ont été définitivement suspendus le 8 janvier 2021, quelques jours après l’invasion du Capitole. Le juge Thomas constate donc, trois mois plus tard, que des acteurs privés ont désormais les moyens d’exclure le président des États-Unis des forums de discussion les plus fréquentés.

Les plateformes concentrent un énorme flux d’informations, précise-t-il, et exercent sur elles un contrôle inédit. Facebook et Twitter sont des « réseaux dans le réseau » qui appellent une réglementation nouvelle. Il existe des instruments pour limiter le « droit d’exclure » des sociétés privées. Le juge suggère, par exemple, d’envisager les réseaux sociaux comme de « simples transporteurs7 » (à l’instar des compagnies aériennes ou des télécoms) qui doivent « servir tout le monde » ou comme des « établissements ouverts au public » (analogues aux hôtels ou aux musées) qui sont tenus de « traiter leurs clients de la même manière ». Suivant l’une ou l’autre analogie, le droit des plateformes d’exclure leurs utilisateurs devrait être encadré par la loi.

Cette opinion concordante fait écho aux inquiétudes croissantes de la droite conservatrice états-unienne à l’égard du pouvoir de régulation des plateformes. Contrairement aux termes choisis par l’ancien président Donald Trump, les juridictions n’ont cependant jamais accepté d’y voir une « censure » contraire au premier amendement. L’analogie avec un club privé autorisé à choisir ses membres reste entièrement en vigueur8.

Une régulation minimale en Europe

À la différence des États-Unis, les États européens acceptent que les entreprises privées puissent être tenues responsables d’une violation du droit à la liberté d’expression. Toutefois, cette possibilité demeure résiduelle. D’abord, elle est limitée à des situations extraordinaires dans lesquelles ces acteurs privés sont des forums incontournables pour le débat public. Ensuite, elle conduit à un contrôle très limité des politiques de modération menées par ces réseaux.

En 2019, Facebook a suspendu les pages d’un parti politique italien, CasaPound, ainsi que celles de ses principaux responsables. Fondé en 2003, ce parti se réclame du fascisme italien et du nationalisme révolutionnaire. Si son action passait initialement par la création de centres sociaux dans toute l’Italie, ses militants sont associés à de nombreuses actions violentes contre des minorités ou des opposants politiques. Pour Facebook, ces différents éléments, ainsi que les symboles nazis repérés sur les pages liées à CasaPound, font de ce parti politique une organisation animée par la haine et donc prohibée par les conditions d’utilisation de Facebook.

Les responsables du Parti saisissent le tribunal de Rome pour forcer Facebook à rétablir les pages contestées. La juridiction romaine leur donne raison en considérant que le réseau social a porté atteinte à leur liberté de participer au débat public9. Son raisonnement s’appuie sur un élément factuel : 71 % des internautes italiens utilisent ce réseau social. Au sein de l’espace public, Facebook occupe une position incontournable. La capacité des partis politiques à atteindre l’ensemble des électeurs serait sérieusement limitée s’ils ne pouvaient l’utiliser.

Selon le tribunal de Rome, la relation entre Facebook et ses utilisateurs est profondément inégalitaire et ressemble, à ce titre, à celle opposant un employeur et ses employés. Bien que les partis politiques soient théoriquement libres de quitter le réseau social s’ils désapprouvent les conditions d’utilisation, un tel départ aurait un coût exorbitant pour eux. Ils doivent donc se soumettre aux exigences du réseau social, comme l’employé admet celles de son employeur. C’est à ce titre que les juridictions italiennes se sont assurées que les conditions d’utilisation de Facebook et leur application par l’entreprise respectaient la liberté de participer au débat politique des utilisateurs10.

Une telle position n’est pas isolée. Dans la majorité des États européens, les réseaux sociaux jouent un rôle considérable dans la diffusion de l’information et des idées et sont soumis à des exigences particulières visant à protéger l’intégrité de l’espace public. En Allemagne par exemple, la Cour constitutionnelle a rendu une décision similaire à celle du tribunal de Rome. Au moment de la campagne pour les élections européennes de 2019, Facebook a supprimé des contenus diffusés par le parti Der Dritte Weg, un parti d’extrême droite fondé en 2013 et proche de groupes suprémacistes et néonazis. Saisie, la Cour constitutionnelle estime qu’en raison de l’importance de Facebook dans l’espace public allemand, cette suppression peut porter atteinte à la liberté d’expression du parti, en privant celui-ci de la possibilité de promouvoir son discours politique auprès des 30 millions d’utilisateurs de Facebook11.

Ainsi, c’est parce que certains réseaux sociaux sont devenus des outils incontournables pour accéder à l’espace public qu’ils sont soumis à un contrôle au nom de la liberté d’expression. En outre, vu de plus près, le contrôle exercé par les pouvoirs publics sur ces réseaux sociaux apparaît très limité. La liberté d’expression ne contraint qu’à la marge l’autonomie des réseaux sociaux dans leur activité de modération.

C’est parce que certains réseaux sociaux sont devenus des outils incontournables pour accéder à l’espace public qu’ils sont soumis à un contrôle au nom de la liberté d’expression.

Les situations dans lesquelles les juridictions tranchent en faveur des utilisateurs sont rares et spécifiques. Dans l’affaire CasaPound, le tribunal de Rome donne raison au parti politique néofasciste. Facebook n’aurait pas dû l’exclure, car CasaPound n’est pas un parti illégal en droit italien. Si la loi Scelba de 1952 a interdit le parti fasciste, son objet est strictement limité et ne concerne pas un groupuscule tel que CasaPound. De même, dans l’arrêt Themel, le tribunal régional supérieur de Munich estime que les propos d’un homme politique d’extrême droite menaçant directement un autre utilisateur de Facebook n’auraient pas dû être supprimés par Facebook, car ils ne sont pas illégaux12. Le point commun de ces deux affaires est évident : il s’agit de responsables politiques de premier plan, d’acteurs centraux du débat public13. Supprimer leur page ou leur commentaire apparaît comme une atteinte particulièrement grave à la liberté du débat démocratique, seule susceptible de justifier une limitation de l’autonomie des réseaux sociaux. Autrement dit, c’est seulement lorsque la politique de modération des réseaux sociaux porte atteinte à l’exercice des droits politiques et démocratiques que la suspension est jugée contraire aux libertés.

Cette régulation minimale s’inscrit dans un cadre plus large. En Europe, les cours ne sanctionnent généralement que les situations dans lesquelles le comportement d’un acteur privé porte atteinte à la substance d’un droit fondamental14. Les solutions retenues pour contrôler les politiques de modération des réseaux sociaux poursuivent cette logique en ne constatant que les violations du cœur de la liberté d’expression, c’est-à-dire les atteintes à la liberté de participer au débat public. Les juridictions protègent les utilisateurs lorsque les réseaux sociaux les plus importants empêchent la diffusion de discours ou d’informations essentielles pour le débat public. Identifier ces discours essentiels est une tâche ardue. Toutefois, en pratique, les discours portés par des acteurs politiques bénéficient d’une présomption en leur faveur, poussant alors les tribunaux à les protéger activement contre la modération des réseaux sociaux.

Comment encadrer la modération ?

En Europe comme aux États-Unis, la voie judiciaire semble donc fermée pour réguler la modération du débat public par les réseaux sociaux au nom de la liberté d’expression. Des projets de réglementation ont toutefois été proposés, parfois adoptés, pour contourner cet obstacle. Plusieurs projets de législation ont vu le jour aux États-Unis pour protéger les candidats aux élections sur les réseaux sociaux, mais ils se sont heurtés à la Constitution.

En mai 2021, un texte est adopté en Floride qui interdit aux principaux réseaux sociaux de suspendre le compte des candidats à une élection. Son objectif est littéralement de mettre fin à la « censure des réseaux sociaux » (Stop Social Media Censorship Act). L’exclusion définitive d’un candidat (plus de quatorze jours) est punie d’une amende. Porté par le gouverneur républicain de Floride, ce texte est une réponse directe à la suppression des comptes Facebook et Twitter de Donald Trump. Selon les termes du gouverneur, il s’agit de protéger les citoyens des « élites de la Silicon Valley » et de leur « idéologie15 ». Plusieurs projets comparables ont vu le jour dans d’autres États conservateurs.

Les réseaux sociaux ont aussitôt attaqué le texte devant les tribunaux et ont obtenu sa suspension. Cette décision16 témoigne de la difficulté que soulèvent les tentatives d’encadrer l’action des plateformes. Selon la justice américaine, dans une injonction préliminaire, le texte contredit d’abord une loi fédérale qui est très favorable aux services informatiques. En vertu du Communication Decency Act de 1996, les réseaux sociaux ne peuvent être tenus responsables d’un contenu qu’ils ont maintenu en ligne et ne peuvent pas non plus être sanctionnés lorsqu’ils retirent un contenu publié par un tiers, si du moins ils peuvent prouver avoir agi « de bonne foi », c’est-à-dire pour des raisons liées au caractère illégal du contenu supprimé. Ensuite, pour se défendre, les réseaux sociaux peuvent eux aussi invoquer le premier amendement. Ils sont libres, comme l’est un journal, de sélectionner des informations et d’en exclure d’autres. S’ils étaient tenus de relayer la parole d’un candidat, ils ne disposeraient plus d’une entière liberté éditoriale. L’invocation de la liberté d’expression passe alors dans le camp des grandes entreprises d’Internet, qui s’en prévalent pour affirmer leur pleine autonomie contre les incursions de l’État de Floride. Par conséquent, aux États-Unis, le législateur qui voudrait encadrer le pouvoir des plateformes afin de protéger les utilisateurs contre la suppression de contenus parfaitement légaux se heurte à la liberté d’expression… des plateformes elles-mêmes.

Dans un esprit différent, le Digital Services Act proposé par la Commission européenne le 15 décembre 2021 cherche à encadrer les procédures d’exclusion des contenus par les réseaux sociaux. Deux types de mesure sont notamment envisagés : rendre transparents les processus de décisions automatisés en les soumettant à un système d’audit externe et créer des garanties procédurales en cas d’exclusion. Ces garanties reposent avant tout sur la création d’un mécanisme transparent de notification. Lorsqu’un utilisateur signalera un contenu, il devra expliquer pourquoi il est problématique. Une contre-notification sera envoyée à l’auteur de ce contenu afin qu’il puisse se défendre. En outre, des systèmes de recours seront créés. D’abord, toute décision d’exclure ou non un contenu devra pouvoir être contestée devant un responsable du réseau social. Ensuite, les réseaux sociaux pourront s’associer avec des arbitres privés agréés par les États membres. Les utilisateurs pourront les saisir pour contester les décisions des réseaux sociaux.

Un tel système est faiblement contraignant pour les réseaux sociaux. Les arbitres privés, même agréés par les États, demeureront largement dépendants du réseau social. Ainsi, en 2020, Facebook a créé un organisme de contestation similaire à ceux prévus par le projet européen. Ce « conseil de surveillance » a été saisi de l’exclusion de Donald Trump du réseau social. Le 5 mai 2021, il a confirmé l’exclusion en se fondant sur trois sources : les conditions d’utilisation de Facebook, les « valeurs » de Facebook et la Corporate Human Rights Policy publiée par Facebook en mars 202117. Le conseil a seulement contrôlé que Facebook avait bien appliqué ses propres règles. Il n’a pas procédé à un contrôle sérieux du respect de la liberté d’expression lors de l’élaboration et l’exécution de ces règles.

Dans cette perspective, la question n’est pas seulement quelles sont les règles, mais qui doit les appliquer18. Le Digital Services Act ne repose en effet que sur une plus grande transparence et une externalisation partielle des procédures d’exclusion ou d’invisibilisation des contenus par les réseaux sociaux. Pour le reste, les conditions d’utilisation sont toujours librement déterminées et appliquées par les réseaux sociaux. D’autres pistes pourraient être envisagées. Laurent Chemla propose un système où les réseaux sociaux dont l’usage est « nécessaire pour atteindre une audience substantielle » soumettraient leurs décisions à un contrôle systématique par une autorité publique afin de s’assurer qu’elles ont respecté la liberté d’expression de leurs utilisateurs19. La proposition est sans doute en partie utopique – quelle autorité publique serait matériellement en mesure de contrôler toutes les décisions prises par Facebook ou Twitter ? –, mais elle a le mérite de montrer en contrepoint ce qui est absent du Digital Services Act : la possibilité d’un contrôle concret des arbitrages effectués par les réseaux sociaux20.

  • 1. Voir Romain Badouard, Les Nouvelles Lois du web. Modération et censure, Paris, Seuil, coll. « La République des idées », 2020.
  • 2. Packingham v. North Carolina, 582 U.S. (2017).
  • 3. Voir Nellie Bowles, “Right-wing views for generation Z, five minutes at a time”, The New York Times, 4 janvier 2020.
  • 4. Prager University v. Google LLC, 9th Circuit, 26 février 2020, no 18-15712.
  • 5. Knight First Amendment Inst. at Columbia Univ. v. Trump, no 18-1691 (2nd Cir., 2019).
  • 6. Knight First Amendment Inst. at Columbia Univ. v. Trump, no 20-197 (Supreme Court).
  • 7. Les fournisseurs d’accès à Internet ont été considérés comme des common carriers en 2015 aux États-Unis. Cela signifiait qu’ils ne pouvaient traiter de façon différenciée les services et les contenus, ce qui correspond au principe de neutralité d’Internet. Donald Trump est revenu sur ce principe peu après son élection.
  • 8. Voir les critiques de Florence G’sell, « Facebook et la suspension de Trump : le Facebook Oversight Board est-il au rendez-vous ? » [en ligne], Law and Beyond, 6 mai 2021 ; et Emmanuel Netter, « Après le bannissement de Trump, “make social networks great again” » [en ligne], Droit et numérique, 11 janvier 2021.
  • 9. Tribunal de Rome, ord., 11 décembre 2019, no 59264/2019.
  • 10. Tribunal de Rome, ord., 29 avril 2020, no 80961/19, pt. 9.
  • 11. Cour constitutionnelle allemande, ord., 22 mai 2019, 1 BvQ 42/19.
  • 12. Tribunal régional supérieur de Munich, 24 août 2018, décision 18 W1294/18. La question est toutefois hautement controversée en Allemagne et devra être tranchée par la Cour constitutionnelle.
  • 13. Cela vaut également pour l’affaire Der Dritte Weg, qui concernait un parti politique pendant une période électorale.
  • 14. Une exception à cette logique : lorsque l’entreprise privée a en pratique le rôle d’un acteur public, notamment car elle obéit à ses ordres ou est un prolongement de cet acteur. Sur ce point, voir Thomas Hochmann et Jörn Reinhardt (sous la dir. de), L’Effet horizontal des droits fondamentaux, préface de Johannes Masing, Paris, Pedone, 2018.
  • 15. Voir David McCabe, “Florida, in a first, will fine social media companies that bar candidates”, The New York Times, 24 mai 2021.
  • 16. Netchoice, LLC et al. v. Ashley Brooke Moody et al., 4:21cv220-RH-MAF, United States District Court for the Northern District of Florida, 30 juin 2021.
  • 17. Case decision 2021-001-FB-FBR (www.oversightboard.com).
  • 18. Voir E. Netter, « Après le bannissement de Trump… », art. cité.
  • 19. Voir Laurent Chemla, « La chute » [en ligne], Les Conséquences sociales d’Internet, et les chats, blogs.mediapart.fr, 10 janvier 2021.
  • 20. Dans le cadre de cette recherche, Pierre Auriel a reçu le soutien financier de l’Agence nationale de la recherche sous la convention de subvention Egalibex ANR-18-CE41-0010-01. Ce texte a fait l’objet d’une présentation dans le cadre du séminaire Liberté d’expression du programme Egalibex, ainsi que lors du congrès de la Société française pour la philosophie et la théorie juridiques et politiques. Nous remercions vivement les organisateurs de ces événements ainsi que les personnes présentes pour leurs questions, remarques et critiques.

Pierre Auriel

Docteur en droit public et chercheur postdoctoral dans le cadre du programme ANR « Egalibex », Pierre Auriel est notamment l’auteur de L’équivalence des protections des droits fondamentaux dans l’Union européenne (Bruylant, 2020).

Mathilde Unger

Maître de conférences en droit public à l’université de Strasbourg et rattachée au Centre d’études internationales et européennes (CEIE), Mathilde Unger est notamment l’autrice de La justice sociale dans l’Union européenne (Classiques Garnier).

Dans le même numéro

Internet en mal de démocratie

L’essor sans précédent d’Internet et des nouvelles technologies de l’information a transformé en profondeur le rapport des citoyens à la participation civique. Si elle a permis des progrès incontestables, cette révolution numérique pose également des défis pour la préservation du débat en démocratie. Le bouleversement introduit par le numérique dans la délibération publique semble en effet remettre en cause les exigences traditionnellement associées au débat démocratique, comme l’égalité d’accès, le contrôle public des instances de modération, la fiabilité de l’information ou le pluralisme des courants d’expression. Quelles stratégies adopter pour faire face aux dérives qui touchent aujourd’hui le débat sur Internet ? Le dossier, coordonné par Romain Badouard et Charles Girard, examine la propagation des fausses nouvelles, la mobilisation de nouveaux publics, les pouvoirs de régulations privés et la déstabilisation des cadres juridiques. À lire aussi dans ce numéro : le naufrage moral de l’Église, qui sont les talibans ?, gouverner la pandémie et une rencontre avec Pierre Bergounioux.