
Shadow ban. L’invisibilisation des contenus en ligne
Comment qualifier ces nouvelles stratégies de modération mises en œuvre par les réseaux sociaux, qui consistent à rendre un contenu invisible sans le supprimer, et échappent aux catégories traditionnelles de la censure ? Ici, le pouvoir exercé sur la visibilité est d’autant plus préoccupant qu’il reste inaperçu.
La prolifération des fausses informations et des discours de haine sur Internet pose un problème d’un nouveau genre aux grandes plateformes de réseaux sociaux. Si Facebook, Google, Twitter et leurs concurrents ont, depuis leur création, édicté des règles de publication, délimitant ce qui peut se dire ou non au sein des espaces d’échange qu’elles mettent à disposition des usagers, les fake news et propos haineux occupent généralement une zone grise particulièrement difficile à modérer. Les publications qui relèvent de ces deux catégories constituent en effet, pour les plateformes, des contenus de mauvaise qualité, dont la présence sur leurs réseaux est jugée indésirable. Lorsqu’ils sont explicites, ils sont facilement identifiables et peuvent faire l’objet de mesures de retrait ou de mise en quarantaine. Mais dans la pratique, les propos haineux s’expriment généralement à couvert : leurs auteurs utilisent un mot à la place d’un autre pour désigner une cible, manient le sous-entendu et l’ironie, ou ont recours à des symboles racistes, antisémites, homophobes ou misogynes. Les fausses informations, quant à elles, relèvent moins souvent d’une manipulation manifeste que de propos biaisés, décontextualisés, voire absurdes, dont la dimension malveillante n’est pas toujours évidente. Dans les deux cas cependant, ces publications placent les plateformes face à un dilemme : si elles les laissent en ligne, elles sont accusées de laxisme ; si elles suppriment des contenus qui