
L’ordre et le chaos. Le traitement de l’information par les réseaux
Les réseaux socio-numériques, qui ont inversé le rapport de force avec les médias traditionnels, brouillent la frontière jusqu’ici étanche entre l’information et d’autres formes de publication (personnelle, publicitaire ou de propagande). Cela exige de mettre la société, en particulier les journalistes et les enseignants, à la tâche d’une éducation aux médias.
Les réseaux sociaux numériques (RSN) jouent désormais un rôle majeur dans l’accès des Français à l’information1. On ne peut dire pour autant qu’ils aient remplacé les médias audiovisuels, à qui les Français font toujours confiance. Le succès des RSN exerce cependant une forte influence sur ces médias : ils sont obligés, pour maintenir leurs propres audiences, de développer leur présence sur ces espaces numériques, en les alimentant de contenus et en se pliant à leur logique éditoriale. Ils se rapprochent de leurs stratégies marketing de profilage et de personnalisation de leur offre2. Ils sont également encouragés à développer des formes de gamification, voire de dépolitisation de l’information.
Un réseau social numérique se définit comme une entreprise qui met en relation des usagers, des producteurs de contenu et des annonceurs, en permettant à ses utilisateurs de publier des contenus et de les faire circuler auprès de leur réseau de contacts, en « privé » ou en « public ». Cette mise en relation est organisée grâce à un dispositif technique computationnel appelé plateforme, qui sert à la fois d’outil d’éditorialisation des échanges et d’instrument de pouvoir, puisqu’il permet à l’entreprise de RSN, en s’appuyant sur des algorithmes, de décider des degrés de visibilité ou d’invisibilité des « contenus ».
Nombreux sont ceux qui s’inquiètent du poids que prennent ces nouveaux acteurs dans la médiation de l’information, au vu de la polarisation des opinions qu’ils favorisent3. Les pouvoirs publics redoutent particulièrement la prolifération des discours de haine (xénophobes, racistes et antisémites) et la circulation de la désinformation sur leurs espaces, deux phénomènes souvent liés. Les algorithmes qui structurent les recommandations sont censés hiérarchiser les contenus afin qu’ils répondent au mieux aux attentes des usagers. Les utilisateurs restent cependant méfiants par rapport aux informations qui proviennent des RSN. Si ces derniers offrent à leurs usagers des services de communication inédits par ailleurs, la mise en ordre de l’information par personnalisation engendre en effet une série de confusions, dont la résolution (partielle) passe par une mise au travail intensifiée des usagers. Cet article cherche à définir les conséquences principales de cette nouvelle modalité de diffusion de l’information sur la chaîne de production de l’information et sur la situation des usagers des RSN.
Un ordre « personnalisé »
Le fonctionnement des plateformes numériques vise à produire une mise en ordre de l’information personnalisée. Les plateformes de RSN promettent toutes de construire un « fil » de recommandations, autrement dit de faciliter l’accès à l’information d’une manière adaptée aux souhaits de chaque usager. Cette promesse fonde sa crédibilité sur le recours à des outils mathématiques complexes, les algorithmes, qui peuvent trier les contenus selon des critères multiples, pondérés et diversifiés.
Ces critères tiennent à la fois aux contenus et aux interactions des publics avec le contenu et avec leurs abonnés ou leurs amis. Dans leur détail, ils sont couverts par le secret des affaires, mais leurs grandes lignes peuvent être connues pour aider les entreprises dans leurs démarches de valorisation. Facebook et Instagram utilisent des batteries d’algorithmes qui reposent sur des milliers de critères, privilégiant les relations entre les « amis » déclarés sur la plateforme et leurs publications, tout en ne favorisant la présence que de 20 % de ces publications. Le nombre d’abonnés et le rythme de publication comptent également. Sur Twitter, c’est la date du tweet qui joue un rôle majeur, ainsi que l’ampleur des interactions entre l’auteur du tweet et ses abonnés, les partages de ce tweet et les hashtags. TikTok utilise un barème de points, qui donne la priorité au revisionnage et au fait de regarder la vidéo en entier, dont la durée est particulièrement courte4. Les critères suivants entrent également en ligne de compte : les partages, les commentaires et les likes5. Les caractéristiques liées au contenu, les « effets » vidéo employés, la musique et les hashtags jouent également un rôle crucial.
La gouvernance de la plateforme TikTok, détenue par l’entreprise chinoise ByteDance, suscite l’inquiétude des gouvernements de nombreux pays quant au contrôle exercé par la Chine sur les données personnelles des usagers (les États-Unis ont renoncé à l’interdire, mais différentes agences mettent en cause le traitement des données personnelles des mineurs ; l’Inde en a interdit l’accès) ou du fait des contenus jugés « indécents » qui y sont promus (motif de son interdiction au Pakistan). TikTok revendique aujourd’hui un milliard d’utilisateurs, un volume impressionnant, même s’il se situe derrière Instagram, Facebook et YouTube. En 2021, le temps de visionnage des utilisateurs de TikTok aux États-Unis devançait celui de YouTube. L’opérateur prévoit un développement de la plateforme très favorable, qui lui permettrait de dépasser en 2024 le chiffre d’affaires de YouTube6.
La plateforme propose trois modalités d’accès à des recommandations : un fil personnalisé, intitulé « Pour toi », un fil « Abonnements » et un fil « Découvrir ». À titre d’exemple, le 11 juillet 2022, mon compte me propose trois fils avec des contenus très différents : le « Pour toi » s’ouvre sur une vidéo de propagande publiée par « @vladimir_putin_king » ; le fil « Découvrir » me propose une promotion de la carte Paris Musées, ce qui supposerait que j’aie moins de 26 ans ; mon compte « Abonnements » me propose une vidéo de @microchoc qui demande à une jeune femme son prénom et son origine, et comme elle déclare des origines algériennes-portugaises, l’intervieweur lui répond qu’elle doit être assez agressive. Je simplifie à l’excès puisqu’il faudrait analyser les cent premières vidéos de chaque fil, que je peux « scroller » en l’espace de quelques minutes. TikTok se caractérise en effet par la rapidité du défilement des vidéos du fait de leur durée de quelques secondes.
J’utilise mon compte TikTok avec un pseudonyme, de façon minimaliste : mon profil ne comprend que mon « pseudo » ; je n’ai confirmé aucun abonnement. La seule information explicite que j’ai donnée aux algorithmes est une recherche d’information, réalisée à l’ouverture du compte, sur la guerre en Ukraine. J’y reçois donc principalement de la propagande pro-Poutine et, dans une moindre mesure, de la propagande des fans de Zelensky. Selon les jours, j’ai pu aussi recevoir des vidéos de différents imams me donnant des conseils pour gérer mes relations amicales et respecter mes parents, mais aussi de nombreuses vidéos de femmes en string, qui correspondent à des suggestions d’abonnements que je n’ai pourtant jamais confirmés.
Les déclarations de TikTok auprès de l’Autorité publique française de régulation de la communication audiovisuelle et numérique (Arcom) peuvent donner des éléments de réponse sur ce décalage : « Le fil “Pour Toi” n’est pas uniquement façonné par l’engagement via le fil lui-même. Lorsqu’un utilisateur décide de suivre de nouveaux comptes par exemple, cette action contribuera également à affiner ses recommandations, tout comme l’exploration des hashtags, des sons et des effets. Il s’agit d’autant de moyens d’adapter l’expérience de l’utilisateur et d’introduire de nouvelles catégories de contenu dans son fil7. » La personnalisation de mon compte et des contenus que je peux y voir dépasse donc largement mes choix explicites. Elle repose, comme sur d’autres RSN, sur la récupération de données personnelles pour lesquelles le consentement explicite est demandé, mais aussi de données anonymes extraites des traces laissées par les usagers. Ces traces sont issues de diverses sources, dont une liste non exhaustive figure dans les Conditions générales d’utilisation, différentes pour chaque entreprise. Certaines sont donc données volontairement lors de la constitution du profil, d’autres sont laissées involontairement à l’occasion de visionnages, de consultations d’autres comptes, de publications, comme la géolocalisation des photographies publiées ou des achats réalisés sur la plateforme. Elles sont aussi récupérées auprès des activités du réseau d’amis, des abonnés ou des personnes qui regardent les mêmes contenus. Elles peuvent donc être fournies par d’autres personnes que l’utilisateur et donner lieu à des calculs sans que l’utilisateur ne puisse intervenir8. Les innovations liées au machine learning des algorithmes font que le profilage des recommandations est de plus en plus lié au comportement des usagers et non à la déclaration officielle de leurs centres d’intérêt. Ma curiosité pour le fonctionnement de l’algorithme de TikTok en période de guerre en Ukraine a été interprétée par lui comme un intérêt pour les premières vidéos de propagande et les sermons musulmans qu’il m’a proposés, sans que je publie le moindre « cœur ».
Sources de confusion
Le développement des réseaux sociaux numériques a affranchi la diffusion de l’information des gatekeepers journalistiques. Il s’agit d’une forme de dérégulation de l’organisation économique et sociale du système informationnel par désintermédiation. Elle a dans le même temps déstabilisé les pratiques informationnelles.
L’information journalistique y est concurrencée par d’autres formes d’actualité, alors qu’elle en détenait le monopole. Tout contenu adressé à un compte est potentiellement une « information ». C’est Facebook qui a provoqué cette première source de confusion entre les contenus, en cassant la classification des genres de programmes audiovisuels et en nommant le fil de recommandation un news feed en 2006. Toute publication est devenue une « actualité9 ».
Le terme d’actualité, jusqu’ici au cœur de la définition du journalisme, a ainsi été vidé de son sens. L’information est devenue en apparence un bien surabondant et gratuit, soumis à des logiques de plus en plus fortes de captation de l’attention, poussant les journalistes à développer des pratiques de personal branding, qui consistent à communiquer sur soi-même comme si on était une « marque ». Or cette mise en avant peut entrer en confrontation avec les exigences déontologiques de la profession, et notamment l’interdiction de confondre information et communication, reconnue par toutes les chartes de journalistes. La captation de l’attention les a aussi incités à produire en s’adaptant aux algorithmes de recommandation, ceux du moteur de recherche monopolistique (Google) comme ceux des RSN, et en développant des stratégies d’optimisation (search engine optimization).
La deuxième source de confusion est la difficulté d’identifier la source d’une information sur les RSN, lorsqu’elle n’émane pas directement d’une marque de média journalistique dont le logo est présent à l’image. L’objectif primordial des entreprises de RSN repose sur la circulation des messages et son amplification, l’augmentation du temps passé sur leur plateforme et l’ampleur des partages. Le design favorise souvent la rapidité de circulation des messages en en limitant la longueur. La source de l’information est considérée comme moins importante que les expressions affectives du destinataire, alors même qu’elle constitue le moyen le plus ordinaire d’attribuer sa confiance à un contenu informationnel. Elle est devenue difficile d’accès, de nombreux comptes étant anonymes et mettant rarement en avant leurs sources.
Une troisième source de confusion, facilitée elle aussi par la désintermédiation, est l’envahissement des fils de recommandation par la publicité. Interrogées récemment dans le cadre d’un projet de recherche sur la protection de la vie privée par les adolescents (Adoprivacy), deux jeunes filles de 18 ans comptaient le nombre de contenus sponsorisés sur leur compte Instagram et observaient, sur leur smartphone, qu’elles en avaient autant que de contenus issus des comptes auxquels elles étaient abonnées. Il leur fallait un effort particulier pour bien repérer la mention « sponsorisé », écrite en tout petit. Assez surprenante d’un point de vue déontologique a été l’initiative du média d’information Brut de développer une plateforme de shopping (Brut shop) en partenariat avec Carrefour pour assurer la vente de produits en direct.
Une quatrième source de confusion concerne l’envahissement des fils de recommandation par des discours de propagande et des manipulations de l’information. La diffusion des discours de haine connaît une ampleur nouvelle avec les RSN et suscite une forte inquiétude des gouvernements européens parce qu’ils déstabilisent les démocraties. C’est pour cette raison que le Digital Services Act doit très prochainement renforcer la responsabilité des opérateurs des plateformes les plus puissantes quant à la modération de ces contenus sur le territoire de l’Union européenne. En contournant le contrôle éditorial des journalistes professionnels, les plateformes offrent un espace nouveau aux discours d’extrême droite10. Leur caractère transgressif et sensationnaliste leur assure une bonne circulation, en profitant des politiques affectives des opérateurs de plateformes, qui favorisent les messages susceptibles de susciter des émotions fortes (colère, indignation, enthousiasme).
Ces sources de confusion représentent un bouleversement du système informationnel dans son ensemble, mettant toute la société au travail. Sous la pression des lanceurs d’alerte et des pouvoirs publics, les plateformes numériques ont sollicité d’autres acteurs, à commencer par les journalistes, dont le travail a été partiellement reconfiguré.
Fact checking
En contournant les journalistes, les RSN ont à la fois transformé l’accès à l’information, y compris journalistique, et accru des formes de chaos informationnel. En période électorale, celles-ci fragilisent plus ou moins les démocraties selon l’habileté numérique des publics concernés.
La publication des discours de haine est interdite par les normes privées des grandes plateformes internationales. Meta, dans son dernier rapport de transparence, déclare avoir supprimé pour ses deux plateformes Facebook et Instagram 15 millions de contenus haineux au premier trimestre 2022. Cela peut paraître beaucoup, mais l’opérateur indique que le taux de prévalence est seulement de 0, 02 % de l’ensemble des contenus et qu’il a été divisé par cinq en deux ans. Il est difficile de connaître le volume équivalent supprimé par Twitter. TikTok déclare avoir supprimé 1 % des vidéos publiées, mais agrège un ensemble de motifs de retrait, parmi lesquels les discours de haine.
La dénonciation de l’abondance des fake news sur les RSN serait donc elle-même une « infox11 ». C’est faire sans doute peu de cas de l’effet indirect de ces messages, dans la légitimation des discours d’extrême droite. Si la propagation de discours d’extrême droite a été longtemps contenue par la « spirale du silence12 », les RSN ont fourni à leurs soutiens l’opportunité de construire des bulles informationnelles relativement importantes par rapport à la situation antérieure et de les entretenir à faible coût. En cela, ils ont contribué à une forme de renouvellement des discours politiques et de pluralisme, mais qui a profité davantage à l’extrême droite.
À travers le fact checking, les médias d’information se voient assigner la tâche de procéder au contrôle a posteriori de l’information désintermédiée.
Les journalistes et les médias d’information conservent cependant un rôle central dans ce contexte informationnel bouleversé. Pour lutter contre les discours de haine et les discours mensongers, les plateformes de RSN et Google ont développé des techniques algorithmiques de détection des faux comptes, des fausses informations et des discours de haine. Mais ces discours sont sujets à interprétation, leur sens varie selon le contexte culturel et politique national notamment, et leur détection automatique est relativement faible. Les plateformes se sont tournées vers la sous-traitance par des entreprises de modération (à bas coût) mais aussi vers des journalistes, en tant qu’experts de la vérification de l’information pour compléter le travail de leurs machines. À travers le fact checking, les médias d’information se voient assigner la tâche de procéder au contrôle a posteriori de l’information désintermédiée. Cela a pu raffermir l’opinion à leur égard, ce qui dans une période de large défiance vis-à-vis des journalistes n’était pas négligeable. Cela a pu aussi détourner une partie importante de la profession d’un véritable travail d’investigation au cœur de leur mission de contre-pouvoir démocratique. Les RSN ont ainsi inversé le rapport de force avec les médias d’information : les contournant pour mieux s’emparer d’une part de leurs ressources publicitaires, tout en utilisant leur expertise et leurs contenus, moyennant des accords financiers tournés à leur avantage. Ils ont aussi promu de nouveaux leaders d’opinion, sur lesquels ils peuvent exercer plus directement leur contrôle, les influenceurs, entièrement dépendants des plateformes pour l’accès à leur public et leur rémunération.
Le travail des usagers
Du côté des usagers, le contrôle de l’information est devenu difficile. Selon la logique participative, chaque utilisateur de RSN est encouragé non seulement à publier, mais aussi à vérifier l’information avant de la partager, et à signaler les messages frauduleux ou mensongers. La démocratisation de la publication est censée favoriser l’horizontalité du contrôle (gratuit) de l’information. La tâche paraît immense pour l’utilisateur happé par des fils de recommandation trépidants.
Des fonctionnalités nouvelles permettent d’agir sur le contenu de son fil. Sur Twitter, on peut refuser le choix de l’algorithme, préférer les messages « récents », mais sans que l’on soit pour autant assuré que ce soit efficace. Certains adolescents bien informés s’amusent à entraîner leur algorithme pour qu’il leur propose des contenus intéressants. Il importe donc de « liker » systématiquement les messages issus des comptes que l’on souhaite voir apparaître en premier, de supprimer les publicités non désirées, de consulter régulièrement les comptes auxquels on est abonné, de bannir ou de signaler ceux qui déplaisent. Mais le fil reste alimenté par toutes sortes de messages et de comptes. D’autres adolescents ont observé les tendances à la reproduction des stéréotypes de leur fil TikTok. Lors d’un entretien en juin 2022, Ahmed, 14 ans, nous disait regretter que son « Pour toi » lui propose des contenus liés à des stéréotypes de genre : des voitures et des filles dénudées aux garçons, du maquillage pour les filles. Il en déduisait que « le système est sexiste ».
Les usagers se trouvent toujours confrontés à des contenus racistes, sexistes ou haineux qui suscitent un travail émotionnel intense13. Il consiste dans la rétention des émotions au plus profond de soi et l’affichage d’émotions conformes à celles qu’ils supposent correspondre aux attentes de leurs contacts. L’expression publique des émotions est en effet l’objet d’un accordage social, qui sélectionne ce qui peut, doit ou ne doit pas être manifesté selon les « règles de sentiments14 ». L’essentiel de ce travail est donc souterrain et inaccessible aux plateformes, qui ne peuvent procéder à leurs calculs et à leur personnalisation qu’à partir de ce que les utilisateurs manifestent.
Les jeunes usagers des RSN n’adhèrent pas tous aux discours qu’ils reçoivent, et ne les prennent pas pour argent comptant. Certains sont capables d’une analyse et d’une distanciation critiques de façon spontanée15. Mais nombreux sont aussi ceux qui évitent les messages émotionnellement éprouvants, sans construire la moindre approche critique. La course à l’audience conduit les algorithmes à privilégier les sujets dramatiques qui suscitent ces émotions, et les médias audiovisuels commerciaux y souscrivent de plus en plus. Le nombre des citoyens de tous âges (mais particulièrement les jeunes) qui fuient les informations sérieuses ou dramatiques a, lui aussi, tendance à s’accroître dans tous les pays.
Pour accompagner les jeunes et renforcer leur sentiment de responsabilité sur les plateformes numériques, les pouvoirs publics européens se sont engagés à renforcer le rôle de l’école dans l’éducation aux médias et à l’information. L’école fait ainsi partie des acteurs sur qui pèse une part de la dérégulation du Web et de la désintermédiation de l’information. Elle est sollicitée par les pouvoirs publics pour rétablir rigueur de pensée, capacité à trier l’information, distinguer « le vrai du faux », faire un usage « responsable » des médias numériques16. Les moyens ne sont certainement pas à la hauteur des objectifs. Mais si l’on souscrit au diagnostic d’une urgence politique de l’éducation aux médias, à l’information et au numérique, on comprend que les RSN ont suscité, par leur traitement de l’information, une mise au travail de l’école elle-même.
Les RSN n’ont supplanté ni les médias audiovisuels ni les médias d’information journalistique, mais ils ont bouleversé le système informationnel. Ils ont banalisé l’accès à bas coût à des contenus prolifiques, dans lesquels chacun peut puiser des informations intéressantes ou amusantes. Mais ils ont accru la porosité entre information journalistique et divertissement, entre information et promotion, et entre opinion et discours de propagande, voire de haine. Ils sont à ce titre sources de chaos informationnel. L’ordre algorithmique des RSN soumet chaque utilisateur à un travail émotionnel et éthique complexe. Chacun devient coresponsable de l’information qu’il reçoit, publie ou partage. Pour étayer les publics dans cette lourde tâche, les journalistes ainsi que l’institution scolaire sont appelés à la rescousse, mais sans que la structuration de l’information sur les RSN puisse être remise en question.
- 1. Quarante pour cent des Français s’informent par leur médiation (principalement Facebook, YouTube, Instagram et Twitter), un pourcentage qui a plus que doublé depuis 2013, au détriment de la télévision et surtout de la presse écrite. Voir Nic Newman et al., Digital News Report [en ligne], Reuters Institute, 2022.
- 2. C’est ce qui apparaît clairement avec la personnalisation du journal télévisé de TF1 depuis le 24 janvier 2022. Les usagers peuvent obtenir sur le site internet de la chaîne un journal dont ils choisissent certaines rubriques : politique, météo, sport, patrimoine et gastronomie.
- 3. Voir Zeynep Tufekci, Twitter et les gaz lacrymogènes. Forces et fragilités de la contestation connectée [2017], trad. par Anne Lemoine, Caen, C&F Éditions, 2019.
- 4. Les vidéos étaient limitées à soixante secondes. Depuis juillet 2021, il est possible de télécharger des vidéos de trois minutes sur TikTok.
- 5. Voir Héloïse Famié-Galtier, « TikTok : cinq conseils pour que votre vidéo plaise à l’algorithme » [en ligne], Blog du modérateur, 28 avril 2021.
- 6. Intervention de Thomas Guignard, lors des journées d’études « Les industries du numérique et les jeunes. Innovation, créativité et protection des enfants et des adolescents », le 4 juillet 2022, dans le cadre du projet Adoprivacy.
- 7. « Déclaration des opérateurs de plateformes en ligne » [en ligne], Arcom, 1er juillet 2022.
- 8. Voir Fanny Georges, « L’identité numérique sous emprise culturelle. De l’expression de soi à sa standardisation », Les Cahiers du numérique, vol. 7, no 1, 2011, p. 31-48 ; et Dominique Cardon, À quoi rêvent les algorithmes. Nos vies à l’heure des big data, Paris, Seuil, coll. « La République des idées », 2015.
- 9. Depuis 2021, Facebook a renommé « fil » (feed) ce que l’entreprise appelait « fil d’actualité » (news feed).
- 10. Voir Julien Figeac, Tristan Salord, Guillaume Cabanac, Ophélie Fraisier, Pierre Ratinaud, Fanny Seffusatti et Nikos Smyrnaios, « Facebook favorise-t-il la désinformation et la polarisation idéologique des opinions ? », Questions de communication, n° 36, 2019, p. 167-187.
- 11. Manon Berriche et Sacha Yesilaltay, « Fact check : trois infox sur les infox » [en ligne], The Conversation, 3 mai 2020. Les auteurs s’appuient notamment sur deux évaluations scientifiques réalisées aux États-Unis et en Allemagne : Jennifer Allen, Baird Howland et al., “Evaluating the fake news problem at the scale of the information ecosystem”, Science Advances, vol. 6, no 14, 2020, p. 1-6, qui évalue à 0, 15 % le volume de fausses informations aux États-Unis ; et Svenja Boberg, Thorsten Quandt et al., “Pandemic populism: Facebook pages of alternative news media and the corona crisis – A computational content analysis” [en ligne], Muenster Online Research Working Paper, 10 avril 2020, qui avance celui de 1, 1 % à propos de la couverture de la Covid-19 en Allemagne sur Facebook.
- 12. Elisabeth Noelle-Neumann, « La spirale du silence » [1974], trad. par Gilles Achache, Dorine Bregman et Daniel Dayan, Hermès, n° 4, 1989.
- 13. Au moins 40 % des adolescentes se disent confrontées à ce type de contenu. Voir Sophie Jehel, « 7e rapport de l’Observatoire des pratiques numériques des adolescents en Normandie » [en ligne], Éducation aux écrans, 25 octobre 2022.
- 14. Arlie Russell Hochschild, Le Prix des sentiments. Au cœur du travail émotionnel [1979], trad. par Salomé Fournet-Fayas et Cécile Thomé, Paris, La Découverte, 2017.
- 15. Voir S. Jehel, L’Adolescence au cœur de l’économie numérique. Travail émotionnel et risques sociaux, Paris, INA, 2022.
- 16. Voir Gérald Bronner, « Les Lumières à l’ère numérique » [en ligne], Vie publique, janvier 2022 ; et Elena Pasquinelli et G. Bronner (sous la dir. de), « Éduquer à l’esprit critique. Bases théoriques et indications pratiques pour l’enseignement et la formation » [en ligne], Conseil scientifique de l’Éducation nationale, mars 2021.