
Le capitalisme de la surveillance
Un nouveau clergé
Alors que la division du travail était le principe organisateur de la société industrielle, c’est la division du savoir qui organise la société numérique. Mais elle est prise en otage par le capitalisme de la surveillance qui traduit l’expérience humaine en données informatiques à son profit. Un tel mouvement historique exige une réponse démocratique.
Ce texte est extrait du livre The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power (Public Affairs Books, 2019). Le capitalisme de la surveillance y est défini comme cette nouvelle forme de capitalisme qui traduit l’expérience humaine en données comportementales afin de produire des prédictions qui sont ensuite revendues sur le marché des comportements futurs. Pour Shoshana Zuboff, la concentration de richesse, de savoir et de pouvoir par les capitalistes de la surveillance est telle qu’elle menace la démocratie, les libertés et l’avenir de l’humanité.
« Allons-nous tous travailler pour une machine intelligente, ou aurons-nous des personnes intelligentes autour de la machine ? » Un jeune gérant d’une usine à papier m’a posé cette question en 1981, entre le poisson frit et la tarte aux noix de pécan, au cours de ma première soirée passée dans une petite ville du sud des États-Unis où cette usine gigantesque était domiciliée et où j’allais élire domicile pour les six années suivantes. Au cours de cette soirée pluvieuse, ses paroles m’ont submergée, étouffant le bruit des gouttes de pluie sur l’auvent au-dessus de notre table. Je reconnaissais les plus anciennes questions politiques : domicile ou exil ? Souverain ou sujet ? Maître ou esclave ? Tels sont les éternels problèmes du savoir, de l’autorité et du pouvoir qui ne sont jamais fixés pour toutes les époques. Il n’y a pas de fin de l’histoire ; chaque génération doit affirmer sa volonté et son imagination face aux nouvelles menaces qui exigent que l’affaire soit jugée à nouveau à chaque époque.
Dans les années qui ont suivi cette soirée, j’ai observé de près la numérisation du travail dans la papeterie. Comme je l’ai décrit dans In the Age of Smart Machine, le tournant vers les technologies de l’information a transformé l’usine en un « texte électronique » qui s’est placé au centre des attentions des travailleurs[1]. À la place des tâches manuelles associées aux matériaux et aux équipements bruts, faire « du bon boulot » revenait à suivre des données sur écran et à maîtriser les compétences requises pour comprendre, apprendre de et agir par ce texte électronique. Ce qui semble ordinaire aujourd’hui était alors extraordinaire.
J’ai soutenu alors que ces changements manifestes signalaient une transformation profonde et importante. Le principe organisateur de l’entreprise n’était plus la division du travail, mais la division du savoir. J’ai décrit ces femmes et ces hommes qui, à la surprise générale, parvenaient à acquérir de nouvelles compétences intellectuelles et à prospérer dans un nouvel environnement riche en informations, mais j’ai également observé des conflits violents, que l’on peut considérer comme des dilemmes du savoir, de l’autorité et du pouvoir.
Qui sait ?
Toute prise en compte de la division du savoir doit résoudre ces dilemmes, que l’on peut exprimer en trois questions fondamentales : la première question est : « Qui sait ? » Elle porte sur la distribution du savoir et des possibilités d’apprentissage. La deuxième question est : « Qui décide ? » Elle porte sur l’autorité : quelles personnes, institutions ou processus déterminent ceux qui bénéficient de l’apprentissage, ce qu’ils sont capables d’apprendre, et leur marge d’action en fonction de leur savoir. Quel est le fondement légitime de cette autorité ? La troisième question est : « Qui décide qui décide ? » Elle porte sur le pouvoir. Quelle est la source de pouvoir qui sous-tend l’autorité de partager ou non le savoir ?
Le jeune gérant finira par trouver des réponses à ses questions, mais elles ne correspondaient pas à ce que nous espérions. En dépit des luttes et des victoires des travailleurs de l’usine de papier, la conception du monde selon Hayek devenait hégémonique aux plus hauts niveaux politiques et les disciplines de fonctionnement de Jensen trouvaient un accueil favorable à Wall Street, qui a vite appris à les imposer à toute entreprise cotée en bourse. Il en résulta un modèle commercial de réduction des coûts au profit des investisseurs de Wall Street, qui insistait sur l’automatisation et la délocalisation des emplois plutôt que sur l’investissement dans les compétences numériques et les capacités du travailleur américain. À la question Qui sait ?, on a répondu par la machine, avec une élite de cadres capables de forger les outils analytiques permettant de résoudre les problèmes et d’extraire la valeur de l’information. À la question Qui décide ?, on a répondu par une forme de marché restreint et ses modèles commerciaux. Et, en l’absence de réaction de la part des institutions démocratiques et de la société civile, à la question Qui décide qui décide ?, on a répondu que c’était le capital financier, tenu par la discipline de la maximisation des dividendes.
Il n’est donc pas surprenant que, quelque quarante ans plus tard, un rapport de l’institut Brookings regrette que des millions de travailleurs américains soient « exclus de possibilités décentes de formation » face à « la numérisation fulgurante ». Le rapport exhorte les entreprises à « investir rapidement dans des stratégies de formation en technologies de l’information pour les travailleurs en place, sachant que les compétences numériques représentent un moyen important de gagner en productivité [2] ». À quoi ressemblerait notre société si les entreprises américaines avaient choisi d’investir dans les personnes autant que dans les machines ?
La plupart des entreprises ont préféré les machines intelligentes aux personnes intelligentes, favorisant le remplacement des agents humains par des machines et leurs algorithmes pour une large gamme de métiers, dont de plus en plus de professions éloignées de l’usine. Cela produit ce que les économistes appellent une « polarisation du marché du travail », avec des métiers très qualifiés et d’autres peu qualifiés aux deux extrémités, l’automatisation remplaçant la plupart des métiers qui étaient situés entre les deux. Bien que certains dirigeants d’entreprise, économistes et spécialistes des technologies décrivent ces développements comme des conséquences nécessaires et inévitables des technologies informatiques, des études montrent que la division du savoir dans le domaine économique reflète la force de l’idéologie, la politique, la culture et les structures institutionnelles néolibérales. Par exemple, en Europe continentale et du Nord, où des institutions démocratiques et des organisations de la société civile ont survécu sous une forme ou une autre, la polarisation du marché du travail est tempérée par des investissements massifs dans la formation de la main-d’œuvre qui rend la division du savoir plus inclusive et permet des produits et services innovants et de grande qualité[3].
La division du savoir dans le domaine économique de la production et de l’emploi est importante, mais elle ne constitue que le début d’une nouvelle lutte, plus générale, portant sur la division du savoir dans la société. Les dilemmes du savoir, de l’autorité et du pouvoir font sauter les murs de l’usine et bouleversent nos vies quotidiennes. Alors que les personnes, les processus et les choses sont réinventés comme informations, la division du savoir devient le principe d’organisation sociale prédominant de notre époque.
Le monde et nos vies
sont intégralement transformés en informations.
Par nos cartes de crédit et téléphones, par les caméras et capteurs qui prolifèrent dans les espaces privés et publics, des ordinateurs enregistrent et codifient presque tous les détails de nos vies quotidiennes. Plus rien n’échappe à l’écriture continue de ce nouveau texte électronique, qui se répand comme une énorme nappe de pétrole, engloutissant tout sur son passage : votre conversation au petit-déjeuner, les rues de votre quartier, la taille de votre salon, votre séance de jogging au parc.
Ainsi, le monde et nos vies sont intégralement transformés en informations. Que l’on se plaigne de son acné ou que l’on contribue à un débat politique sur Facebook, que l’on cherche une recette de cuisine ou une information sensible concernant la santé sur Google, que l’on commande de la lessive ou que l’on prenne des photographies avec son enfant de neuf ans, que l’on sourie ou que l’on soit en colère, que l’on regarde la télévision ou que l’on fasse une roue arrière sur un parking, tout ceci constitue du matériau brut pour le développement du texte. Le spécialiste de l’information Martin Hilbert et ses collègues font remarquer que même les éléments fondamentaux de la civilisation, comme « le langage, les ressources culturelles, les traditions, les institutions, les règles et les lois… sont en cours de numérisation et, pour la première fois, explicitement transformés en code visible », et ensuite rendus à la société à travers le filtre d’« algorithmes intelligents » déployés afin de remplir de plus en plus de fonctions commerciales, gouvernementales et sociales[4]. Nous sommes confrontés aux mêmes questions essentielles à chaque tournant : Qui sait ? Qui décide ? Qui décide qui décide ?
Le capital de la surveillance et les deux textes
Il existe des parallèles importants avec la fin du xixe siècle et le début du xxe siècle, quand la division du travail a émergé comme le principe majeur de l’organisation sociale dans les sociétés industrielles naissantes en Europe et en Amérique du Nord. Ces expériences peuvent nous guider et nous avertir des enjeux. Par exemple, quand le jeune Émile Durkheim écrit De la division du travail social, le titre même du livre est polémique. La division du travail avait été comprise comme un moyen décisif d’augmenter la productivité du travail par la spécialisation des tâches. Adam Smith avait écrit à propos de ce nouveau principe d’organisation industrielle dans sa description d’une manufacture d’épingles, et la division du travail était restée un thème de controverse pour la science économique tout au long du xixe siècle. Durkheim reconnaît que la productivité du travail est un impératif économique du capitalisme industriel qui va pousser la division du travail jusqu’au bout, mais ce n’est pas ce qui retient son attention.
Durkheim se concentre plutôt sur la transformation sociale qui s’opère sous ses yeux, le fait que la « spécialisation » gagne de « l’influence » en politique, dans l’administration, le monde judiciaire, la science et les arts. Il conclut que la division du travail n’est plus cantonnée au site de production industriel. Elle fait sauter les murs de l’usine pour devenir le principe organisateur de la société industrielle. « Quelque jugement qu’on porte sur la division du travail, écrit Durkheim, tout le monde sent bien qu’elle est et qu’elle devient de plus en plus une des bases fondamentales de l’ordre social [5]. »
Les impératifs économiques commandent de manière prévisible la division du travail dans la production, mais quel est le but de la division du travail dans la société ? Telle est la question qui motive l’analyse de Durkheim, et ses conclusions vieilles d’un siècle sont toujours pertinentes aujourd’hui. Pour lui, la division du travail explique les interdépendances et les rapports réciproques des divers membres d’une société industrielle dans une recherche plus générale de solidarité. Les rapports réciproques nourrissent le besoin, l’engagement et le respect mutuels, qui confèrent une force morale à ce nouveau principe organisateur.
Autrement dit, la division du travail est introduite dans la société au début du xxe siècle par les circonstances rapidement changeantes pour les nouveaux individus de la première modernité. Elle est une réponse fondamentale à leurs nouvelles « conditions d’existence ». Alors que des personnes comme mes arrière-grands-parents rejoignaient le monde moderne, s’effondraient les anciennes sources de sens qui avaient fait tenir les communautés dans le temps et l’espace. Qu’est-ce qui fera tenir la société en l’absence des règles et des rituels du clan et de la parenté ? La réponse de Durkheim est la division du travail. La cause est le besoin d’une nouvelle source cohérente de sens et de structure et l’effet, un principe d’organisation qui permet et soutient une communauté moderne saine. Comme l’explique le jeune sociologue, « le plus remarquable effet de la division du travail n’est pas qu’elle augmente le rendement des fonctions divisées, mais qu’elle les rend solidaires. Son rôle n’est pas simplement d’embellir ou d’améliorer les sociétés existantes, mais de rendre possibles des sociétés qui, sans elles, n’existeraient pas… Son résultat dépasse infiniment la sphère des intérêts purement économiques, car il consiste dans l’établissement d’un ordre social et moral sui generis[6] ».
La conception de Durkheim n’est ni stérile ni naïve. Il reconnaît que les choses peuvent mal tourner, et que cela arrive souvent, produisant ce qu’il appelle une division « anormale » ou « pathologique » du travail mettant de la distance sociale, de l’injustice et de la discorde à la place de la réciprocité et de l’interdépendance. Dans ce contexte, Durkheim identifie les effets destructeurs de l’inégalité sociale sur la division du travail dans la société, notamment ce qu’il considère comme la forme la plus dangereuse d’inégalité : les asymétries extrêmes de pouvoir qui rendent « la lutte même impossible ; on n’est même pas admis à combattre ». On ne peut remédier à de telles pathologies que par une politique qui affirme le droit de protester, de s’affronter à un pouvoir inégal et illégitime sur la société, et éventuellement de l’emporter. À la fin du xixe siècle et pendant la majeure partie du xxe siècle, cette lutte est menée par les mouvements de travailleurs et d’autres mouvements sociaux qui défendent l’égalité sociale par le moyen d’institutions comme la négociation collective et l’éducation publique.
La transformation que nous connaissons à notre époque fait écho à ces observations historiques dans la mesure où la division du savoir suit le même chemin que la division du travail : du domaine économique au domaine social. Aujourd’hui, la division du savoir « dépasse infiniment la sphère des intérêts purement économiques » et constitue le fondement de notre ordre social et de son contenu moral.
La division du savoir est à nous, membres de la seconde modernité, ce que la division du travail était à nos grands-parents et arrière-grands-parents, pionniers de la première modernité. De nos jours, la division du savoir émerge depuis la sphère économique pour devenir un nouveau principe d’organisation sociale et témoigne de la primauté de la formation, de l’information et du savoir dans la quête contemporaine pour une vie effective. Et comme Durkheim prévenait sa société il y a un siècle, nos sociétés sont aujourd’hui menacées par la dérive de la division du savoir vers le pathologique et l’injustice, prise dans des asymétries inédites de savoir et de pouvoir que le capitalisme de la surveillance a créées.
La maîtrise de la division du savoir par le capitalisme de la surveillance commence par ce que j’appelle le problème des deux textes. Les mécanismes spécifiques de cette forme de capitalisme imposent la production, non pas d’un, mais de deux « textes électroniques ». En ce qui concerne le premier texte, nous sommes ses auteurs et ses lecteurs. Ce texte est public, familier et célébré pour l’univers d’informations et d’associations qu’il met à notre portée. Une grande partie de ce texte public est composée de ce que nous y inscrivons : nos publications, blogs, vidéos, photos, conversations, musiques, histoires, observations, likes, tweets et tout le grand brouhaha de nos vies enregistrées et communiquées.
Sous le régime du capitalisme de la surveillance, toutefois, ce premier texte n’est pas seul ; il porte un fantôme avec lui. Le premier texte, plein de promesses, fonctionne en réalité comme une source d’approvisionnement pour le second : le texte fantôme. Toute contribution au premier texte, aussi banale ou passagère soit-elle, fait l’objet d’une extraction d’un excédent qui vient remplir les pages du second texte. Ce dernier demeure caché, sous embargo, sauf pour les capitalistes de la surveillance. Dans ce texte, notre expérience est une matière première accumulée et analysée pour servir les finalités commerciales des autres. Le texte fantôme est une accumulation croissante d’excédent comportemental et de ses analyses ; il révèle plus sur nous-mêmes que nous ne pouvons savoir. Pis, il devient de plus en plus difficile et sans doute impossible de se retenir d’y contribuer. Il se nourrit de notre expérience de manière automatique, tandis que nous participons, normalement et nécessairement, aux routines sociales.
La division du savoir a déjà été prise en otage par le capitalisme de la surveillance.
La manière dont les capitalistes de la surveillance mettent en œuvre ce qu’ils apprennent de leur texte fantôme exclusif pour façonner le texte public de leurs intérêts est encore plus énigmatique. Il y a eu de nombreuses révélations sur les manipulations de l’information par Google et Facebook. Pour le moment, je me contenterai de souligner que les algorithmes de Google et de Facebook sélectionnent et ordonnent les résultats de recherche et les publications du flux d’informations. Dans les deux cas, des chercheurs ont montré que ces manipulations reflètent les objectifs commerciaux de chaque entreprise. Comme l’écrit le juriste Frank Pasquale, « les décisions du Googleplex sont prises derrière des portes closes… le pouvoir d’inclure, d’exclure ou de classer est le pouvoir de s’assurer quelles traces du public deviennent permanentes et lesquelles sont effacées… Malgré leur prétention à l’objectivité et à la neutralité, ces entreprises prennent constamment des décisions qui sont contestables et chargées de valeur [7] ». En ce qui concerne le texte fantôme, les lois de la dynamique du capitalisme de la surveillance imposent à la fois le secret et la croissance continue. Nous sommes les objets de ses récits, mais nous sommes exclus de ses leçons. En tant que nous sommes la source de ce trésor, le second texte est à propos de nous, mais il n’est pas pour nous. Il est plutôt créé, maintenu et exploité, sans que nous en ayons conscience, au profit des autres.
Ainsi, la division du savoir est le principe dominant de l’organisation sociale dans notre civilisation de l’information, mais elle a déjà été prise en otage par le capitalisme de la surveillance, grâce à sa position privilégiée de principal compositeur, propriétaire et gardien de ces textes. La capacité du capitalisme de la surveillance à corrompre et à contrôler ces textes produit des asymétries de savoir inédites qui fonctionnent précisément comme Durkheim le craignait : les libertés accordées à cette forme de marché et le caractère illisible de son action lui ont permis d’imposer un contrôle important sur la division du savoir sans que nous en prenions conscience et sans que nous puissions nous y opposer. Pour revenir aux trois questions fondamentales, le capital de la surveillance a recueilli le pouvoir et revendiqué l’autorité de fournir toutes les réponses. Mais l’autorité ne suffisant pas, le capital de la surveillance maîtrise aussi l’infrastructure matérielle et l’expertise requises pour dominer la division du savoir dans la société.
Un nouveau clergé
Les scientifiques nous préviennent que la capacité du monde à produire de l’information a largement dépassé sa capacité à la traiter et à la conserver. Notre mémoire technologique a en effet plus ou moins doublé tous les trois ans. En 1986, seul 1 % de l’information mondiale est numérisé, 25 % en 2000. En 2013, le progrès de la numérisation et de la « datafication » (l’application d’un logiciel qui permet à des ordinateurs et à des algorithmes de traiter et d’analyser des données brutes), combiné à de nouvelles technologies de conservation moins onéreuses, a permis de traduire 98 % de l’information en format numérique.
L’information est numérique, mais son volume dépasse notre capacité à saisir sa signification. L’expert en information Martin Hilbert prodigue le conseil suivant : « La seule possibilité qu’il nous reste pour donner du sens à toutes ces données est de combattre le mal par le mal », d’employer « des ordinateurs à l’intelligence artificielle » afin de « cribler les énormes masses d’informations [8] ». L’essor du capitalisme de la surveillance ne peut que transformer le conseil de Hilbert en une proposition dangereuse. Quelle que soit son intention, Hilbert renforce la position privilégiée des capitalistes de la surveillance et le pouvoir asymétrique qui leur permet de détourner la division du savoir à leur profit.
Le pouvoir asymétrique de Google s’appuie sur des ressources sociales : ses communiqués, ses fortifications défensives, son exploitation du droit, l’héritage de l’exceptionnalisme de la surveillance, les fardeaux qui pèsent sur les individus de la seconde modernité, etc. Mais son pouvoir serait inefficace sans la gigantesque infrastructure matérielle que les revenus de la surveillance lui ont permis d’acheter. Google est le pionnier des calculs à très grande échelle (hyperscale), grâce au « plus grand réseau d’ordinateurs sur Terre[9] ». On trouve les calculs à très grande échelle dans les entreprises qui traitent d’importants volumes d’informations, telles que les compagnies de télécommunication et de transferts d’argent internationaux, où les centres de données requièrent des millions de « serveurs virtuels » qui augmentent les capacités de calcul de manière exponentielle sans accroître la demande en espace physique, en refroidissement ou en énergie électrique. L’intelligence mécanique au cœur de la formidable domination de Google est « à 80 % infrastructurelle », et comprend des centres de données sur mesure de la taille d’entrepôts répartis sur quinze sites et quatre continents, avec quelque deux millions cinq cent mille serveurs en 2016.
Les investisseurs considèrent que Google est « encore plus difficile à arrêter que jamais » parce qu’il est inégalé dans sa combinaison d’infrastructures et de science. Google est connu comme une « entreprise d’ingénierie en intelligence artificielle » qui « forme ses propres algorithmes, fonctionnant sur ses propres puces, déployés sur ses propres serveurs ». Sa domination est encore renforcée par le volume de données dont il dispose. En 2013, l’entreprise a compris que son tournant vers « les réseaux neuronaux », la nouvelle frontière de l’intelligence artificielle, allait substantiellement augmenter ses demandes en calcul et requérir un doublement de ses centres de données. Urs Hözle, le vice-président des infrastructures techniques de Google, le formule ainsi : « Le petit secret derrière l’intelligence artificielle est qu’elle requiert un nombre insensé de calculs simplement pour former le réseau. » Si l’entreprise avait essayé de traiter la surcharge de travail par des processeurs centraux (CPU) traditionnels, explique-t-il, « nous aurions eu à doubler l’empreinte totale de Google – centres de données et serveurs – pour seulement faire deux ou trois minutes de reconnaissance vocale par usager d’Android par jour[10] ».
Étant donné les coûts des centres de données et de l’énergie, Google a trouvé une voie pour échapper à la crise d’infrastructure. En 2016, il a annoncé le développement d’une nouvelle puce dédiée à « l’inférence d’apprentissage profond », appelée processeur à tension (TPU). Le processeur à tension augmente considérablement l’intelligence des machines de Google, consomme une petite fraction de l’énergie requise pour les processeurs existants et réduit la dépense de capital et le budget opérationnel, tout en apprenant plus et plus vite.
Google/Alphabet est l’acquéreur de technologies et de talents en intelligence artificielle le plus agressif sur le marché. En 2014-2016, il a acheté neuf entreprises d’intelligence artificielle, soit deux fois plus que son principal concurrent Apple[11]. La concentration de talents en intelligence artificielle à Google reflète une tendance plus générale. En 2017, on estime que les entreprises américaines ont alloué plus de 650 millions de dollars pour alimenter la course aux talents en intelligence artificielle, avec plus de 10 000 emplois disponibles. Les cinq plus grandes entreprises de technologie disposent d’assez de capital pour évincer leurs concurrents : start-ups, universités, municipalités, entreprises établies dans d’autres industries et pays plus pauvres[12]. En Grande-Bretagne, les administrateurs d’université parlent déjà d’une « génération perdue » d’experts en méga-données. Les gros salaires dans les entreprises de technologie sont tellement attractifs qu’il n’y a plus personne pour enseigner à la nouvelle génération d’étudiants. Comme l’explique un expert, « le véritable problème est que l’intelligence et l’expertise sont concentrées sur un petit nombre d’entreprises[13] ».
Grâce à ses efforts de recrutement extravagants, Google a triplé le nombre de ses experts en intelligence des machines au cours des dernières années et est devenu le contributeur principal des revues scientifiques les plus prestigieuses – quatre à cinq fois la moyenne mondiale en 2016. Sous le régime du capitalisme de la surveillance, les scientifiques de l’entreprise ne sont pas recrutés pour lutter contre la faim dans le monde ou éliminer les énergies carbones. Leur génie est plutôt censé percer les mystères de l’expérience humaine, la transformer en données et la traduire en un nouveau colosse commercial qui crée de la richesse par la prédiction, l’influence et le contrôle des comportements.
Il y a plus de six cents ans, l’imprimerie a mis l’écrit aux mains des gens ordinaires, en sauvegardant les prières, en contournant le clergé et en permettant une communion spirituelle directe des fidèles. Il nous semble acquis qu’Internet assure une diffusion inédite de l’information, remplissant la promesse de plus de connaissance pour plus de personnes : une force démocratique puissante qui accomplit la révolution de Gutenberg dans la vie de milliards d’individus. Mais cet accomplissement grandiose nous a aveuglés sur un autre développement historique, qui a lieu hors de notre portée et à l’abri des regards, et qui vise à exclure, brouiller et obscurcir. Par ce mouvement caché, la lutte concurrentielle pour les revenus de la surveillance revient à un ordre d’avant Gutenberg, dès lors que la division du savoir dans la société tend vers le pathologique, capturée par un clergé étroit de spécialistes en informatique employés dans le privé, leurs machines privées et les intérêts économiques au nom desquels elles apprennent.
La privatisation de la division du savoir
dans la société
La division du savoir dans la société a été prise en otage par le capitalisme de la surveillance. En l’absence d’un double mouvement ferme par lequel les institutions démocratiques et la société civile rattachent le capitalisme de l’information brute aux intérêts du peuple – même imparfaitement –, nous sommes renvoyés à la forme du marché des entreprises capitalistes de la surveillance dans la plus importante des compétitions pour la division du savoir dans la société. Les experts dans les disciplines associées à l’intelligence des machines le savent, mais ils n’en saisissent pas les conséquences plus générales. Ainsi, l’ingénieur en méga-données Pedro Domingos écrit : « Celui qui a les meilleurs algorithmes et le plus de données a gagné… Google, avec sa longueur d’avance et une plus grande part de marché, sait mieux que vous ce que vous voulez… celui qui apprend le plus vite a gagné [14]… » Le New York Times rapporte que le Pdg de Google, Sundar Pichai, partage désormais son étage avec le laboratoire de recherche en intelligence artificielle de l’entreprise et note que c’est une tendance qui s’observe chez de nombreux Pdg : une acception littérale de la concentration du pouvoir[15].
Il y a près de trente ans, le juriste Spiros Simitis a publié un essai précurseur sur le thème de la confidentialité dans la société de l’information. Simitis comprend très tôt que les tendances déjà observables dans « le traitement de l’information », privé et public, présente des risques pour la société qui débordent les conceptions étroites de la confidentialité et de la propriété des données : « Les informations personnelles sont de plus en plus utilisées pour renforcer des normes de comportements. Le traitement de l’information contribue à des stratégies à long terme visant à façonner et ajuster la conduite individuelle[16]. » Simitis a soutenu que ces tendances étaient incompatibles, non seulement avec le respect de la vie privée, mais aussi avec la possibilité même de la démocratie, qui dépend d’un ensemble de capacités individuelles associées à l’autonomie du jugement moral et à l’auto-détermination.
S’appuyant sur le travail de Simitis, Paul M. Schwartz prévient en 1989 que l’informatisation va transformer le fragile équilibre des droits et des devoirs sur lequel repose le respect de la vie privée : « Aujourd’hui, les énormes quantités de données personnelles disponibles sur les ordinateurs menacent l’individu d’une manière qui rend obsolète une grande partie des protections juridiques existantes. » Plus encore, Schwartz avertit que l’ampleur de la crise, qui ne fait alors que commencer, impose des risques qui débordent le cadre du droit au respect de la vie privée : « Le danger que pose l’ordinateur concerne l’autonomie humaine. Plus on connaît une personne, plus il est facile de la contrôler. Garantir la liberté qui nourrit la démocratie exige de réguler l’usage social de l’information et même d’autoriser une certaine dissimulation de l’information[17]. »
Simitis et Schwartz ont tous les deux pris conscience de l’essor de la division du savoir comme principe central du nouveau milieu social de l’informatisation, mais ils n’ont pas anticipé l’émergence du capitalisme de la surveillance et de ses effets. Bien que la croissance explosive du continent de l’information fasse bouger un axe crucial de l’ordre social, de la division du travail du xxe siècle vers la division du savoir du xxie siècle, ce sont les capitalistes de la surveillance qui règnent sur ce champ et qui s’octroient une part disproportionnée des droits de décider qui façonne la division du savoir dans la société.
Le capitalisme de la surveillance
est profondément antidémocratique.
Les actions de dépossession numérique par les capitalistes de la surveillance imposent un nouveau genre de contrôle sur les individus, les populations et des sociétés entières. La vie privée des individus est la victime de ce contrôle et sa défense exige de repenser le discours, le droit et le raisonnement juridique concernant la vie privée. « L’atteinte à la vie privée » est désormais une dimension prévisible de l’inégalité sociale, même si ce n’est pas la seule. Elle est le résultat systématique d’une division « pathologique » du savoir dans la société, pour laquelle le capitalisme de la surveillance sait, décide et décide qui décide. Exiger le respect de la vie privée de la part des capitalistes de la surveillance ou faire campagne en faveur de la fin de la surveillance commerciale sur Internet, c’est comme demander à Henry Ford de fabriquer chaque modèle T à la main ou à une girafe de raccourcir son cou : de telles exigences menacent leur existence. Elles violent les mécanismes et les lois fondamentales du mouvement qui produisent les concentrations à la Léviathan de savoir, de pouvoir et de richesse de ce marché.
L’enjeu est donc celui-ci : le capitalisme de la surveillance est profondément antidémocratique, mais son remarquable pouvoir ne trouve plus son origine historique dans l’État. On ne peut expliquer ses effets par la technologie ou les mauvaises intentions de méchantes personnes ; elles sont des conséquences cohérentes et prévisibles d’une logique d’accumulation réussie. Le capitalisme de la surveillance a assuré sa domination aux États-Unis dans des conditions de vide juridique relatif. De là, il s’est étendu à l’Europe, et il continue de réaliser des percées dans toutes les régions du monde. Les entreprises du capitalisme de la surveillance, à commencer par Google, dominent l’accumulation et le traitement de l’information, en particulier sur le comportement humain. Elles connaissent beaucoup de choses nous concernant, mais notre accès à leur connaissance est limité : leur connaissance reste cachée dans le texte fantôme et lue seulement par les nouveaux prêtres, leurs patrons et leurs machines.
Cette concentration inédite de savoir produit une concentration également inédite de pouvoir : les asymétries doivent se comprendre comme la privatisation illicite de la division du savoir dans la société. Autrement dit, des intérêts privés puissants contrôlent le principe déterminant de l’ordre social de notre époque, comme, pour Durkheim il y a un siècle, les forces puissantes du capital industriel ont subverti la division du travail. Dans la situation contemporaine, ce sont les entreprises capitalistes de la surveillance qui savent. C’est la forme du marché qui décide. C’est la concurrence entre capitalistes de la surveillance qui décide qui décide.
Traduit de l’anglais (États-Unis) par Jonathan Chalier
[1] - Shoshana Zuboff, In the Age of Smart Machine: The Future of Work and Power, New York, Basic Books, 1988.
[2] - Mark Muro, Sifan Liu, Jacob Whiton et Siddarth Kulkarni, “Digitalization and the American workforce”, Washington, Metropolitan Policy Program, Brookings Institution, novembre 2017.
[3] - Voir Kathleen Thelen, Varieties of Liberalization and the New Policits of Social Solidarity, -Cambridge, Cambridge University Press, 2014.
[4] - Martin R. Gillings, Martin Hilbert et Darell J. Kemp, “Information in the biosphere: biological and digital worlds”, Trends in Ecology and Evolution, vol. 31, n° 3, 2016.
[5] - Émile Durkheim, De la division du travail social [1893], Paris, Presses universitaires de France, 2013.
[6] - Ibid.
[7] - Frank Pasquale, The Black Box Society: The Secret Algorithms that Control Money and Information, Cambridge, Harvard University Press, 2015, p. 60-61.
[8] - Martin Hilbert, “Toward a synthesis of cognitive biases”, Psychological Bulletin, vol. 138, n° 2, 2012.
[9] - Paul Borker, “What is hyperscale?”, Digital Reality, 2 février 2018.
[10] - GeekWire, 15 novembre 2017.
[11] - Information, 10 janvier 2017.
[12] - Cade Metz, “Tech giants are paying huge salaries for scarce AI talent”, The New York Times, 22 octobre 2017.
[13] - Ian Sample, “Big tech firms’ AI frenzy leads to brain drain at UK universities”, The Guardian, 2 novembre 2017.
[14] - Pedro Domingos, The Master Algorithm: How the Quest for the Ultimate Learning Machine Will Remake Our World, New York, Basic Books, 2015.
[15] - Cade Metz, “Why AI researchers at Google got desks next to the boss”, The New York Times, 19 février 2018.
[16] - Spiros Simitis, “Reviewing privacy in an information society”, University of Pennsylvania Law Review, vol. 135, n° 3, 1987, p. 710.
[17] - Paul M. Schwartz, “The computer in German and American constitutional law: Towards an American right of informational self-determnation”, American Journal of Comparative Law, n° 37, 1989, p. 676.