Do not follow this hidden link or you will be blocked from this website !

Dans le même numéro

L'État et l'internet. Un cousinage à géométrie variable

juillet 2011

#Divers

Le développement de l’internet pose désormais des problèmes liés à son architecture. Il faut gérer l’encombrement des connexions, sanctionner les comportements déviants et limiter l’usage commercial des données personnelles. Mais comment construire des régulations pour un réseau qui est par nature global et supranational ?

Lorsqu’on évoque les acteurs de l’internet, les États semblent tenir une place réduite. On pense aux opérateurs, aux internautes passifs et actifs, aux adeptes du partage numérique, aux intermittents du piratage et aux pirates professionnels, aux entreprises, aux associations, etc. On oublierait presque qu’il existe une régulation de l’internet ainsi que des organismes de normalisation. On oublierait aussi que l’État a intégré à sa politique industrielle une politique du numérique et de l’internet. Celle-ci va de la question des infrastructures à celle des contenus, en passant par les incidences du numérique sur l’ensemble des processus de travail et sur l’organisation industrielle qui en résulte. Les activités en jeu sont considérables : avec un chiffre d’affaires annuel de 660 milliards d’euros, les technologies de l’information et de la communication représentent 5 % du produit intérieur brut européen. Elles ont contribué pour moitié à l’augmentation des gains de productivité en Europe sur la période 1990-20101. Dans le seul secteur des communications électroniques, le marché européen est passé de 140 milliards d’euros en 1998 à plus de 350 milliards en 2011 ; le nombre d’abonnements de téléphonie mobile en France a crû de 40 000 en 1996 à plus de 63 millions en 2011 : 4 % des foyers étaient connectés à l’internet en 1998 contre 71 % en 20112. Ajoutons à ce paysage le fait que la diffusion de la culture et du savoir appelle, sous plusieurs aspects, une régulation de l’internet.

À la vision libertaire d’un espace numérique sans Dieu ni maître, s’oppose celle d’un État qui parviendrait à réguler par la censure, ou encore celle du Big Brother qui sait tout de chacun et piste nos faits, nos gestes et jusqu’à nos pensées. Entre ces trois postures, s’immiscent les deux figures plus rassurantes de l’autorégulation et de la coopération. José Do-Nascimento relève l’hétérogénéité des visions de la régulation de l’internet. Il en distingue quatre : une vision libertaire du côté des partisans de la régulation acéphale, qui revient au refus de l’intervention. La vision contractuelle est partagée par les partisans de l’autorégulation, et elle est sans doute proche de la vision coopérative de ceux qui prônent la corégulation. Reste enfin la vision réglementaire des partisans de la « régulation impérative3 ». On pourrait aussi opposer une vision technologique, qui entend réguler a minima sur le plan des standards et des normes, une vision industrielle, qui vise à soutenir les développements apportant de la croissance, et une vision plus politique et sociétale, empreinte du souci de la diffusion du savoir, sachant que les unes s’imbriquent aux autres et qu’il n’est pas de vision technologique et industrielle qui ne revête en sous-main des préoccupations culturelles, politiques et sociales.

L’Internet Corporation for Assigned Names and Numbers (Icann) est en quelque sorte l’échelon suprême de la régulation, théoriquement transnational, de statut associatif (privé mais non lucratif), fondé sur un partenariat public-privé, et largement dominé par les États-Unis. Il a la charge de la normalisation technique (standardisation, adressage et nommage). C’est le champ incontournable de la régulation, avec ses arborescences. Au niveau national, la régulation revêt d’autres aspects. Après avoir décrit l’écosystème des technologies de l’information et de la communication (Tic) et les questions que son architecture soulève, on développera trois faces de la régulation : la gestion de l’encombrement, les sanctions qui peuvent être mises en œuvre contre certains des comportements désignés comme déviants, et les contre-feux destinés à limiter l’usage commercial des données personnelles. Dans tous les cas, apparaît la double nature de l’internet et de ses outils, qui tel le pharmacon, selon l’étymologie, est poison et remède à la fois4.

Notons dès à présent que la complexité de la régulation procède de ce qu’elle s’opère largement au niveau des États mais que l’internet est par nature global, supranational : si la régulation relève in fine des États nationaux, ceux-ci peuvent être frappés d’impuissance face à la volatilité de l’internet. Lois et règlements rencontrent des difficultés d’application qui questionnent l’idée même de régulation.

Les quatre couches de l’écosystème des Tic

L’écosystème des Tic se compose de quatre « couches » : la couche des producteurs d’éléments de réseaux et de terminaux, celle des opérateurs de réseaux, celle des fournisseurs de services et des plates-formes d’intermédiation sur l’internet, et enfin la couche des producteurs et éditeurs de contenus audiovisuels5. Le premier niveau regroupe des entreprises qui produisent les équipements de télécommunications (équipements de transmission, commutateurs, routeurs et serveurs), fabriquent des téléphones fixes et mobiles, des micro-ordinateurs, des lecteurs MP3, des appareils photos numériques et des télévisions, ainsi que des logiciels. On trouve des groupes tels qu’Alcatel, Apple, Nokia, Sony, etc. La couche 2 comprend des opérateurs « historiques », tels AT&T et France Telecom, ainsi que des fournisseurs d’accès à l’internet arrivés ultérieurement (tel Free), des opérateurs de téléphonie mobile (comme Vodafone), des opérateurs de réseaux de télévision pouvant être des câblo-opérateurs (comme Time Warner) et des opérateurs de télévision par satellite (Direct TV). Quant aux intermédiaires, ils regroupent des moteurs de recherche (Google ou Yahoo), des vendeurs en ligne (Amazon, eBay, Expedia, etc.) ainsi que des réseaux sociaux comme Facebook. La couche 4 rassemble enfin les fournisseurs de contenus avec des producteurs historiques tels Disney, Canal Plus ou Hachette, mais aussi les internautes eux-mêmes lorsqu’ils autoproduisent leurs créations6.

Comment caractériser la relation entre chacune de ces couches ? Les équipements et terminaux sont intégrés ou connectés aux réseaux de communications opérés par les entreprises de la couche 2, chargées de créer les infrastructures indispensables. En 2011, on évoque en France un besoin sur dix ans de 30 à 40 milliards d’euros afin de couvrir le territoire de réseaux de fibre optique. Selon une étude de Rexecode, ce déploiement rapporterait 0, 2 point de croissance par an, mais les opérateurs de réseaux hésitent car « les revenus de l’utilisation des réseaux par les intermédiaires [Google, etc.] leur échappent largement7 ». En effet, les intermédiaires utilisent les réseaux des opérateurs afin de proposer leurs services aux consommateurs. Quant aux fournisseurs de contenus, ils transitent en large partie par les intermédiaires afin de diffuser ou de distribuer leurs produits. L’imbrication des quatre niveaux pose deux questions : la tendance à la concentration et le partage de la valeur.

La concentration s’oriente dans deux directions. Elle est d’abord horizontale et se développe au niveau de chaque couche. Les économies de réseaux sont en effet des économies oligopolistiques : la valeur du réseau dépend du nombre de ses utilisateurs. Les industries des télécommunications se caractérisent par des coûts fixes très élevés et irrécouvrables (au sens où ils ne pourraient être récupérés pour d’autres activités) et des économies d’échelle infinies (au sens où les coûts marginaux diminuent avec la taille des entreprises, cette caractéristique conférant un avantage « naturel » à l’entreprise de grande taille). Afin de mettre fin au monopole, de stimuler l’innovation et de réduire les prix pratiqués, la France ouvre le secteur de la téléphonie fixe à la concurrence en 1996.

On retrouve cette tendance à la concentration chez les intermédiaires comme Amazon, dont l’intérêt est d’accroître leur part de marché comme le spectre de leur commerce ; on a pu voir lors du lancement du livre numérique aux États-Unis la manière dont le pouvoir de marché du groupe lui permettait de vendre des livres à perte afin de lancer sa tablette de lecture, le Kindle, dans une optique de verrouillage technologique et commercial (une fois le matériel acquis, l’achat de livres ne peut s’effectuer que sur un magasin dédié).

Mais l’imbrication des quatre couches pousse aussi à l’intégration verticale, c’est-à-dire à l’acquisition et l’occupation de positions sur toute la chaîne de valeur. En effet, certains maillons bénéficient des investissements consentis par d’autres acteurs de la chaîne de valeur sans qu’ils y contribuent, ce qui leur permet d’effectuer des opérations d’intégration/diversification à partir de capacités de trésorerie considérables : c’est l’exemple emblématique de Google qui glisse de l’activité initiale de moteur de recherche vers l’offre de messagerie (Gmail), le marché des contenus (Google Maps, Youtube, Google Edition), les systèmes d’exploitation (Android) et les réseaux sociaux (Google Buzz). Les économies d’échelle se combinent avec les économies de gamme (baisse des coûts unitaires avec la montée de la gamme des biens offerts).

Comment se produit le partage de la valeur ? On peut avancer que c’est au niveau des intermédiaires qu’il est possible de capter une part croissante de la valeur créée. Les intermédiaires se trouvent en position de free rider, qui, par analogie avec le resquilleur dans les transports en commun, bénéficie d’un bien ou d’un service sans avoir participé à son financement. L’usage des infrastructures afin de vendre des biens et de diffuser des contenus d’un côté, et de vendre des espaces publicitaires de l’autre côté, constitue la clé du business model de ces intermédiaires, en particulier en cas de gratuité du bien ou du service proposé. C’est la logique des marchés bifaces qui est alors à l’œuvre. L’intermédiaire propose en effet deux catégories de biens à deux clientèles distinctes. Le prix de l’espace publicitaire est corrélé au nombre des acheteurs/utilisateurs du premier bien ; c’est un modèle documenté de longue date dans le champ de l’audiovisuel8. Les intermédiaires cherchent aussi à développer des comportements de free riders vis-à-vis de l’industrie des contenus en diffusant des œuvres sans avoir contribué à leur financement (cas de Google avec la presse et l’édition par exemple9).

La régulation joue un rôle très inégal selon les niveaux. À la surréglementation qui porte sur les infrastructures (couches 1 et surtout 2), au poids des questions de propriété intellectuelle qui portent sur l’aval (couche 4), il faut opposer la quasi-absence de réglementation au niveau de l’intermédiation (couche 3), alors que les enjeux sont considérables. On peut en mentionner au moins trois aspects : (ir)respect des données personnelles, contournement et parfois violation du droit de la propriété intellectuelle, nomadisme fiscal. Cette sous-réglementation ou du moins cette incapacité à imposer une réglementation de la couche 3 a sans doute un effet positif sur la propension à innover à ce niveau ; elle force aussi les acteurs de la couche 4, celle des producteurs de contenus, à inventer de nouveaux modèles d’affaires, notamment par le biais de certaines formes de désintermédiation.

Deux facteurs additionnels contribuent au pouvoir économique des intermédiaires : la faiblesse des coûts d’entrée, et la possibilité de capter une part de la valeur créée dans les autres couches de l’écosystème des Tic, notamment grâce au sacro-saint principe de la neutralité de l’internet.

La neutralité de l’internet, un vrai/faux débat ?

Le débat est venu des États-Unis ; il procède de la croissance spectaculaire de l’offre et des usages en mobilité. Les opérateurs doivent gérer le trafic sur leur infrastructure, face à un risque de congestion. Comme sur les autoroutes, le surencombrement peut donner lieu à trois comportements disjoints de la part des pouvoirs publics. Le premier, le laisser-faire en quelque sorte, consiste à tabler sur la patience obligée du conducteur. Le deuxième consiste en une régulation de l’entrée sur l’autoroute, en demandant à certaines catégories de véhicules de ne pas rouler à certaines heures, ou en réservant une voie aux véhicules prioritaires dont le décideur public définit la liste. Il est enfin possible d’adopter une régulation marchande, qui consiste en l’instauration d’un péage qui décourage certains usagers.

L’analogie avec l’internet revêt ses limites : le transport de l’immatériel n’est pas contraint de la même manière qu’une autoroute. On retrouve toutefois les trois possibilités. Rester neutre et laisser faire, de sorte que la qualité du service devient moindre à certains moments ; cette solution « étale » la baisse de qualité sur l’ensemble des utilisateurs. La deuxième option réside dans la définition et l’application de règles, de « bonnes pratiques », comme on dit aujourd’hui, par l’affichage par exemple d’une liste de sites prioritaires basée sur des critères sociaux. Cette idée de faire le tri entre différentes sources de trafic requiert l’intervention d’une autorité de régulation indépendante, telle l’Autorité de régulation des communications électroniques et des postes (Arcep) en France. La troisième option est la régulation marchande : la priorité est accordée aux utilisateurs ayant accepté de payer leur abonnement plus cher. Les opérateurs proposent donc des menus de qualité différente avec des prix différents. C’est la logique des offres dites premium ; pour l’économiste, la solution est rationnelle : on agit en sorte que les consommateurs révèlent leur consentement à payer, dans une double logique de régulation des flux et d’optimisation des recettes. La solution est marchande, mais le régulateur intervient. C’est à lui de s’assurer qu’est proposée une qualité de base suffisante, c’est-à-dire un accès minimum garanti à tout usager. Faut-il encore définir ce que ce « minimum » doit signifier.

Nicolas Curien, membre de l’Arcep, et Winston Maxwell, avocat, prônent une quasi-neutralité en arguant que la neutralité est un principe qui doit s’accommoder de la nécessité de gérer le trafic10. Mais au-delà de ses aspects techniques et financiers, la question revêt un aspect déontologique et politique. En effet, la levée de la neutralité peut conduire à une double hiérarchisation : celle qui consiste à privilégier un service internet premium plus rapide et plus fiable pour ceux qui peuvent en assumer les tarifs, et celle qui consiste à introduire une discrimination entre les sites, de sorte que l’on en vient à flirter avec l’ingérence dans les contenus. La limitation de la neutralité est ainsi suspectée de favoriser la restriction, par les opérateurs, des échanges entre utilisateurs, alors même que le régulateur est sommé de garantir le droit à l’information, la liberté de créer une start-up et d’innover sur l’internet, la liberté du consommateur de choisir son fournisseur d’accès, l’accès aux services prioritaires. Aux États-Unis, les opérateurs télécom souhaitent lever la neutralité afin d’optimiser leurs revenus dans une logique de « priorisation payante ». Les fournisseurs de contenu les plus puissants y sont rétifs, même si certains d’entre eux peuvent espérer tirer leur épingle du jeu en payant pour bénéficier d’un régime de faveur11.

La question de la levée de la neutralité est d’autant plus polémique que la congestion est désignée par les adversaires de la « priorisation payante » comme un résultat de la montée du streaming et d’un trafic centré sur des plates-formes type Google ou Youtube au détriment du P2P, qui, lui, ne génère pas de congestion. Le débat sur la neutralité cesse alors d’être neutre et dérive vers les eaux troubles du piratage.

La lutte contre le piratage. Conflit générationnel ou déficit de légitimité ?

On ne reviendra pas ici sur la longue polémique qui a entouré la question de la lutte contre le piratage. En France, un premier débat a opposé les tenants d’une licence globale, sorte de droit au téléchargement illimité payé en amont de la consommation, au niveau de l’abonnement auprès d’un fournisseur d’accès, et les tenants d’autres systèmes. L’adoption de la loi sur le piratage12 et son application après de longues tergiversations, avec notamment la création de la Haute autorité pour la diffusion des œuvres et la protection des droits sur internet (Hadopi13) sont trop récentes pour être évaluées.

Trois remarques peuvent toutefois être faites. Tout d’abord, la loi Hadopi marque une rupture entre le droit et les usages effectifs : elle prend à contre-pied les leçons qu’on peut tirer du constat de l’évolution relative du consentement à payer pour les œuvres d’un côté, et pour les matériels et les abonnements d’un autre côté. On observe une montée des dépenses pour les seconds au détriment des premières14, de sorte que la loi dont l’objectif, en pénalisant le piratage, est d’inciter l’internaute à se tourner vers des consommations payantes, néglige la réalité de pratiques installées de longue date. L’inquiétude devant la difficulté à infléchir les comportements a conduit à la mise en place d’incitations plus positives, telle une « carte musique » pour les jeunes, qui consiste à doubler la somme que le jeune est prêt à dépenser pour du téléchargement. Au risque de ne générer que des effets d’aubaine, s’ajoute le constat d’un effet de subvention indirecte au plus gros site légal de téléchargement, l’Apple Store.

Le deuxième point a trait à la position des artistes. Dans leur étude, Maya Bacache-Beauvallet, Marc Bourreau et François Moreau montrent que malgré l’effondrement des ventes de musique enregistrée depuis 2003, la condition moyenne des artistes, et la condition des plus riches d’entre eux, ne se sont pas dégradées. Les artistes ont investi le champ du numérique en développant de nouvelles pratiques et en accentuant la part de leurs activités dans le champ du spectacle vivant :

Si l’innovation numérique présente des risques dont fait partie le piratage, elle a également créé des opportunités en termes de création (mixage et test de création musicale par de nouveaux instruments, pratique du home studio), de distribution (diffusion et promotion des œuvres par internet) et de production (autoproduction15).

L’étude témoigne de la diversité des positions et des opinions des artistes vis-à-vis du piratage, selon leur niveau d’appropriation des possibilités offertes par le numérique et leur capacité, pour les musiciens interprètes, à faire de la scène.

Le troisième point renvoie à la tension qui peut exister entre diffusion de la culture et du savoir et protection des œuvres. Le mode de résolution de cette tension a toujours reposé sur la durée du droit d’auteur, la fin de la période sous droit ouvrant la possibilité d’une diffusion accrue. La durée légale du droit d’auteur n’a cessé de s’accroître au fil du temps, sous la pression notamment des industries culturelles qui souhaitent prolonger la rente liée à l’institution d’un monopole d’exploitation des œuvres sous droit16. Les Tic, qui réduisent le temps et la distance de diffusion des informations, questionnent cet allongement. Dans ce contexte, la loi Hadopi procède d’une réflexion défensive alors même que les historiens soulèvent la question de la pertinence du droit des auteurs, sous la forme qu’il revêt aujourd’hui. Selon Roger Chartier, ce droit pourrait n’être qu’un temps de l’histoire de la protection et des modes de rémunération de la création :

Aujourd’hui, le monde de la technologie électronique fait que la position d’auteur peut être immédiatement inscrite dans la position de lecteur […]. Nous sommes donc face à une innovation technologique qui bouleverse cette sédimentation historique, laquelle a conduit à la définition esthétique et juridique des œuvres. C’est pourquoi la question se pose : le droit d’auteur est-il une parenthèse dans l’histoire ? Peut-on entrer dans un monde de circulation des œuvres situé à distance radicale de tous les critères esthétiques et juridiques qui ont gouverné la constitution de la propriété artistique ou littéraire ? Ou, techniquement et intellectuellement, ces critères restent-ils considérés comme légitimes, et il faut alors faire un effort pour qu’ils puissent s’appliquer à une technologie qui leur est rétive17 ?

La question de la propriété intellectuelle rebondit sur celle des modèles d’affaires. La place nouvelle du consommateur, producteur de contenus et intermédiaire actif, crée une porosité entre les maillons de la chaîne de valeur au sein des activités de création et diffusion du savoir et de la culture ; cette place conduit l’internaute à la révélation de données personnelles sur les réseaux sociaux comme à chaque consultation et à chaque acte d’achat.

La protection des données personnelles, noyau dur d’une régulation vertueuse ?

Les Américains évoquent la privacy. Elle renvoie aux données collectées par les administrations et surtout par des acteurs privés, vendeurs en ligne, agrégateurs et moteurs de recherche, fournisseurs de service en ligne, sites de musique à la demande, etc. Le croisement et le recoupement de ces données, en principe encadrés au plan législatif par la Commission nationale de l’informatique et des libertés (Cnil) en France, permettent, parmi différents usages, de profiler les usagers et les consommateurs, mais aussi, avec toutes les questions éthiques qui s’y rapportent, de lutter contre le terrorisme et contre diverses catégories de fraudes.

L’exploitation marchande des données sur la vie privée, des goûts, des réseaux d’amis est le nerf de la guerre économique sur l’internet18. La montée de la valorisation des réseaux sociaux en témoigne. Les possibilités de monétisation des usages de Facebook reposent en effet sur trois piliers : les applications, les jeux sociaux et la publicité assise sur l’usage des données personnelles. Le message tire son efficacité de la connaissance des profils des utilisateurs de sorte que plus on relâche la contrainte de respect de ces données, plus la valeur du réseau s’accroît. Cette valeur a augmenté de façon spectaculaire entre 2004, date de la fondation de Facebook, et 2010 : en 2007, Microsoft se portait acquéreur de 1, 6 % du capital du réseau social pour 240 millions de dollars. Trois années plus tard, le site boucle un tour de table de 1, 5 milliard de dollars, soit une valorisation à 50 milliards de dollars. Comment le comprendre ? Le réseau social monnaye les données que l’internaute indique sur sa page et à travers le réseau de ses amis, dans un processus de mécanique virale : tel un virus, le message publicitaire se propage et se diffuse à toute une série d’internautes interconnectés. Le pari qui sous-tend cette valorisation porte sur ce que l’on pourrait désigner comme le second cercle de la socialité numérique (le premier regroupant les titulaires de comptes et leurs amis), celui des utilisateurs commerciaux des informations personnelles. Mais cette montée n’est pas exempte de risques, dont certains tiennent à la concurrence entre les géants de l’internet. En effet, les investisseurs peuvent se prêter à la comparaison des rentabilités des investissements publicitaires de Google et Facebook, l’addition des investissements publicitaires ne pouvant être que partielle19. Des hedge funds départageront peut-être les concurrents, lorsque Facebook sera coté ; on peut se soucier de l’usage accru des données que cela impliquerait.

Le marché des données appelle trois formes de régulation. La première est coercitive, la deuxième coopérative et la troisième marchande. La protection des achats en ligne relève de la première forme de régulation. Aux États-Unis, la National Strategy for Trusted Identities in Cyberspace vise la prévention de la criminalité dans le cyberespace et la restauration de la confiance pour les paiements en ligne, par la création d’une sorte d’identité pour l’internet permettant d’équiper les individus d’un logiciel générant un mot de passe électronique et de visiter des sites pour chaque transaction tout en conservant son anonymat. Au-delà des difficultés techniques de mise en œuvre de ce projet, on aperçoit le danger de créer une base de données centralisée qui se heurte au respect de la vie privée. Sur un autre registre qui va au-delà de la protection des achats et des données qui leur sont liées, les réglementations européennes exigent une certaine transparence dans les techniques de suivi des consultations des internautes20.

La deuxième catégorie de régulation relève des règles formelles ou informelles adoptées par les communautés d’internautes, ou des négociations entre le régulateur, les sites et les fournisseurs d’accès. La protection de l’enfance se solde fréquemment par des compromis : aux États-Unis, le projet de loi Social Networking Privacy Act prévoit que les parents puissent demander à Facebook d’effacer des données mises en ligne par leurs enfants sous 48 heures.

Au sujet de la régulation marchande, Fabrice Rochelandet note la quasi-absence d’un marché de la protection de la vie privée, alors qu’existe un énorme marché des données personnelles21. Les individus ne sont pas indifférents à leur protection, mais ils sont simplement mal informés, négligents, ou sensibles aux coûts de celle-ci. Il est difficile de mesurer abstraitement la chaîne des utilisations qui peuvent être faites des données que nous divulguons de façon délibérée sur les réseaux sociaux ou de façon non contrôlée via les différents usages que nous faisons de l’internet. Chaque bribe d’information divulguée considérée séparément ne représente qu’un risque extrêmement faible, et rares sont ceux qui investissent dans la lecture des conditions qui accompagnent un achat ou une adhésion à un site. Les coûts de la protection apparaissent donc excessifs, si tant est que celle-ci soit considérée comme nécessaire.

Les coûts de la réglementation revêtent d’autres aspects. Selon l’économiste Jacques Cremer, les restrictions à l’usage des données personnelles entament la qualité du service que les magasins virtuels et les sites internet peuvent offrir et affectent le montant des profits qu’ils tirent de la publicité en ligne22. Des juristes et économistes de l’école de Chicago vont plus loin et avancent que la défense de la vie privée revient à soustraire à l’usage des autres des informations qui pourraient être utiles à tous. La préservation de la vie privée est assimilée à de la dissimulation : « Pourquoi quelqu’un voudrait-il dissimuler un fait, si ce n’est pour induire les autres en erreur afin de nouer des transactions avec eux ? », écrit le juge et professeur Richard Posner.

À côté de ces coûts supposés, se produit une sorte d’autorégulation : l’excès d’usage des données personnelles et la saturation des espaces publicitaires entraînent des réflexes de fuite devant la publicité. Si les entreprises ont tout à gagner à l’envoi de messages publicitaires ciblés qui ont pour objectif de capter l’attention de l’internaute, la multiplication des messages finit par donner naissance à ce que l’on désigne comme des externalités négatives, des nuisances qui affectent l’efficacité du message envoyé. On pourrait esquisser une sorte de courbe en U inversé, avec un montant maximal de messages publicitaires ciblés au-delà duquel l’effet du message deviendrait nul ou contre-performant.

Usage effréné des données versus protection de la vie privée, régulation coopérative versus régulation coercitive, compromis avec les géants de l’internet versus guerre ouverte entre États et partisans du développement d’un espace libertaire, on retrouve ce balancement lorsqu’il s’agit de comprendre la tension entre le caractère global de la Toile et la volonté des États d’en réguler certains aspects du fonctionnement sur la base de négociations qui demeurent attachées à des territoires.

Du local au global, ou les limites « naturelles » de la régulation

La « société liquide23 » qu’abrite l’internet a-t-elle des frontières ? Comment des juridictions nationales peuvent-elles prononcer des injonctions aux effets qui portent au-delà des frontières ? Peut-on imposer des comportements et des normes à des opérateurs ou à des moteurs de recherche installés hors du périmètre national ?

Les entreprises de la couche 3 disposent d’une marge de manœuvre pour choisir leur implantation fiscale : elles échappent notamment à la Tva en s’implantant au Luxembourg ou en Irlande24. Ces entreprises pratiquent ainsi le nomadisme fiscal, s’arrogent une bonne part de la valeur créée dans d’autres couches de l’écosystème des Tic, et transfèrent cette valeur vers les États-Unis, largement dominants dans le champ de l’intermédiation. Cette domination est soutenue par une politique industrielle délibérée. Les États-Unis aident massivement l’innovation et la recherche et développement : en 2007, les dépenses de recherche et développement consacrées aux Tic se montaient à 88 milliards d’euros aux États-Unis, et 37 en Europe ; elles représentaient respectivement 29 % et 17 % des dépenses totales de recherche et développement25. À un niveau microéconomique, la possibilité de dégager des crédits destinés à accompagner des initiatives risquées (en particulier aux niveaux des couches 4 et 5 – intermédiation et production de contenus) est plus grande aux États-Unis qu’en France. Cette réactivité américaine questionne la politique industrielle à la française. Comme le note le président du pôle de compétitivité Cap-Digital, Henri Verdier :

Le Web, le search, les réseaux pair-à-pair, le triple play, la messagerie instantanée, les réseaux sociaux : aucune de ces ruptures ne provient de grands groupes industriels, mais, au contraire, de start-up, de chercheurs, voire de mouvements d’activistes. Ils obéissent à de nouvelles règles stratégiques, ils privilégient la scalabilité, l’ouverture et l’interopérabilité, la cocréation avec les utilisateurs, le travail sur l’expérience utilisateur […]. Malgré une réelle implication des pouvoirs publics, ils travaillent le plus souvent en marge de la politique industrielle traditionnelle. Ils ne bénéficient que fort peu de l’achat public. Ils savent bien que les règles de soutien industriel pensées pour les industries matures ne collent pas parfaitement avec leurs spécificités26.

La régulation a-t-elle pour objectif de s’immiscer dans cette économie et est-elle en capacité de le faire ? L’architecture de la régulation apparaît comme un miroir des difficultés de son application. Elle doit composer avec les mouvements associatifs sensibles aux droits de l’homme comme à ceux du consommateur. Les États démocratiques mettent en avant des valeurs telles que la protection de l’enfance et des libertés, la confiance et la sécurité dans les échanges, la concurrence et la transparence des transactions, mais peinent à édicter des textes applicables. Les responsables politiques s’emparent du terrain, tel Nicolas Sarkozy organisant en tant que président du G8 un sommet de l’internet destiné à promouvoir un « internet civilisé », tout en devant composer avec les rapports de force en jeu et le refus d’ingérence des États dans les entreprises.

La complexité de l’architecture de la régulation reflète la tension entre l’omniprésence du numérique et la volonté d’en délimiter des périmètres pour y imposer des règles et de « bonnes pratiques ». En France, au-delà de la place des ministères et de leurs administrations, quatre autorités administratives indépendantes interviennent : l’Arcep, le Conseil supérieur de l’audiovisuel (Csa) chargé de garantir l’exercice de la liberté de communication audiovisuelle, la Cnil chargée de veiller à ce que l’informatique ne porte atteinte ni à l’identité humaine, ni aux droits de l’homme, ni à la vie privée, ni aux libertés individuelles ou publiques, l’Autorité de la concurrence spécialisée dans le contrôle des pratiques anticoncurrentielles, l’expertise du fonctionnement des marchés et le contrôle des opérations de concentration. Leurs champs de compétences sont a priori très différents mais non étrangers les uns aux autres, et les frontières sont pour partie brouillées, comme dans le cas de la télévision connectée qui relève du Csa en matière de contenus mais qui, du côté de la technologie, dépend de la régulation des industries des télécommunications (assurée par l’Arcep). Les pouvoirs publics et le Csa souhaiteraient trouver le moyen d’imposer aux géants Apple et Google domiciliés à l’étranger des obligations de financement de la création dès lors qu’ils diffusent des images à la télévision à destination du public français. La partie est loin d’être gagnée, de sorte que la concurrence entre acteurs globaux et acteurs nationaux est vécue comme déloyale.

Il faudrait ajouter à cet échafaudage le Conseil national du numérique installé par Nicolas Sarkozy en mai 2011, l’intervention ponctuelle du Conseil supérieur de la propriété littéraire et artistique (Cspla) ou encore celle de l’Hadopi (chargée de l’application de ce que l’on a appelé la « riposte graduée », mais qui dispose aussi d’un laboratoire dédié à l’observation des comportements). Les domaines de l’intervention publique ressemblent à une liste à la Prévert : ils comprennent la négociation des directives européennes et la préparation des projets de loi et des décrets qui les déclinent au niveau national, la fixation des règles du service universel, l’imposition d’un tarif social pour les personnes défavorisées, la définition des règles de l’affectation des fréquences avec par exemple une obligation de couverture départementale, les conditions d’application des textes sur la propriété littéraire et artistique, la protection des données personnelles, etc. Cet empilement de sujets et d’institutions se complique du fait qu’une part de cette politique relève de l’échelon européen, l’Union européenne souhaitant créer un marché unique du numérique reposant sur l’internet haut débit et sur des applications interopérables27.

L’architecture de la régulation des communications électroniques aux États-Unis tient à un héritage institutionnel très différent : comme en d’autres domaines, elle y est partagée entre des juridictions fédérales et locales. La Federal Communications Commission (Fcc) joue un rôle central dans le domaine des communications. C’est le Department of Justice (DoJ) qui surveille le contexte concurrentiel et la Federal Trade Commission (Ftc) qui est en charge de la protection des consommateurs. Au niveau des États, ce sont les Public Utility Commissions (Puc) qui interviennent. Le Congrès et la Présidence ont un rôle au sein de cet écheveau soumis à la multiplicité des contre-pouvoirs28 posant la question du danger de capture du régulateur.

Poison ou remède, le numérique échappe en large partie à l’action du régulateur, lui-même tiraillé entre le global et le local, le virtuel et le réel, la volonté de respect de toutes les libertés et le souci de la protection, les lobbies privés et les obligations de service public.

*

La substitution d’une technologie à une autre enclenche un processus de destruction créatrice et déplace la valeur. Mais le numérique est bien plus que cela : il fait vaciller les processus de travail, la création change de sens, l’usager consommateur devient producteur. Dans cette révolution industrielle, l’État peine à trouver sa place et à asseoir une nouvelle légitimité. Certes, il demeure le garant du droit. Il doit préparer l’évolution des règles et des lois dans un univers technologique et social qui change continûment (c’est l’exemple de la protection des données personnelles sur les réseaux sociaux) ; il doit en assurer l’application, avec toutes les difficultés afférentes (comme dans le cas de la loi Hadopi). Il est sommé de contribuer à assurer l’accès à la culture et au savoir, ce qui implique la réduction des inégalités d’équipements et d’usage devant le numérique et la charge d’aider la diffusion de masse de certains biens informationnels. Mais il doit aussi composer avec les pressions des artistes et des industriels, qui peinent à valoriser les œuvres et souhaitent en maîtriser la diffusion. L’emprise d’une industrie composite, venue de la culture mais aussi des fabricants de matériels et des télécommunications, rend difficile la définition de politiques dont les objectifs sont contrastés et parfois contradictoires : la volonté de promouvoir des champions nationaux dans les secteurs des télécom mais aussi de l’information et de la communication est-elle compatible avec les processus d’innovation qui relèvent de logiques bottom up (venues d’en bas) bien plus que top down (guidées par des hiérarchies) ? L’État doit s’effacer tout en aidant à dégager les crédits nécessaires et en facilitant la création d’entreprises.

Mais l’internet est aussi politique. Si l’on ne peut que se sentir agacé devant les commentaires qui voient dans les réseaux sociaux le principal vecteur des révoltes arabes, la force de l’internet comme outil de propagation n’est plus à rappeler. La diplomatie américaine en a fait un cheval de bataille (en janvier 2010, Hillary Clinton faisait du « droit à se connecter » un droit humain à part entière). Revers de cette avancée, on connaît aussi la formidable force de répression que constitue la connexion : en Tunisie, le gouvernement de Ben Ali a utilisé des codes afin d’identifier les noms et les mots de passe des abonnés de Facebook. Les usages de l’internet allient ainsi le meilleur et le pire, la force de la révolte et la violence de la répression. De ce point de vue, le monde change sous leur emprise mais les enjeux de liberté restent les mêmes. Les États démocratiques demeurent garants de ces libertés.

  • 1.

    Source : Centre d’analyse stratégique, « L’agenda numérique européen », Note d’analyse (223), mai 2011.

  • 2.

    Source : Arcep.

  • 3.

    José Do-Nascimento, « Les modalités actuelles de régulation de l’internet. Un dispositif de régulation centrifuge et pluraliste ? », Actes du colloque Médias 09 : entre communautés et mobilité, Aix-en-Provence, Université Paul-Cézanne, 16 et 17 décembre 2009.

  • 4.

    Voir Bernard Stiegler, « Questions de pharmacologie générale. Il n’y a pas de simple pharmacon », Psychotropes, 2007/3, vol. 13, p. 27-54. Il reprend une formulation empruntée à Platon et reprise dans des travaux de Jacques Derrida, la Dissémination, Paris, Le Seuil, coll. « Points », 1993.

  • 5.

    Cette partition est décrite et analysée par l’ancien Pdg de France Telecom, Didier Lombard, et reprise dans un remarquable document de travail de A. Arlandis, S. Ciriani, G. Koléda, les Opérateurs de réseaux dans l’économie numérique. Lignes de force, enjeux et dynamiques, Coe-Rexecode, Document de travail no 10, janvier 2010.

  • 6.

    Sur ce point, voir M. Bacache-Beauvallet, M. Bourreau, F. Moreau, Portrait des musiciens à l’heure du numérique, Paris, éd. Ens Rue d’Ulm/Presses de l’École normale supérieure, 2011.

  • 7.

    A. Arlandis, S. Ciriani, G. Koléda, l’Économie numérique et la croissance. Poids, impact et enjeux d’un secteur stratégique, Coe-Rexecode, Document de travail no 24, mai 2011.

  • 8.

    Voir notamment J. Gabszewicz, D. Laussel et N. Sonnac, “Programming and Advertising Competition in the Broadcasting Industry”, Journal of Economics and Management Strategy, 2004, vol. 13, no 4, p. 657-669.

  • 9.

    Pour plus de détails, voir Françoise Benhamou, « Google et les éditeurs », Esprit, mai 2011, p. 157-159.

  • 10.

    N. Curien et W. Maxwell, la Neutralité d’internet, Paris, La Découverte, coll. « Repères », 2011.

  • 11.

    Y. Eudes, « La neutralité de l’internet est-elle menacée ? », Le Monde, 14 mai 2011.

  • 12.

    Loi Création et internet du 12 juin 2009.

  • 13.

    L’Hadopi est une autorité publique indépendante dont les missions sont définies par la loi Création et internet du 12 juin 2009.

  • 14.

    C. Lacroix, « Les dépenses de consommation des ménages en biens et services culturels et télécommunications », Paris, Ministère de la Culture et de la Communication, Deps, coll. « Culture chiffres », 2009-2.

  • 15.

    M. Bacache-Beauvallet, M. Bourreau et F. Moreau, Portrait des musiciens à l’heure du numérique, op. cit., p. 10.

  • 16.

    Voir F. Benhamou, « L’industrie du livre », dans D. Cohen et T. Verdier, la Mondialisation immatérielle, Conseil d’analyse économique, Rapport (76), Paris, La Documentation française, 2008, p. 73-96.

  • 17.

    Propos recueillis par Nathaniel Herzberg, Le Monde, 18 décembre 2005.

  • 18.

    La protection des données personnelles comprend la captation par des tiers non habilités, la constitution de bases de données, la revente de ces données à des tiers sans autorisation, et la fuite de données.

  • 19.

    Facebook a retardé son entrée en bourse en tentant de ne pas dépasser le seuil fatidique des 500 actionnaires qui rend cette entrée obligatoire aux États-Unis.

  • 20.

    Il est en principe obligatoire d’informer l’internaute et de lui demander une autorisation d’utiliser des pixels invisibles qui permettent de repérer les parties des pages web qui ont été consultées et les publicités sur lesquelles l’internaute a cliqué.

  • 21.

    F. Rochelandet, Économie des données personnelles et de la vie privée, Paris, La Découverte, 2011.

  • 22.

    J. Cremer, « Et si la protection de la vie privée sur internet était contre-productive ? », Les Échos, 4 mai 2011. Cremer reprend les résultats d’une étude de Avi Goldfarb et Catherine Tucker, Privacy Regulation and Online Advertising, 4 août 2010 (Ssrn : http://ssrn.com/abstract=1600259).

  • 23.

    Nous empruntons le terme à Zygmunt Bauman, mais dans un sens un peu distinct, qui est celui de la mobilité du savoir et des œuvres permises par l’internet à un niveau global.

  • 24.

    Pour les produits digitaux, existe une exception au principe du paiement de la Tva dans le pays où le produit est consommé, au moins jusqu’en 2015 : la Tva peut être celle du siège social de l’entreprise qui rend le service.

  • 25.

    Centre d’analyse stratégique, « L’agenda numérique européen », art. cité.

  • 26.

    H. Verdier, « Pour une politique industrielle de l’économie numérique », Les Échos, 11 mai 2011.

  • 27.

    Le plan comprend plusieurs volets : aide au développement d’une offre de cloud computing européenne-informatique en nuages qui consiste à déporter sur des serveurs distants des traitements jusqu’alors effectués localement par l’utilisateur (mise en place d’un cadre réglementaire commun, aide aux développements technologiques dans l’ensemble des segments de ce secteur – fermes de serveur, couches logicielles applicatives), définition des conditions d’interopérabilité que devra respecter l’ensemble des systèmes d’authentification et de signature électroniques en Europe, renforcement de la protection des données personnelles à travers des chartes et labels et la mise en place d’un organe de contrôle, participation à la gouvernance et au développement de l’internet des objets en favorisant l’essor de services européens d’attribution et de gestion des identités numériques ; adaptation du cadre juridique qui protège les droits des créateurs et ceux des consommateurs.

  • 28.

    D. G. Courtois, D. Rapone, G. Lacroix, Mission de l’Arcep aux États-Unis, avril 2011, http://www.arcep.fr/uploads/tx_gspublication/rapport-mission-usa-2011.pdf

Françoise Benhamou

Ses travaux sur l’économie de la culture donnent un regard aigu et très informé sur les secteurs de l’édition (voir notre numéro spécial « Malaise dans l’édition », juin 2003), du cinéma et du numérique. Cette connaissance des mécanismes économiques nourrit aussi son analyse critique de la politique culturelle française, en ce qui concerne aussi bien les musées, la démocratisation des publics que…

Dans le même numéro

État et internet : des voisinages instables

Les libertés personnelles et l'idéologie de la transparence

Comment les réseaux sociaux changent notre vie

Création et consommation : le choc numérique

Les acrobates de l'innovation