Contrôler l’accès. Entre stratégies industrielles et régulations publiques
Le réseau est à la fois le lieu d’une grande fluidité et de grandes possibilités de contrôle économique. Pour l’usager, avoir accès à internet est devenu facile. Pour les acteurs économiques, la tentation du verrouillage est forte. C’est pourquoi diverses formes de régulation publiques sont apparues pour tenir compte d’une dynamique contradictoire qui exige à la fois plus de transparence et plus d’obstacles.
Au début de la « bulle internet », des ouvrages comme la Société en réseaux de Manuel Castells, l’Économie de l’information de Carl Varian, Code and Other Laws of Cyberspace de Lawrence Lessig, ou encore l’Âge de l’accès de Jeremy Rifkin ont, parmi d’autres, posé des jalons de la réflexion sur les dynamiques à l’œuvre dans ce qu’il est convenu d’appeler la « société de l’information ». En dépit d’une évolution parfois syncopée, de l’éclatement de la bulle, et surtout, de la banalisation des techniques numériques dans une large part des sociétés industrialisées, leurs analyses se trouvent désormais en phase avec les phénomènes effectivement à l’œuvre aujourd’hui. Au centre de ces analyses, la question de l’accès est apparue primordiale tant pour les stratégies industrielles que pour les régulations publiques à mettre en œuvre. « Accès à internet », « contrôle d’accès », « droits d’accès » ou « accès aux contenus », « interopérabilité » font désormais partie d’un large débat public.
Une grande partie des règles économiques et des pratiques industrielles de la société de l’information sont paradoxales. L’universalité du code numérique couplée à l’instauration d’un seul protocole pour la constitution du réseau des réseaux devrait concourir à lever brutalement toutes les barrières techniques, uniformiser les formats et, de ce fait, dessiner l’image d’une société de transparence numérique. Mais économiquement, ce paysage technique en voie d’unification oscille entre, d’une part, la réalisation d’un marché pur et parfait et, d’autre part, l’accumulation de mécanismes – économies d’échelle, effets réseaux, monopole naturel, rendements croissants d’adoption, développements de biens communs – qui caractérisent le champ de l’économie publique. En réalité, le paysage numérique concurrentiel est marqué par la multiplication des obstacles, qu’ils prennent la forme de stratégies de verrouillage, de « portier péages », clubs fermés, enclosures techniques ou juridiques.
Le défi est significatif pour les pouvoirs publics – gouvernements, législateurs, autorités de régulation, juge national et européen, lieux d’autorégulation. Ils doivent à la fois favoriser la transparence et consolider des obstacles, c’est-à-dire gérer les contradictions profondes de l’économie de la société de l’information. L’accès, autorisé, interdit ou simplement pris, constitue alors l’enjeu principal des choix publics et de marchés.
Des dynamiques contradictoires
Dès le milieu des années 1990, les desseins économiques permis par le développement des techniques numériques et des réseaux se fédèrent autour d’un terme, la « convergence » : convergence des « tuyaux » et des « contenus » qui doit susciter la confiance des investisseurs au moment de ce qui apparaîtra bientôt comme une simple bulle. En effet, le changement d’infrastructure technique des industries culturelles et de communication a suscité principalement un modèle économique de communication des contenus par l’intermédiaire de « plates-formes » d’accès, censées jouer une fonction de distribution et de médiation. Ces plates-formes doivent assurer techniquement un contrôle d’accès pour la distribution numérique de contenus audiovisuels, culturels et ludiques sur nos ordinateurs personnels, consoles de jeux, assistants personnels, modems Adsl, voire baladeurs numériques audio et vidéo, etc., mais aussi des logiciels, des moyens de paiement, etc. Ces plates-formes sont au centre des régulations économiques d’accès.
Les dynamiques de verrouillage de la distribution de contenus…
Par leur architecture technique, les plates-formes qui permettent de contrôler les marchés amont mais aussi aval, et finalement les consommateurs sont le levier d’opérations de concentration verticale comme horizontale dans le secteur des technologies de l’information et en particulier des industries culturelles. Elles ont vocation à être à l’interface de plusieurs marchés : les marchés des utilisateurs finaux, des applications et services destinés aux utilisateurs, mais aussi des matériels, composants et logiciels de ces plates-formes, ou encore des contenus et de leurs droits. Leur architecture technique est essentielle pour configurer l’accès ou, au contraire, le verrouillage.
Du côté de l’accès, on trouvera un modèle ouvert avec la télévision payante, notamment numérique. Dans ce domaine, des efforts de normalisation ont eu lieu pour éviter les techniques de verrouillage et permettre à chaque abonné de décoder les programmes des différents opérateurs. Du côté du verrouillage, on trouvera le modèle des consoles de jeux vidéo ou celui de la distribution numérique de contenus, fondés sur des systèmes numériques de gestion de droits (Digital Rights Management systems – Drms). Les consoles de jeux vidéo issus des consoliers (Sega, Nitendo, Sony, Microsoft) ont développé des stratégies de domination sur les distributeurs, les éditeurs de jeux et les studios de développement, afin de s’assurer des remontées de rémunération et contrôler le degré de concurrence sur les jeux. Un tel contrôle repose sur une politique d’octroi de licences contraignante. De manière assez analogue, les systèmes numériques de gestion des droits développés par Apple, Sony, Microsoft ont pour fonction d’assurer la distribution numérique contrôlée de contenus (texte, images, sons, vidéos) et des droits d’accès aux contenus qui leur sont associés. Ici, le contrôle technique et industriel limite l’accès des producteurs de contenus aux distributeurs ou des utilisateurs aux contenus.
… fruits des stratégies industrielles liées à la numérisation des contenus…
Si ce modèle semble l’emporter, cela tient aux effets de la numérisation des contenus. En effet, les contenus sont des biens informationnels et des biens d’expérience, produits industriellement avec de fortes économies d’échelle. Leur rentabilité suppose un jeu d’exploitations et une maîtrise de la distribution des reproductions. Économiquement, la remontée de rémunération suppose donc de développer des techniques d’exclusion des consommateurs qui ne consentiraient pas à payer les contenus, d’autant plus que ces contenus sont devenus hyperreproductibles et que leur consommation ne diminue pas la satisfaction d’un autre consommateur (principe de non-rivalité des contenus). Ce modèle est donc organisé sur le contrôle d’accès aux contenus à travers une architecture technique destinée à redoubler l’objectif d’une norme juridique spécifique : le droit de propriété intellectuelle contre des consommateurs en situation de passager clandestin (free rider).
Mais les plates-formes de distribution numérique de contenus occupent une place majeure dans les stratégies d’acteurs des industries culturelles pour une autre raison. Elles ont vocation à se placer au centre de plusieurs marchés et peuvent bénéficier d’effets économiques féconds. En effet, il existe des « effets réseaux » appelés par les économistes « externalités de réseaux ». Par exemple, l’utilité retirée par chaque abonné à un réseau, à l’usage d’un logiciel, d’un service de communication (messagerie, chat, pair à pair, etc.) est fonction du nombre d’abonnés formant le réseau. Les plates-formes ont précisément pour objectif d’organiser ces effets et d’en matérialiser les bénéfices. De plus, elles sont souvent à l’intersection de deux marchés, dits « bifaces » : ainsi, un consolier de jeu (Nitendo, Sega…) s’adresse au marché des éditeurs de jeux qu’il met en concurrence pour accéder à sa console, et au marché des utilisateurs. Les plates-formes visent à contrôler les interactions entre les marchés qu’elles mettent en relation et à en retirer les fruits. On perçoit l’intérêt de ces logiques pour la plupart des médias (presse, télévisions commerciales, payantes, guides de programmes, etc.). Après s’être imposées dans le domaine des jeux vidéo à travers les relations complexes entre consoliers, éditeurs de jeux et utilisateurs, elles se développent désormais dans la concurrence que se livrent les fabricants de systèmes numériques de gestion des droits, en particulier Apple avec son service de musique en ligne iTunes Music Store, ou Microsoft qui dispose aussi d’un tel système mais cherche à en accroître le nombre d’utilisateurs.
… et portées par une idée de « convergence » industrielle
La logique the winner takes all a été dominante dans les stratégies industrielles conduites durant une période marquée par l’incertitude technique, l’apparition de nouveaux entrants, l’émergence de marchés et modèles inédits. Elle s’est accompagnée de la recherche d’avantages décisifs que pourraient obtenir les acteurs les plus rapides dans le contrôle des nouveaux modes d’accès. Ces logiques se sont traduites par des stratégies d’intégration fondées notamment sur l’existence de plates-formes numériques à l’interface des contenus et des tuyaux (intégration verticale) ou d’extension de services de communication (intégration horizontale). Face aux risques pour l’accès aux contenus que ces stratégies industrielles et financières peuvent créer, les régulateurs, notamment sur le terrain du droit de la concurrence, ont porté une attention vigilante aux effets des plates-formes numériques.
Ainsi, la fusion Aol/Time Warner, vue du côté américain, est d’ordre horizontal : elle combine le parc d’abonnés aux réseaux câblés de Warner Cable et son service internet haut débit avec les abonnés du fournisseur d’accès Aol. Le risque était la mise en place d’une plate-forme de messagerie instantanée qui aurait été dominante, d’autant qu’elle aurait bénéficié de futurs services à forte valeur ajoutée issus de Warner : envoi de fichiers audio, images, vidéo ; jeux en réseau ; visioconférence, etc. Une pareille fusion était de nature à donner un avantage décisif et cumulatif à cette entreprise. C’est pourquoi, contre le risque de verrouillage, le régulateur américain a ordonné une mesure d’accès : l’interopérabilité des messageries instantanées d’Aol avec celle de ses concurrents.
Dans le cas d’opération d’intégration verticale, les régulateurs ont regardé les « cercles vertueux » issus de ces opérations et les « spirales négatives » qui pouvaient en résulter. Ainsi, dans les affaires Aol/Time Warner ou Vivendi Universal/Seagram/Canal Plus, les risques étaient inhérents aux plates-formes qui combinaient d’importants volumes de contenus exclusifs et des masses d’abonnés potentiels à travers les réseaux. Une telle fusion aurait sans doute créé des cercles vertueux de développement avec des effets d’autorenforcement et donc aussi des spirales négatives pour les concurrents, notamment les chaînes de télévision hertzienne qui auraient perdu de l’audience.
Là où il appartenait jusqu’à présent à une pluralité de régulations sectorielles – audiovisuel, télécommunications, soutiens publics sectoriels, propriétés intellectuelles, droit de la concurrence – d’intervenir, l’économie numérique a recentré les enjeux sur la question de l’accès, à la croisée de logiques de transparence ou d’obstacles. Cette clef d’entrée pour les régulateurs est nécessaire, car elle a été centrale dans des stratégies économiques combinant plusieurs logiques industrielles.
La convergence a posteriori des régulations
Les régulateurs ne sont pas partis démunis face au déploiement de ces stratégies industrielles. Forts d’une expérience forgée dans le domaine de l’audiovisuel, ils ont, consciemment ou non, fini par articuler les divers points d’entrée nécessaires pour orienter, le plus souvent après coup, le sens de l’économie de la société de l’information.
Le modèle historique de l’audiovisuel en faveur du pluralisme et de la diversité
Dans le domaine de l’audiovisuel, les risques liés à la concentration d’opérateurs dans un environnement de relative rareté des ressources de diffusion ont conduit depuis longtemps à favoriser des régulations en faveur de l’accès aux réseaux. Elles ont été redoublées par des mécanismes encadrant l’accès aux contenus et des mécanismes d’accès aux plates-formes de distribution de services audiovisuels.
La réglementation obligeant un distributeur de services par câble ou par satellite de reprendre certains services (must carry) a pour vocation de desserrer les goulets d’étranglement aval sur les réseaux (câble, satellite, télévision numérique de terre, télévision par Adsl). Elle entend limiter le risque de réduction de l’offre pour les consommateurs et contribue au pluralisme en favorisant l’offre audiovisuelle publique. Cette réglementation peut s’accompagner d’obligation de fourniture de services audiovisuels pour éviter par exemple qu’un diffuseur hertzien présent sur un autre mode de diffusion ne limite l’offre de ses concurrents par une fourniture exclusive.
L’accès aux droits des « contenus d’appel » est aussi devenu une nouvelle dimension de la régulation de la société de l’information. En effet, l’économie des contenus dans un univers d’élargissement de la concurrence a conféré à certains contenus une valeur déterminante sur les marchés mondiaux. Leur rareté et leur caractère stratégique ont pu conduire à des régulations visant à éviter des restrictions d’accès en dépit des droits d’exploitation favorable à l’exclusivité. C’est par exemple dans le domaine des droits sportifs ou des catalogues de cinéma qui sont au cœur de l’économie des distributeurs de services de contenus, que cette régulation a trouvé à se développer.
De quoi s’agit-il ? À la fois de reconnaître l’existence de droits exclusifs (qui sont des monopoles d’exploitation) et d’éviter des formes d’exercice de ces droits qui se traduiraient par des abus de position dominante. Car l’exercice des droits exclusifs de propriété littéraire et artistique permet évidemment des exploitations en exclusivité qui sont créatrices de valeur économique. C’est pourquoi l’exclusivité ne peut être bornée que dans « certaines circonstances », par exemple en raison de durées trop longues ou parce qu’elle limite le droit à l’information (manifestations sportives). Dans ce contexte, contre l’obstacle que peut constituer la propriété de contenus premium (contenus haut de gamme détenus en exclusivité), le régulateur pourra organiser un partage entre des services payants (chaînes de télévision, accès à internet) et des services gratuits pour le public, notamment au titre du droit à l’information. Il aura à veiller à une fluidité des droits en segmentant les canaux de diffusion pour favoriser de nouveaux marchés (Adsl, Umts), diminuant les barrières d’entrée à de nouveaux entrants. Il pourra aussi réserver des domaines non appropriables, par exemple pour les événements sportifs « d’importance majeure », voire interdire des pratiques de « gel des droits ». Toute formation de domaine public est alors susceptible de constituer une régulation d’accès particulièrement efficace.
La propriété intellectuelle sur les œuvres comme sur les technologies est bien alors considérée par les régulateurs comme un obstacle aux objectifs d’accès. C’est notamment le cas quand elle porte sur des systèmes de contrôle d’accès qui peuvent porter atteinte au pluralisme quand elle renforce une position dominante, quand elle limite la concurrence dans l’offre de programmes. C’est pourquoi, la politique européenne en matière de systèmes de contrôle d’accès cherche à imposer une interopérabilité des services d’accès à la télévision. À cette fin, outre les efforts de normalisation qui évite l’incompatibilité des systèmes, elle confère aux autorités réglementaires nationales le pouvoir d’assurer l’accès par l’interopérabilité.
La délicate articulation de la concurrence et de la propriété des plates-formes d’accès
L’accès, comme objectif ou comme solution, est un facteur de convergence des diverses régulations de l’économie de la société de l’information. Il est revenu au droit de la concurrence d’assurer l’équilibre entre une pluralité d’objectifs parfois contradictoires, notamment entre la concurrence et les droits de propriété.
De nouveau, c’est à propos des plates-formes numériques que cette évolution a vu le jour. En effet, les plates-formes constituent un investissement d’infrastructure important (fabrication, commercialisation, installation de parc de décodeurs, modems, téléphones mobiles) qui suppose souvent des pratiques de subventions d’accès des utilisateurs et sont alors favorables à la concentration d’acteurs économiques. C’est pourquoi la préservation de la propriété industrielle, économiquement essentielle, s’accompagne dans ce contexte économique de la société de l’information de tendances au monopole et à des risques anticoncurrentiels.
L’ouverture technique des plates-formes est dès lors devenue un moyen de remédier aux risques de concentration et d’abus de position dominante. Cette approche éprouvée d’abord dans le domaine de la télévision payante constitue un modèle de référence. Par exemple, à l’occasion de la fusion Bertelsmann-Kirch-Premiere, le régulateur européen a développé des principes pour rendre possible l’accès aux spécifications des services techniques des décodeurs, l’ouverture des interfaces de programme d’applications des décodeurs pour permettre l’accès à plusieurs guides électroniques de programme concurrents et à une pluralité de services interactifs.
En se focalisant sur les plates-formes techniques, la régulation de la concurrence s’est attachée aux verrous de la société de l’information. C’est la même politique qui s’est appliquée pour éviter des dynamiques irréversibles des fusions comme Vivendi/Seagram/Canal Plus ou Aol-Time Warner. Dans le premier cas, l’intégration des contenus et des tuyaux se serait effectuée par l’intermédiaire d’un portail multi-accès, Vizzavi, combinant abonnés des services de télécommunications mobiles (Cegetel, Sfr, Vodafone), abonnés à internet, et catalogues importants de contenus (films, programmes télévisés…). L’intérêt de la plate-forme aurait pu être tel qu’il aurait évincé la concurrence et probablement diminué l’offre globale de contenus. Il aurait affaibli la part gratuite d’accès aux contenus, en particulier les offres publiques. Cette politique s’était d’ailleurs aussi exercée à l’égard des consoles de jeux vidéo, propriétés de Nitendo, Sega et Sony, qui agissaient comme trois monopoles distincts vis-à-vis des éditeurs indépendants, et qui ont été contraints de faciliter l’accès technique à leurs plates-formes en fournissant plus aisément les outils de développement de jeux.
En revanche, s’agissant des Drms, la régulation de la concurrence en faveur de l’accès n’a pas – encore – vu le jour, parce que le marché de la musique en ligne est émergent et qu’un marché des systèmes de contrôle d’accès par les Drms n’a pas été spécifié. Toutefois, les risques de verrouillage de marché par ce type de techniques et les risques économiques qu’elles peuvent engendrer ont été examinés. Ainsi, pour la fusion Aol-Time Warner, avaient été établis les risques encourus par la position privilégiée de gate keeper qui pourrait résulter de la détention du logiciel de lecture de contenus (dénommé Winamp) sur le marché de la musique en ligne. Grâce à l’effet de levier des catalogues musicaux, ce logiciel pouvait devenir dominant, s’imposer aux concurrents et favoriser la concentration de l’édition musicale. C’est pourquoi, autour de ce logiciel, le régulateur a-t-il limité la fusion. À présent, des questions analogues sont soulevées en ce qui concerne la stratégie d’intégration verticale conduite par Apple entre son service Itunes et ses iPod à travers son Drms, voire avec la stratégie de développement de base installée que mène Microsoft avec son lecteur Windows Media Player et le Drms qui lui est associé.
L’interopérabilité
Au fur et à mesure que se sont développées les régulations d’accès, la question de l’interopérabilité est finalement apparue comme la plus fondamentale. Comme les logiciels occupent une fonction majeure d’interface technique entre les réseaux, les matériels, le contrôle et la lecture des contenus, etc., il est naturel que l’interopérabilité, en particulier des logiciels, soit devenue centrale.
Pourtant, l’interopérabilité n’était, depuis le début des années 1990, qu’un simple objectif justifiant une limitation des droits de propriété des logiciels. Sous l’expression d’« exception de décompilation à des fins d’interopérabilité » (reverse engineering), le droit de propriété littéraire et artistique avait reconnu en son sein une forme de régulation ou de limitation au droit de propriété des logiciels. Cette exception au droit de propriété intellectuelle permet de trouver un équilibre entre les intérêts des auteurs et des investisseurs et ceux des utilisateurs. Économiquement, cette exception présente aussi des contrariétés sérieuses : elle peut encourager la concurrence et l’innovation, mais favoriser des comportements de concurrence déloyale, de détournement des fruits de l’innovation, voire de contrefaçon. Ce mode de régulation a donc été fermement encadré. Son usage reste d’ailleurs, en pratique, très limité. Il aurait dû favoriser le développement d’émulateurs de jeux vidéo sur PC alors qu’ils étaient conçus pour des consoles. Il est limité aux interfaces pour favoriser la concurrence. En effet, cette régulation provient de la volonté de concurrencer la domination historique des PC d’Ibm qui s’appuyait sur un système d’exploitation propriétaire, en permettant des systèmes compatibles. En réalité le jeu de la concurrence informatique et sa rapidité ont déplacé le problème de concurrence et rendu peu utile cette forme de régulation, puisqu’à partir du milieu des années 1990 le pouvoir de marché informatique ne concernait plus Ibm mais l’axe Intel-Microsoft.
À présent, l’interopérabilité des logiciels apparaît bien comme un objectif et un remède à l’absence d’accès particulièrement efficace mais largement contraire à la reconnaissance des droits de propriété. C’est pourquoi, son emploi sur le terrain du droit de la concurrence est aussi limité. L’obligation d’interopérabilité, par exemple par la fourniture de documentations sur le fonctionnement des logiciels, est ainsi au cœur de l’affaire Microsoft jugée par les autorités européennes de la concurrence. Mais sa mise en œuvre est fondée sur une doctrine qui n’est pas reconnue au plan mondial et demeure d’un emploi restreint en ce qui concerne les biens immatériels : la doctrine des facilités essentielles. Elle consiste à rendre possible l’accès à des infrastructures essentielles (à l’origine : des ports, aéroports, etc.), à des fins de concurrence. S’agissant de droits de propriété intellectuelle, elle permet d’y porter atteinte mais dans des circonstances exceptionnelles. Elle a été utilisée pour rendre possible l’accès à des informations, des bases de données, un logiciel ou au tronc commun d’un logiciel, etc., en bornant autant que possible cette atteinte. Il faut par exemple que l’accès soit indispensable pour opérer ou continuer d’opérer sur le marché ; que le refus de licence fasse obstacle à l’apparition d’un produit nouveau pour lequel il existe une demande potentielle des consommateurs, etc. Une telle approche ne semble pouvoir prospérer que de façon limitée car elle conduit à des décisions irréversibles et met en balance droit de la concurrence et droit de propriété, au fondement de la concurrence.
Après l’accès ?
Au cours de la décennie passée, en général au gré de cas d’espèces, des régulations sectorielles étanches, sous l’impulsion principale du droit de la concurrence, se sont progressivement focalisées sur un enjeu majeur de la société de l’information : l’accès. Oscillant entre transparence et obstacle et leurs dérivés – pluralisme, ouverture, compatibilité, etc. ou verrouillage, fermeture, propriétés, etc. – elles semblent converger vers des points d’équilibre entre principes parfois contraires. Elles ne tranchent surtout pas entre les avenirs de l’économie de la société de l’information traversés par des dynamiques contradictoires. Elles ont veillé aussi, indirectement le plus souvent, à rendre possibles les conditions de maintien de domaines publics.
Mais, c’est principalement des usages et des progrès techniques que semblent dépendre les futures orientations des régulations. Parallèlement, en effet, au déploiement d’une convergence des régulations d’accès, à la fois comme objectif ou comme remède, les usages ont révélé de nouvelles formes d’accès ou de concurrence sur de nouveaux réseaux. Ils manifestent surtout un déplacement de la rareté et des stratégies de concurrence qu’elle permet. Dans le domaine des contenus notamment, un déplacement des ressorts de la rareté et de la distribution contrôlée s’est effectué avec rapidité au profit de l’abondance et la pluralité des modes d’accès (supports, réseaux, mobilité, etc.). Au moins dans le domaine des médias de masse interactifs et communautaires, une partie des questions soulevées par l’accès s’est donc recentrée sur des questions relatives à l’information sur les contenus (cascades informationnelles), les systèmes partagés de création de contenus et de connaissance, les formes d’édition et de distributions décentralisées, les moteurs de recherche, etc. Au moment où les régulations classiques ont largement engagé leur mise en cohérence sur la question de l’accès, il est bien possible que le renouvellement de la question de l’accès soit lui aussi engagé mais doive toujours choisir entre la transparence et l’obstacle.
- *.
Chef du Département des études, de la prospective et des statistiques au ministère de la Culture et de la Communication, enseigne l’économie de la communication numérique à Paris 1 et à l’Enst-Ina.