Le téléphone mobile, terminal universel ? (Entretien)
Glissé au fond de notre poche ou porté comme un bijou, petit objet numérique au contact de notre corps, le téléphone sera-t-il demain le support de notre contact au réseau, grâce auquel nous organiserons notre travail, accéderons à l’information, organiserons nos loisirs et maintiendrons le lien avec nos proches ?
Esprit – Pouvez-vous commencer par décrire les évolutions en cours du secteur des télécommunications, en particulier en ce qui concerne les acteurs ?
Jean-Noël Tronc – Nous sommes actuellement dans une phase de bouleversement complet, sous l’effet de trois facteurs qui se conjuguent : une concurrence en pleine explosion, une transformation de la consommation et des usages de communication et une série de ruptures technologiques.
Le paysage concurrentiel s’est intensifié considérablement : pour le marché de la téléphonie fixe et pour l’internet, la France, qui possède le plus fort taux de foyers connectés au haut débit d’Europe, est aussi le marché le plus concurrentiel. Dans les mobiles, il y a désormais 14 opérateurs, avec de nouvelles marques puissantes comme Télé 2 ou Virgin, alors que plus de 10 pays européens n’ont toujours que 3 ou 4 opérateurs mobiles en tout. Par ailleurs, de nouveaux acteurs entrent dans les télécommunications, comme Apple, Microsoft, Google ou Yahoo, mais aussi la grande distribution. Nous sommes donc passés à une seconde étape de l’ouverture à la concurrence, lancée en 1998. Le modèle de régulation à l’européenne va devoir évoluer en conséquence pour éviter de discriminer les grands acteurs qui ont lourdement investi et tirent l’industrie et l’innovation avec eux.
Et s’agissant des usages ? En particulier, où en est la pénétration de tous ces services ?
Quelle que soit la technologie, on atteint des taux de pénétration très élevés : à peu près 100 % pour la télévision et la radio, 80 % pour le mobile, où l’Europe est en avance par rapport au reste du monde, notamment les États-Unis, dont le taux de pénétration du mobile est à peine de 60 %. Près de la moitié des ménages ont un accès à l’internet.
La recherche documentaire sur internet, les achats en ligne se sont banalisés en moins de cinq ans. Les « pages perso » ou, de plus en plus, les « blogs » (on dénombre entre 6 et 7 millions de journaux personnels en ligne en langue française, entre 50 et 70 millions dans le monde1), multiplient les formes d’« exposition de soi » ouvertes par la télévision avec la télé-réalité, ou par la radio avec les émissions de témoignage d’auditeurs. Le mobile incorpore progressivement tous les usages multimédias : radio, vidéos, musique, photo, télévision en direct, jeux, internet et emails [courriels], agendas et carnet d’adresse électronique, etc. Le « chat », adaptation au web du modèle conversationnel inventé il y a vingt ans avec les messageries Minitel, est devenu un mode d’échange dominant chez les jeunes. Plus de 70 % des gens utilisent le Sms dont l’usage asynchrone réinvente un mode de communication non intrusif là où le téléphone a été longtemps critiqué : on se souvient de la phrase de Guitry, qui ne voulait pas de téléphone : « Je n’aime pas qu’on me sonne ! » Dans les années 1920, la Revue des deux mondes mettait en garde les bonnes familles contre les dangers du téléphone, qui permettait à un homme d’accéder à la maîtresse de maison sans le contrôle de son mari…
La critique sociale de la technologie et de ses acteurs reste d’ailleurs relativement plus forte en France qu’ailleurs.
Intensification concurrentielle et transformation des usages sont directement la conséquence d’une série de ruptures technologiques fortes : l’explosion du transport de la voix sur internet, qui permet un effondrement des tarifs, conduit à un modèle économique dans lequel le consommateur ne veut plus payer ses communications. La numérisation complète de la diffusion de contenus s’achève : derrière nous pour le disque, en cours pour la télévision, à venir pour les salles de cinéma, avec ses corollaires : multiplication des programmes et remise en cause des positions d’acteurs.
Le peer-to-peer (connexion directe entre ordinateurs personnels par l’intermédiaire d’internet, pair à pair) a été dénoncé à propos de la copie illégale de musique en ligne. Mais il traduit un phénomène beaucoup plus large et fondamental, qui est la mise en relation permanente de plus en plus d’univers numériques personnels, chacun ayant son propre réseau de connections interpersonnelles à distance.
Vous avez évoqué l’importance de la critique sociale des technologies en France ?
La critique de la technologie en tant que telle avait été particulièrement frappante au moment de l’émergence de l’internet en France à partir de 1995-1996, fortement relayée par les milieux médiatiques et intellectuels. L’origine un peu mythique d’internet, dénoncé comme une invention américaine d’origine militaire, a sans doute beaucoup nourri ces réticences, de manière d’autant moins fondée que le protocole IP (Internet Protocol) sur lequel tout repose a été conçu par un groupe de scientifiques internationaux, dont deux Français, au début des années 1970 ; de même, le web, et plus précisément l’hypertexte, qui sont à la racine de l’internet, sont une invention européenne et civile : on les doit à un Anglais, Tim Berners-Lee, et à un Belge francophone, Robert Caillaux, au Centre européen de recherche nucléaire de Genève, qui devaient trouver une solution face à l’essor incontrôlable de documentation scientifique à classer et à indexer.
Une autre spécificité de notre pays tient au relatif « analphabétisme technologique » de ses classes dirigeantes : la technologie est très peu développée dans la formation des élites, y compris scientifiques. Le « comment ça marche » n’est pas un questionnement valorisé ; au contraire, l’intérêt pour la technologie est souvent considéré avec une certaine condescendance, comme un attrait pour « les gadgets ». Cet état de fait est un frein indiscutable à l’innovation, particulièrement frappant pour l’usage de l’ordinateur. Le taux d’équipement des ménages est resté marginal jusqu’au début du xxie siècle, contrairement aux États-Unis où l’obligation pour les élèves, depuis les années 1970, de rendre dès le secondaire des devoirs dactylographiés a contraint les familles à s’équiper de machines à écrire puis d’ordinateurs. Quant aux cadres dirigeants publics comme privés français, ils n’ont généralement pas été formés à considérer les technologies de l’information comme un levier de performance pour eux-mêmes et pour leur organisation.
Cette ignorance de la technologie conduit du coup à investir trop de sens dans la technique, en oubliant que celle-ci n’est ni bonne ni mauvaise, tout dépend de l’usage qu’on en fait !
Mais comment s’est traduite concrètement cette critique sociale ?
Avec le recul, la manière dont s’est noué chez nous le débat sur la régulation de l’internet me semble frappante : dès le début 1996, alors qu’il y avait moins de 100 000 internautes en France, une mission publique était lancée sur la manière de répondre aux « dangers » de l’internet, avec des réunions de travail dont je me souviens qu’elles rassemblaient des gens qui, dans leur écrasante majorité, n’avaient jamais utilisé le réseau.
À Matignon nous avions souvent à faire face à deux fronts, également déterminés et véhéments, l’un libertaire, l’autre répressif. La bataille pour faire admettre que la France ne pouvait pas rester l’un des rares pays du monde à interdire les logiciels de chiffrement, permettant d’assurer le secret de ses correspondances et surtout de protéger nos entreprises, l’a bien montré.
À l’inverse, il a fallu du temps pour faire admettre que si l’internet constitue un nouvel espace numérique ignorant les frontières cela n’en fait pas, pour autant, une zone affranchie du droit ; que de débats, parfois surréalistes, pour expliquer que le respect des libertés et la protection des droits conduisaient non pas à la disparition de l’action publique sur le réseau, mais à son développement ! John Perry Barlow, président de l’Electronic Frontiers Fondation (fondée en 1990), grand mouvement libertaire autour de l’internet aux États-Unis, avait écrit en 1996 Copyright is dead in the digital age : on a vu il y a peu de temps combien la provocation restait d’actualité…
Substitution ou complémentarité ?
En observant l’évolution du débat sur une décennie, il semble que les inquiétudes sur l’écrit, les premières qui se sont manifestées dans le courant des années 1990, se soient finalement tassées, et concernent désormais davantage l’image et le son, où il est plus difficile de trouver une complémentarité entre les anciens et les nouveaux supports.
En effet, lorsque l’internet a émergé en France, on s’est beaucoup concentré sur l’écrit, suivant une analyse technologique fausse. Le raisonnement était le suivant : plus le contenu est simple à numériser, moins il prend de place, et plus la probabilité est élevée qu’il soit le premier touché par le phénomène de dématérialisation généralisée. Et c’est ce qui s’est révélé très largement inexact, que ce soit pour le livre, la presse ou l’édition scientifique. Ce qui est intéressant, c’est que l’erreur vient d’une méconnaissance de l’évolution des technologies. Les technologies avancent en parallèle ; ainsi les technologies traditionnelles continuent à progresser en même temps que de nouvelles apparaissaient. Le livre, que l’on présentait toujours en référence à Gutenberg, a connu une série de transformations techniques depuis lors. Au xixe siècle, une double révolution, la machine à produire le papier en continu et la pâte à papier extraite du bois, et non plus du chiffon, provoque un effondrement du prix de la matière première. La démocratisation du livre est ainsi d’abord un phénomène économique, qui voit la part du papier dans le coût d’un livre passer de 70 % au xviiie siècle à 10 % au début du xxe siècle. Et le mouvement s’est prolongé jusqu’à aujourd’hui avec les éditions à très bas coût.
Ces évolutions expliquent la résistance du livre face à l’internet et à la numérisation. Quand tout le monde s’enthousiasmait, au Salon du livre 2000, pour les « e-book », ces livres électroniques censés balayer le livre papier, on oubliait qu’aucune technologie numérique ne pourra avant longtemps approcher l’ergonomie du livre : il est léger, maniable, très résistant, son autonomie est éternelle, son format adapté à la lecture rapide. Et le marketing de l’édition s’est adapté, qui est capable de sortir mondialement un livre avec de très grosses campagnes médiatiques. Dès lors, si le phénomène de piratage des livres sur internet existe, il est marginal.
Mais l’internet a bien eu un effet important pour la presse ?
Pas tant que ça ; et la presse aussi a été touchée depuis longtemps par le progrès technique : grâce à l’industrialisation du papier dont j’ai parlé, le prix des journaux est divisé par quatre aux États-Unis entre le milieu et la fin du xixe siècle. Puis les médias audiovisuels font irruption, radio et télévision, qui mettent fin au monopole de la presse écrite pour l’information. Depuis cinq ans, la vraie rupture pour la presse n’est pas l’internet, où le modèle économique de la presse en ligne reste fragile, mais l’explosion de la presse gratuite, qui détourne une partie du lectorat traditionnel mais conquiert aussi des lecteurs nouveaux, comme les jeunes. La presse payante n’a pas toujours su adapter et moderniser sa formule. Pour preuve Le Parisien, qui a adapté sa formule, a vu son lectorat progresser en même temps que l’essor de 20 Minutes ou Métro.
Pourtant, la numérisation de nos textes, livres, revues scientifiques, travaux universitaires, archives, et leur libre diffusion sur l’internet restent l’un des leviers cruciaux du maintien du français comme langue de culture et de savoir dans le monde, et par la langue passe la présence culturelle. Ce d’autant plus que les canaux de distribution de l’édition française sont limités, voire absents sur une bonne partie de la planète où l’internet est le seul moyen d’avoir accès aux textes en français. C’est ce que nous avons réalisé pour notre droit, grâce à la diffusion gratuite, voulue par Lionel Jospin comme un acte politique, de tous les textes juridiques, lois, codes, traités, jurisprudence, qui fait de Légifrance, la première base juridique gratuite du monde. A contrario, je considère que sur la diffusion en ligne de notre patrimoine littéraire et scientifique, nous avons pour l’essentiel échoué. D’où l’intérêt, même exprimé de manière défensive en réaction à une initiative américaine, du chantier relancé par Jean-Noël Jeanneney pour la BnF.
La BnF a aussi été bloquée par la question juridique des droits d’auteurs. Comment rendre plus largement accessibles les textes des auteurs ?
En réalité, une part considérable des textes en question est libre de droit, surtout s’agissant de notre patrimoine littéraire. En outre, beaucoup des documents diffusables relèvent de la littérature « grise », qui n’a pas de caractère de confidentialité et pour laquelle il n’existe pas de problème de droits, mais qui n’est pas accessible pour des raisons économiques. Lorsque je travaillais au Commissariat général du Plan, on m’avait chargé de créer fin 1995 l’un des premiers sites internet de l’administration. Comme nous avions constaté que beaucoup de rapports, qui faisaient l’objet de demandes régulières, n’étaient plus accessibles, faute de justifier l’investissement dans des réimpressions papier par des éditeurs privés ou par l’administration, j’avais pu convaincre de diffuser une large documentation gratuitement, y compris des rapports. De plus, nous les rendions accessibles de partout, alors que la question de l’éloignement physique d’avec les sources est un problème très réel pour les chercheurs et que rares sont les bibliothèques universitaires réellement exhaustives.
Et puis, comme l’a si bien analysé Pierre Lévy, dont le rapport au Conseil de l’Europe, la Cyberculture, publié en 1997, reste à bien des titres visionnaire, la mise en réseau des connaissances, des idées et des gens allume un véritable processus « d’intelligence collective », selon sa formule. C’est vrai pour l’élaboration des standards scientifiques qu’illustrent les logiciels conçus de manière « collaborative », par l’internet ; ça l’est tout autant pour le débat démocratique ou la vie associative, et finalement pour la construction de l’opinion publique elle-même. Après tout, les philosophes des Lumières considéraient que le principal instrument du progrès résidait dans l’échange d’informations et de connaissances. À ce titre, la culture numérique et la société en réseau ne constituent pas un déclin de notre modèle culturel, comme on l’entend trop souvent, mais bien la meilleure garantie de sa continuation.
Si le sujet faisait débat il y a quelques années, il semble y avoir néanmoins de plus en plus un accord tacite des auteurs pour ne pas trop limiter la diffusion de leurs textes sur internet, en particulier dans le monde académique.
Vous avez raison, je suis moi-même sollicité par des revues pour autoriser la diffusion en ligne d’articles ou d’interviews dont j’avais même oublié l’existence ! La question de la diffusion numérique, quel que soit le type de contenu, est déterminante pour les nouvelles relations entre ayants droit et diffuseurs : il s’agit de prévoir dans tout contrat une possible cession de droits pour les nouveaux supports.
Pour l’écrit, vous êtes rassurant, mais qu’en est-il pour les autres contenus ?
Plus que pour le livre, la musique et le cinéma sont directement concernés par la numérisation et par les réseaux de diffusion numérique. Le cinéma est transitoirement mieux protégé que la musique, du fait de la durée encore dissuasive de téléchargement d’un film. La copie des films n’est pas nouvelle : elle remonte au début des années 1980, avec la diffusion des magnétoscopes et des cassettes vidéo et l’équilibre économique de l’industrie cinématographique n’en a pas été menacé pour autant. L’adoption de la loi sur la copie privée, que l’on doit à Jack Lang, au début des années 1980, a d’ailleurs montré la possibilité d’une régulation efficace des conséquences de la copie privée des contenus. La croissance permanente des capacités de stockage et de débit ouvre évidemment une menace nouvelle et très réelle. Mais par son mode de marketing, le cinéma devrait mieux résister à la copie pirate : le Dvd a introduit une innovation dans les contenus, avec les « bonus », les commentaires, les versions director’s cut et multilingues qui génèrent d’ailleurs un mouvement de réachat des films. Pour le cinéma et la vidéo, le sujet essentiel est surtout celui de la fameuse « chronologie » des diffusions, entre sortie en salle, vente du Dvd, diffusion télévisée, vidéo à la demande téléchargée, etc.
Mais l’industrie du disque est bien en crise et cette crise est parallèle à l’essor de l’internet ?
C’est vrai, mais d’une part le numérique constitue aussi un relais de croissance extrêmement sérieux pour l’industrie du disque, d’autre part il faut rappeler que les difficultés de l’industrie du disque tiennent pour une part importante à l’industrie du disque elle-même, et ne date absolument pas de l’internet. D’abord, lorsque nous sommes passés du microsillon au CD, l’industrie du disque a fait plus ou moins disparaître, pendant des années, le format du 45 tours avec ses deux titres. Or, pour les jeunes, c’était souvent le seul produit musical accessible : on achetait un 45 tours, on se faisait offrir les 33 tours ou prêter pour les enregistrer sur une cassette. Du coup, le passage au CD a entraîné une augmentation considérable du prix du produit musical. Mais surtout, l’industrie du disque a dû faire face à un phénomène structurel fondamental, celui de la diversification des sources de dépense pour les produits culturels. À partir du début des années 1980, le jeu vidéo et la cassette Vhs concurrencent le disque, qui était jusque-là, à part le livre et la bande dessinée, le seul produit culturel achetable. Dernière différence, le produit livre et le produit film sont relativement à l’abri du phénomène « tous créateurs » qui caractérise notre société : l’« auteur », de plus en plus starisé, reste une figure à part que le marketing littéraire singularise. Pour le cinéma, les coûts de production considérables interdisent l’autoproduction à succès. En revanche, l’effondrement des prix du matériel de production numérique musicale entraîne une démocratisation très réelle de la production musicale.
Du coup, si l’industrie du livre et celle du film restent encore relativement protégées de l’irruption de l’internet, qui est surtout une opportunité d’en favoriser la commercialisation, l’industrie du disque et le modèle qu’elle représente pour la diffusion musicale sont contraints à une évolution plus forte.
Le terminal universel
Dans ce paysage, le téléphone introduit avant tout un élément de mobilité. Quelles sont les conséquences de la mobilité en termes de mode de vie et des rapports sociaux ?
La mobilité, au sens de l’accélération des possibilités d’échanges et de transport, dans l’absolu, est l’un des traits marquants des sociétés industrielles. Et les télécommunications accompagnent cette accélération en soutenant notamment l’internationalisation des échanges. En 1974, pour appeler certains pays du Moyen-Orient, il fallait prendre rendez-vous 10 jours à l’avance avec une opératrice et se tenir disponible à l’heure dite. Imaginez les obstacles au commerce international d’un tel système ! Mais la rupture supplémentaire fondamentale qu’introduit le téléphone mobile, c’est de rendre tout à coup accessible aux télécommunications le temps social jusqu’alors « inutilisé » que l’on passait hors de chez soi en déplacements. La téléphonie mobile a ainsi permis de franchir une nouvelle frontière de communication, après le télégraphe optique de Chappe qui nous affranchit du rythme animal du cheval ou du pigeon voyageur pendant la Révolution, le télégraphe électrique qui fonctionne aussi la nuit ou par mauvais temps et surtout plus rapidement, le câble sous-marin qui permet de franchir les mers et créé la première société mondiale de l’information au milieu du xixe siècle, et la Tsf (télégraphie sans fil, mais dont l’usage deviendra surtout la diffusion radio et TV) qui au début du xxe siècle permet de dépasser la limite physique et économique des réseaux fixes.
Le phénomène de la mobilité explose avec la deuxième génération de mobile, le Gsm, inventé en France en 1982 et qui équipe aujourd’hui près de deux milliards d’habitants dans le monde. Le mobile permet en outre une autre révolution, qui est le concept du numéro personnel : je n’appelle plus un numéro/domicile/famille mais une personne. Il permet l’ubiquité : je suis joignable partout, même en déplacement à l’étranger ; il offre l’anonymat : on ne sait pas où je suis quand je réponds. Le mobile permet également l’improvisation : il est possible de se retrouver beaucoup plus facilement, et à la dernière minute, à l’époque du mobile qu’à celle du téléphone fixe.
Enfin, le mobile permet une émancipation des enfants par rapport aux parents. Le téléphone fixe était le téléphone du foyer. Aujourd’hui, avec un taux d’équipement des adolescents de 98 %, le mobile est leur outil de communication, avec lequel ils réinventent de nouveaux codes. Enfin, l’équipement en mobiles entraîne une perméabilité plus grande entre sphère professionnelle et sphère privée. Dans une société de plus en plus gagnée par la peur, ou en tout cas par l’inquiétude sous toutes ses formes et le besoin d’être en contact avec sa sphère personnelle, le mobile est l’outil qui récrée le lien. Dans des interviews d’utilisateurs, le terme de « fil de la vie » revient ainsi souvent pour le désigner.
Le téléphone est-il en train de se réinventer en s’insérant dans un nouvel univers de communication ? Peut-il devenir à l’avenir le terminal de référence, en détrônant l’écran de télévision ou de l’ordinateur ? On peut être beaucoup plus sceptique sur la question des services associés (télévision, radio, clips…), qui vont au-delà de la fonction traditionnelle de communication. Quelles sont les perspectives réelles de développement de ces nouveaux services ?
Le mobile est le premier artéfact depuis les bijoux, les lunettes et la montre que la majorité de la population garde sur elle quasiment en permanente, et c’est assurément le seul canal de communication personnel.
Ces deux dernières années, il a déjà intégré des usages majeurs comme le jeu, la photo ou le courrier électronique, et devient un véritable terminal média, avec les vidéos à la demande, la radio et la télévision en direct. Près de 20 % des Français équipés d’un mobile utilisent déjà une forme ou une autre de « multimédia mobile », c’est-à-dire tout ce qui n’est pas la voix et les Sms. C’est le plus fort taux d’Europe. Le mobile entre aujourd’hui sur le territoire des baladeurs numériques, musique et vidéo. Avec l’arrivée des mobiles à disque dur, il devient media center baladeur. Pour les plus jeunes, il remplace la montre et le réveil. Avec la géolocalisation, et bientôt le Gps intégré, il sera notre « boussole intelligente » et ses applications en matière de santé ou de sécurité vont exploser. Vers 2008, les fonctions de porte-monnaie électronique et d’identification à très courte portée (comme pour le pass Navigo de la Ratp) lui ouvriront encore de nouveaux territoires. À ce titre, il devient vraiment cette « télécommande universelle de la vie » (Universal Remote Life Control) qu’avait prédit Hans Snook, le fondateur d’Orange, lors du lancement de la marque au Royaume-Uni en 1994.
Il s’est vendu l’année dernière plus d’appareils photo sur téléphone portable que d’appareils photo. Le mobile bénéficiera inévitablement de la contrainte d’encombrement que fait peser la multiplication des terminaux numériques : on ne peut pas avoir dans ses poches à la fois un téléphone, un appareil photo, une console de jeux, un assistant personnel et un baladeur MP3 éventuellement vidéo. Pourtant ces usages en mobilité intéressent des millions de gens.
Un continuum du livre à l’écran ?
Mais le support du téléphone va-t-il servir à diffuser les anciens programmes, conçus pour d’autres supports, ou exige-t-il le développement de contenus spécifiques, pensés et réalisés pour un objet à la fois miniature et mobile ? Un nouvel usage pour des vieux contenus ou des contenus inédits pour un objet technologique réinventé ? Quels sont les produits en développement ?
Les contenus mobiles sont génériques ou spécifiques : il y a les contenus que l’on importe tels quels d’autres réseaux : la télévision en direct, la radio, la musique (possibilité de télécharger des morceaux, chansons dans leur intégralité). Mais, de plus en plus, l’avenir des contenus mobiles passe par des formats spécifiques : des sonneries à télécharger, des fonds d’écran, des sonneries d’attente musicale, un résumé de la série télé de la veille, un journal vidéo d’une minute trente, comme celui que Lci fait six fois par jour pour les mobiles Orange, etc. À terme, tout a vocation à être décliné en format mobile : séries télévisées, documentaires, dessins animés, films publicitaires, etc.
L’enjeu culturel pour l’Europe et pour la France, qui a un gros secteur audiovisuel, est évident, d’autant plus que le mobile évite les problèmes de copie et garantit l’identification de l’usage, donc la rémunération de l’ayant droit. L’industrie du disque, qui estime à plus de cinq milliards de dollars le marché de la musique numérique en 2005 dans le monde, dont la majorité sur le mobile, en fournit déjà un bon exemple.
Peut-on déduire une réflexion générale de l’échec d’Aol Time Warner ou de Vivendi-Universal sur la difficulté à mêler diffusion et création dans un même groupe ?
D’un point de vue économique, dans ces deux cas, le problème était avant tout chronologique. Ce n’est sûrement pas un échec du modèle. Ces constructions sont arrivées trop tôt dans un univers au fond peu numérisé. Pour l’information, entièrement numérisée, et donc pour les contenus et les services, la convergence est un phénomène désormais généralisé.
En revanche, la convergence vers un terminal unique reste une vision irréaliste pour les terminaux et les réseaux : pas plus qu’en 1995, où on annonçait que l’ordinateur remplacerait le téléviseur dans les foyers, un terminal, y compris le mobile, ne remplacera tous les autres. De même, les réseaux vont rester multiples mais devront fonctionner tous ensemble.
Deux siècles d’essor de la société de l’information grâce aux technologies de communication montrent que, contrairement à ce qu’on explique souvent, une technologie chasse rarement l’autre. Il y a coexistence plus ou moins longue, rarement disparition. En revanche, les services et les contenus, eux, seront de plus en plus convergents, ou au moins interopérables, parce que cela répond à un besoin fondamental des utilisateurs. C’est la conséquence historique de la numérisation généralisée de l’information, ce que Simon Nora et Alain Minc avaient déjà annoncé dans leur fameux rapport sur l’Informatisation de la société en 1978. De ce point de vue, et selon la manière dont nous l’avons pensé en mettant en œuvre, avec Lionel Jospin, le programme d’action pour la société de l’information entre 1997 et 2002, la société de l’information est la conséquence de l’informatisation de la société.
Mais s’il fallait le résumer, quel serait l’objectif nouveau à assigner à la régulation, aujourd’hui encore fragmentée, de ces secteurs en Europe ?
Dans les technologies et les contenus numériques, la roue du changement technique tourne de plus en plus vite, les positions sont instables ; la régulation européenne et nationale, imaginée à la fin des années 1980, de plus en plus contraignante, et les nouveaux entrants, souvent extérieurs aux secteurs historiques des communications (audiovisuel et télécommunications), de moins en moins européens (asiatiques pour les équipements et les terminaux de télécommunications, américains pour les logiciels) se multiplient. La vraie question qui devrait nous préoccuper est : que restera-t-il de la place de l’Europe dans ces secteurs en 2015 ? Placée aux premières places dans les télécoms, l’audiovisuel, les jeux vidéo, la France saura-t-elle adapter ses modes de régulation, notamment publics, aux bouleversements en cours ?
- *.
Ancien conseiller pour la société de l’information de Lionel Jospin, Premier ministre, de 1997 à 2002.
- 1.
Le Monde, 7 avril 2006.