Dans le même numéro

Web 2.0 : les économies de l’attention et l’insaisissable internaute-hypertexte

mars/avril 2009

#Divers

Sur le Web participatif et les réseaux sociaux, tout le monde est invité à contribuer par lui-même aux contenus mis en ligne. Mais ce n’est pas là un développement très inattendu, puisque l’internet a été conçu dès l’origine comme un lieu d’échange d’information au sein d’une communauté. Ce qui est nouveau, en revanche, c’est l’inversion de la rareté : ce ne sont plus les contenus rendus disponibles qui sont rares mais l’attention que l’internaute pourra leur consacrer.

On fait apparaître sur l’écran la page à lire pour connaître la réponse aux questions posées [...]. Un écran serait double, quadruple ou décuple s’il s’agissait de multiplier les textes et les documents à confronter simultanément ; il y aurait un haut parleur. Utopie aujourd’hui [...] pourvu que se perfectionnent encore nos méthodes et notre instrumentation [...] jusqu’à rendre automatique l’appel des documents sur l’écran, automatique aussi la projection consécutive...

Paul Otlet1

[...] spread like a nervous network... knitting all the intellectual workers of the world through a common interest and a common medium of expression into a more and more conscious cooperating unity.

H. G. Wells2

L’un des inconvénients, non des moindres, des discours sur l’internet tient à leurs amnésies chroniques et leurs myopies périodiques qui aplatissent couches de protocoles, réseaux, logiciels et services, rendent interchangeables numérique, internet et Toile, compilent l’ensemble de bulle en bulle et fondent leurs modernités successives sur l’oblitération du passé. Ainsi du « Web 2.0 », ce sigle qui prétend embrasser de nouveaux services sur l’internet caractérisés par davantage d’interactivité et la possibilité donnée aux internautes de devenir créateurs et diffuseurs de contenus : changement radical de perspective ou storytelling vieilli d’une « révolution numérique » permanente ?

Les discours sur les « nouvelles technologies de l’information et de la communication » (Ntic) multiplient les histoires inédites pour occulter leur âge. Or, les graines de ces nouvelles techniques germent avec la R&D de la Seconde Guerre mondiale. Leurs racines prennent aux temps de la première guerre des étoiles, à l’heure de la préparation d’Apollo, pour faire éclore le protocole « internet ». À partir de la Libération, on commence à parler d’informatique et à penser « par association3 ». En 1964, la « communication par paquets » s’invente avec Paul Baran sans savoir qu’elle capturerait par la suite toute communication. En 1965, Theodor Nelson4 baptise l’hypertexte « non séquentiel » et ses corollaires : la liberté de lier et la liberté de « transclusion5 ». En 1969, Vint Cerf accouche des premiers tests de l’internet. Vingt ans après, une de ses traductions possibles – le World Wide Web – de Tim Berners-Lee et Robert Caillau6 paraît et devient le petit nom de la navigation, peu avant le cousinage d’« Archie », premier moteur de recherche développé par Alan Emtage à l’université McGill, etc. La « révolution numérique » porte plutôt beaux ses quarante ans, sinon plus !

Dans cette révolution continue, faut-il vraiment considérer le Web 2.0 comme révolutionnaire, avec son concept indéfini et ses archétypes de business models7 se portant aux avant-postes de l’avant-garde d’une nouvelle « nouvelle économie » ? La rhétorique du Web 2.0 prospère pourtant sur des éléments structurants, invariants depuis des décennies. Et si les grappes d’innovations ont proliféré sur des marchés grands publics, elles restent mineures. Aussi le Web 2.0 n’est-il peut-être que la redécouverte du lien hypertexte et de ses caractéristiques intrinsèques : la non-linéarité, la déstructuration documentaire, le primat accordé au lecteur8. Il reste soutenu par trois techniques fondatrices de la navigation : les adresses Web, le système de noms de domaines, les protocoles de liens et de publications, indispensables à tout navigateur9. On objectera que les logiciels, ces langages au cœur de l’économie numérique, ont connu des bonifications de tous ordres sur lesquels se dressent les succès de rares start-up et d’exceptionnels géants : les Google, eBay, Amazon… Certes. De nouvelles syntaxes ordonnent mieux les outils de transferts et d’échanges de données, l’adressage d’informations10 y est plus précis comme les flux Rss épaulent plus légèrement la syndication – c’est-à-dire l’identification – de documents11. Sans doute, l’ergonomie des interfaces logicielles autant que les services sont aussi plus transparents. Mais au total, ces nouveautés s’exhibent sur des piédestaux assurés et anciens, en sorte que le Web 2.0 ne serait peut-être rien, ou plutôt, rien d’autre que des rejetons attardés de l’hypertexte12.

La cause était entendue. Cependant, l’approfondissement de la puissance de l’hypertexte dévoile, au moins sous le regard des modèles économiques et des usages du Web 2.0, ce qu’il recelait. Dans une économie d’abondance informationnelle, ils tentent avec les mêmes briques de créer une économie des usages au profit d’un marketing comportemental inédit sur les réseaux sociaux, confirmant l’hypothèse selon laquelle, l’internaute est devenu un média, moins comme nœud de réseau que comme hypertexte même.

Une économie d’abondance informationnelle

À l’ère de l’économie de l’immatériel, de la valorisation budgétaire des actifs immatériels13, les oscillations stratégiques des États ou des acteurs industriels en matière de propriétés intellectuelles dominent, hésitant entre, d’une part, le renforcement des mécanismes de lutte contre la contrefaçon à la faveur d’une exploitation fondée sur la discrimination de prix et de diversification des formes d’accès et, d’autre part, la mise à disposition d’œuvres, de données publiques ou d’interfaces logiciels pour atteindre un bien-être immédiat ou supérieur par des réutilisations, modifications, commercialisations ultérieures.

De l’abondance à sa valeur

La formation de produits d’innovations techniques grand public à prix décroissants a autant favorisé la révolution numérique qu’elle se nourrit de l’abondance inédite de biens informationnels permise par la conjugaison de révolutions techniques trentenaires : capacités de stockage à moindres coûts de l’ensemble des contenus (imprimé, audio, vidéo), caractère illimité de l’accès aux flux et patrimoines de contenus, intégration croissante d’électronique dans les équipements grand public, décloisonnement des marchés de l’information de la télévision, aux plates-formes de distribution de contenus, aux Webs radios ou TV du monde entier, mais aussi, presse en ligne, bibliothèques virtuelles ou outils logiciels de production.

Il aura fallu quinze années pour se rendre compte que tout contenu – texte, images, sons, vidéos, bases de données – pouvait être numérisé, stocké, diffusé à un coût marginal proche de zéro et par conséquent que leurs prix tendaient structurellement vers zéro, et ce, aussi importants que puissent être les coûts de production de l’information. Tout l’imprimé depuis un demi-millénaire, la musique enregistrée depuis un peu plus d’un siècle, tout le cinéma et les programmes audiovisuels depuis un demi-siècle entrent dans cette dynamique d’abondance. La valeur extraite de la rareté d’un support (CD, Dvd) pour quelques titres musicaux, ou pour un film, reste parfaitement indépendante de la matière argentique, synthétique ou de silice qui la reproduit et la diffuse. Que valent les jours et les nuits de musique enregistrée depuis l’origine du phonogramme, à l’aune des quelques centaines d’euros du prix de son stockage ? Rien, ou presque pour le consommateur, mais tellement plus pour l’auditeur qui écoute ses morceaux préférés sur son baladeur numérique ou pour le fan qui se reconnaît et s’identifie à travers cette musique14. Pareil constat ne change rien aux déterminants multiples de la valeur des œuvres : les coûts de production, affranchis des prix de vente – sauf à faire varier les prix d’entrée en salle de cinéma selon les budgets de production ou ceux du phonogramme d’un Requiem en fonction du cachet des choristes. Leur valeur d’usage est faite de l’accumulation des goûts, des émotions, des systèmes de légitimité ; et s’y adjoint de la valeur, valeur d’échange de ces biens, dits culturels, artistiques d’abord et symboliques aussi ; mais valeur également des sujets de conversation, objets de réseaux intimes et sociaux et leurs entrecroisements ; elles font ensemble signes de communautés et marqueurs d’identités comme d’appartenances, de connaissances comme de reconnaissances, elles qui ne sont lisibles que par une géologie et une généalogie aussi bien sociale que personnelle.

L’économie de la production d’information, longtemps périphérique dans l’analyse de l’économie industrielle et dans l’analyse de l’économie de la culture, reste pour une large part encore très éloignée de l’appréhension des faits économiques par les agents économiques, producteurs comme consommateurs. Seules peut-être, hormis l’économie financière informationnelle durant ses récentes ou actuelles périodes de crise, les industries culturelles et de communication ont fourni une forme d’indicateur avancé de la transformation de l’économie par le numérique. Elles manifestent la situation particulière de la production de biens informationnels : c’est la fameuse métaphore de la lumière de Thomas Jefferson selon laquelle il n’est pas de propriété dans le domaine de l’information15 ; et dès lors, l’apparition d’une économie de droits, droits de propriétés intellectuelles autrement dit institutions juridiques destinées à constituer des incitations à créer face aux logiques de passagers clandestins accédant à l’information sans la financer, et donc, à répondre aux imperfections de marché que l’accès libre aux œuvres portait : des stratégies de surproduction ou de la sous-production appelant des interventions publiques.

Ayant énoncé les frontières de l’économie informationnelle et en particulier les caractéristiques de détermination des prix de l’information et plus encore des biens culturels, l’analyse économique classique trouve vite ses frontières à l’aune impossible d’une économie d’abondance informationnelle16. L’économie suggère, sans jamais aider à décider, que cette question est affaire de décision – politique donc –, entre, d’une part, le bien-être collectif issu de l’accès à l’information et, d’autre part, les coûts de protection de celle-ci et des investissements qu’elle exige. Elle conduit donc à regarder au-delà, par exemple vers une pensée critique de l’homo œconomicus, pour dégager des motivations des agents économiques non pas contre la valeur marchande immédiate et de la rationalité qui y conduit, mais au-delà17. Car, elle dépend tout autant des ressorts de l’échange sur les marchés qu’elle repose sur des perspectives non marchandes, par exemple repérées par l’anthropologie économique18. Cette économie renouvelée et rappelée convoque, parmi les actifs immatériels de création de richesses, individuelles et collectives, immédiatement marchandes ou non, par tous les ressorts de croissance, quelque chose de l’ordre de la « créativité ». Or, c’est dans cette direction que les modèles économiques du Web 2.0 trouvent les sources essentielles de leurs succès.

Une économie de l’inutile – créative ?

Si les modèles économiques du Web 2.0 parviennent à reposer sur une économie d’abondance de biens informationnels, ou en expriment seulement la possibilité, ce n’est pas seulement qu’ils exploitent mieux et de façon nouvelle l’abondance de biens informationnels, c’est qu’ils puisent dans des ressources traditionnellement exclues de l’ordre économique marchand dont ils expriment la fécondité. L’ordre économique, établi sur le partage entre l’otium et le negotium n’a jamais embrassé la première, dont il tirait son existence en l’excluant. Le Web 2.0 révèle l’importance et la valeur du loisir, fruit du temps libre – celui d’un Sénèque, de la paideia ou de la scholè – au cœur d’une société de la connaissance, et de façon contemporaine, celui de la culture, soit des effets de ce partage asymétrique19. Les modèles du Web 2.0 explorent la richesse des réseaux sociaux et des sociabilités au cœur des actifs immatériels, se fondent sur les productions permises par « la fin du travail » – cette 2e activité hors sommeil de l’humanité – comme sur les résultats des inventions du quotidien, ces temps des loisirs. Semblable réapparition se conjugue avec la montée en puissance des actifs immatériels qui naissent pour une grande part de ces périodes oiseuses qui nourrissent le capital humain20 et fécondent le capital social : facultés de participation, de création, de liens. Le Web 2.0 travaille ces « capitaux », résidus de dépenses improductives, ou plutôt inconditionnelles, c’est-à-dire enfants de la perte21.

Que font, en effet, les services du Web 2.0 ? Ils rendent possible l’expression, c’est-à-dire la publication d’un ensemble de créations, productions, services d’informations engendrés par des utilisateurs sur leurs temps libres, leurs temps de loisirs, certains des temps invisibles de contemplation, d’intuition, de création et de contribution. Ils modèlent à partir de ces participations, des notoriétés, de l’information sur l’information, des biens inépuisables. Ils font advenir les utilisateurs, les consommateurs, au rang de prosumers, ces consommateurs créateurs inclus désormais dans le processus productif, comme producteurs ou donateurs sinon de contenus, du moins du temps : les User Generated Contents (Ugc). Ce faisant, de nombreux modèles économiques du Web 2.0 développent cette ressource à l’origine de tissus de sociabilité des réseaux sociaux. Ils se nourrissent d’une économie d’abondance qu’ils entretiennent, d’une économie de l’inutile, économie des petits riens, des miettes économiques en quoi consistent les temps à annoter, contribuer – gratuitement – par ses photos, ses films, ses participations au développement d’un logiciel, à l’écriture d’un article encyclopédique, etc.

Pareils modèles émergents de l’économie de l’information, viables ou non, ne peuvent que mettre en question les modèles précédents fondés sur la production, la distribution et la valorisation des biens informationnels culturels. Ces derniers s’accommodent mal d’une économie du « gratuit » qui reposerait sur des stratégies de subventions croisées entre, pour schématiser, des secteurs établis sur une économie « minière », faite d’investissements, de droits à valoriser, d’épuisement potentiel (les industries productrices de contenus) et, d’autre part, une économie de « tuyaux », faite aussi d’investissements élevés, mais de réseaux surtout, et largement indifférente aux flux circulants22. Il en résulte, depuis plus d’un quart de siècle au plan international comme national, une confrontation industrielle, financière et juridique, idéologique aussi. Ces enjeux se traduisent, seulement depuis peu pour le grand public, à travers les débats sur la propriété intellectuelle, les mesures techniques de protection des œuvres et les Digital Rights Management Systems (Drms), les moyens de lutter contre la contrefaçon numérique et leur compatibilité avec la protection des données personnelles. Ils se trouvent à présent engagés dans la confrontation sur la neutralité technologique : la prépondérance donnée à l’économie traditionnelle des contenus fera-t-elle plier l’autre économie ou l’inverse en fonction des capacités d’investissements des uns et des autres ?

Dans l’intervalle, une nouvelle structure de production et de valorisation des contributions de chacun s’est déployée. Au-delà même de l’extrême diversité des modes d’exploitation des œuvres et des nouveaux marchés numériques et en dépit des modes d’acquisitions non autorisées, il s’agit d’une profonde mutation de valorisation de l’information qui se développe au moment où l’abondance de contenus nouveaux accessibles sur les réseaux déplace mécaniquement ailleurs les lieux de rareté : du côté de l’attention23 – sans résoudre encore la question des conditions de financement de cette production. Cette rareté, partagée comme un problème pour tous les acteurs, recentre bien la valeur du côté de l’information sur les contenus, sur l’organisation de cascades informationnelles, sur les systèmes partagés de connaissance, les acteurs et outils de prescription et de qualification de l’information.

Or, pour ces biens informationnels et « culturels », le Web 2.0 constitue un terreau de modèles d’affaires et d’analyses de valorisation éclairant le passage d’une économie de la rareté d’accès aux contenus à une économie de la rareté d’attention à l’information sur les contenus. Il s’agit pour l’économie de la culture, ou plutôt des industries culturelles, non pas seulement d’une mutation profonde de stratégies-réflexes qui conduisait à des tentatives de maîtrise des systèmes de distributions, mais d’appréhender une valeur déplacée des contenus vers le halo d’images et d’informations sur eux, au point que l’œuvre et l’information qui lui est attachée n’en finissent pas de se confondre comme biens d’industries, moins désormais comme biens informationnels produits dans le cadre de stratégies marketing, que comme des biens informationnels des pratiques d’usages. Le consommateur de biens culturels devient ici producteur de valeur, incorporé qu’il est dans le cycle de création et de communication.

Briques et architectures du Web 2.0 ?

Les mutations qui traversent l’économie culturelle – économie d’offre et de prescription avant tout – se révèlent de façon singulièrement forte dans la pluralité des modèles économiques du Web 2.0. Ces modèles reposent sur des architectures de services modulables qui articulent de façon différente des fonctions et des services en général gratuits et des logiciels libres. Leur diversité ne masque pas que, pour la plupart, ils cherchent à se positionner sur les segments d’info-médiation des chaînes de distribution, assurant l’intermédiation entre des annonceurs et la participation et les besoins des utilisateurs. Ils le font notamment par l’offre de techniques d’accès libre et décentralisé (Rss, podcasting, etc.). En somme, leur modèle économique s’analyse principalement comme celui de plates-formes gratuites pour les utilisateurs mais financées indirectement par la publicité.

Synthétiquement, les services dits du Web 2.0 sont principalement des plates-formes de recueil, de syndication et de redistribution/rediffusion/adressage d’informations de toute nature, constitutifs de services ou de médias de masse communautaires et interactifs. Ils hybrident trois sources principales de modèles issus des structures de réseaux : les réseaux classiques de distribution (top/down), les réseaux de communication interpersonnelle, fruits des réseaux commutés de téléphonie fixe et mobile, mais surtout les réseaux distribués qui fournissent les conditions de communautés et/ou de participation. Les modèles économiques du Web 2.0 sont en apparence ceux qui combinent le mieux les deux dernières catégories.

Bases de données, foules, réseaux, traîne

En effet, l’une des nouveautés des services du Web 2.0 procède du principe que la foule est productrice (crowdsourcing), donnant lieu à la constitution et à l’entretien de bases de données d’images (Flickr), de vidéos (Youtube, Dailymotion, etc.), à côté de la mise à disposition de bases de données publiques comme commerciales (cartographie de GoogleEarth, catalogues d’ouvrages d’Amazon, etc.). La présence de base de données est la condition centrale de la logique économique à l’œuvre d’un très grand nombre de ces services. Elle profite de la réduction des coûts d’un très grand nombre de contributeurs, favorise l’adéquation de l’offre et de la demande par l’action des fournisseurs des contenus (photos, vidéos, articles encyclopédiques). Elle s’inscrit donc aussi dans des stratégies d’offres personnalisées ou personnalisables, avec des services flexibles du type de Netvibes, ou encore sur des réseaux sociaux (Facebook).

« Foules intelligentes24 »

Dans nombre de ces services, les logiques de contribution des utilisateurs jouent un rôle prépondérant pas seulement parce qu’elles constituent une ressource gratuite, mais bien souvent parce qu’elles expriment le déplacement de la valeur, des contenus vers l’information sur les contenus, de la consommation individuelle des contenus vers les pratiques sociales de contenus, autrement dit, des contenus vers des biens informationnels sur les usages des contenus devenus des biens informationnels. Nombreux en effet parmi ces services sont ceux qui s’appuient sur la participation – individuelle ou communautaire – des utilisateurs, ainsi qu’en témoigne l’exemple de Wikipedia, afin de concourir à l’amélioration des services à mesure de l’accroissement du nombre des utilisateurs. Pareilles logiques reposent sur une dynamique principale : l’existence d’une loi de la participation selon laquelle les publics, en fonction de leur contribution, apportent au service ou à la plate-forme un certain nombre d’éléments susceptibles d’être valorisés : la lecture, l’indexation, le commentaire, la prescription, mais surtout la mise à disposition de contenus, le développement de logiciels, etc. Chacun de ces usages manifeste des degrés d’engagement25 selon une loi de distribution classique : peu d’utilisateurs seraient des forts contributeurs, mais un grand nombre d’utilisateurs expriment des modes d’interaction déjà active26. Cependant, la loi de participation reste incertaine car un bien petit nombre d’individus ou de communautés assure l’essentiel de la participation.

Utilité des réseaux communautaires

Les services du Web 2.0 reposent pour une large part sur les principes classiques de l’économie des réseaux, en particulier les dynamiques qui leur sont propres : des externalités de réseaux27. Il s’agit de ces effets économiques – positifs ou négatifs28 – réalisés hors du marché par l’action d’un agent économique sur un autre agent29. Pour les réseaux ou services en réseaux comme les messageries instantanées, les réseaux pair à pair, on observe que leur utilité est fonction du carré du nombre d’utilisateurs conformément à la loi de Metcalfe. Mais la nouveauté est ailleurs : dans le renversement du modèle économique des contenus. Traditionnellement, y prévaut la loi dite de Sarnoff, selon laquelle l’utilité des réseaux de distribution et de diffusion progresse selon la qualité, la quantité et la variété des contenus. Mais pour les prescriptions sur Amazon, les catalogues de Flickr, de Dailymotion ou Youtube, les communautés comme Facebook ou Myspace, etc. relèvent d’une loi, dite de Reed, selon laquelle l’utilité des réseaux mutualisés et communautaires est plus puissante grâce aux niveaux de participation, d’engagement, autour de centre d’intérêts partagés. Le succès de ces plates-formes se nourrit en outre de rendements croissants d’adoption de feedbacks des utilisateurs, d’effets d’entraînement (bandwagon effects), de mécanismes d’autorenforcement, de mimétisme, etc., autant de dynamiques de l’économie du logiciel et des réseaux.

Longue traîne ?

L’adoption par un grand nombre d’utilisateurs de ce type de services tient pour beaucoup à l’accès gratuit à des contenus en vastes stocks d’informations et de contenus. Nombreux sont ceux qui se réclament d’une hypothèse caractéristique du Web 2.0 qui consisterait à exprimer un phénomène de « longue traîne » (long tail30). Selon cette hypothèse, la dématérialisation des contenus et l’accès à des catalogues illimités conduiraient à une diversification croissante des choix des consommateurs, limitant le poids occupé par les best-sellers, produits stars ou hits. Analysée par exemple sur les prescriptions des utilisateurs sur les ouvrages en vente sur Amazon, l’hypothèse invite à penser à une économie de niches modifiant en profondeur les modes de consommation et sa concentration. Pourtant, on constate que la distribution des préférences se porte sur un nombre limité de choix aussi bien en ce qui concerne la fréquence du vocabulaire employé communément31 que la récurrence des citations dans les articles scientifiques32 ou les services du Web 2.0. Le constat est le même du côté des analyses de fréquentation du Web33, des mailings lists des Yahoo Groups, des liens de Technocrati, ou plus directement les ventes de CD ou de Dvd34.

La plupart des modèles du Web 2.0 s’établissent avec ces caractéristiques qui sont comme des briques nécessaires à la formation de leurs services car, au-delà de telles ou telles fonctionnalités nouvelles, le Web 2.0 se traduit par des plates-formes modulaires qui articulent ces éléments selon des dynamiques propres à chacune.

Le modèle de plate-forme : système d’intégration des usages

Un type d’analyse économique, éprouvé bien avant l’émergence du Web 2.0, permet de rendre compte de la structure de ses modèles d’affaires : les marchés bifaces (two-sided market) modélisés dans les années 1990-200035. Le principe en est relativement simple, qui repose sur la constitution de plates-formes d’interactions entre deux catégories d’agents économiques distinctes. L’exemple le plus évocateur concerne les médias de masse, comme la télévision ou la presse qui mettent en relation les annonceurs et des publics et assurent l’intermédiation entre les uns et les autres, produisant des programmes ou de l’information destinés à satisfaire des publics visés par les annonceurs qui financent ainsi la production audiovisuelle ou l’information de la presse.

Pareil modèle s’applique aisément à toute plate-forme d’informations, de programmes (audiovisuel), de contenus (radios, portails), de recherches (Google, Yahoo !…), de rencontres (Meetic), de qualité d’informations (eBay, Amazon…), etc. Toutes ces plates-formes d’intermédiation cherchent à créer et multiplier des externalités indirectes entre les deux catégories d’agents, en particulier sur le segment de la publicité en ligne36. Par exemple, sur le modèle du déploiement des assistants personnels numériques qui se fondait non sur les logiciels propriétaires initiaux mais sur les logiciels produits par des utilisateurs/développeurs, assurant ainsi une plus grande utilité à un nombre croissant de nouveaux utilisateurs. L’enjeu de ce type de stratégies consiste à maîtriser, développer et valoriser des interactions et des effets réseaux, c’est-à-dire les comportements des utilisateurs, qu’ils soient abordés du côté de la consommation ou de la création de contenus services.

Les modèles du Web 2.0 forment donc des plates-formes d’interactions entre les faces d’un marché. Les services comme Amazon, eBay, Google, Msn, etc. s’adressent à plusieurs marchés distincts et produisent des interactions à l’origine d’externalités de réseaux entre plusieurs catégories d’agents, en particulier à travers les contributions des développeurs, prescripteurs, fournisseurs de contenus, de commentaires, etc., qui enrichissent l’utilité des utilisateurs. Les services du Web 2.0 se développent à l’encontre des stratégies de portiers (gate-keeper) de l’internet, fondées sur des systèmes de verrouillage (set top box, modem Adsl, carte Sim des téléphones mobiles…). Les conditions de développement de plates-formes du Web 2.0 tiennent à l’accès gratuit aux services, l’accès aux outils permettant aux utilisateurs de développer logiciels et services et de mixer ces derniers (mashups). Dans tous les cas, les logiciels sont l’élément central de ces modèles37.

Durables ou non, les services du Web 2.0 sont gratuits et s’appuient sur des logiciels, le plus souvent libres, ou des interfaces de programmation utilisables par les utilisateurs et, généralement, interopérables avec l’ensemble des systèmes d’exploitation, car l’objectif principal de ces modèles consiste à agréger des foules participantes. Cependant, ces modèles rencontrent des obstacles potentiels majeurs. Tout d’abord, ces plates-formes ne sont pas organisées initialement pour conserver des utilisateurs, libres d’aller d’un moteur de recherche à un autre, d’un réseau social à un autre. Cette situation (multihoming) affaiblit considérablement la robustesse des modèles et le jeu des externalités, que les plates-formes ne peuvent plus internaliser. En second lieu, les stratégies de fermeture, à travers des langages logiciels propriétaires ou des conditions d’utilisation restrictives, sont aussi susceptibles d’affaiblir les dynamiques des plates-formes qui les adopteraient. Aussi, les stratégies des plates-formes sont-elles conduites à naviguer entre ces deux écueils, développant des services de plus en plus nombreux pour intégrer un nombre croissant d’usages et de services de logiciel en logiciel38. Dans un mouvement inverse, les plates-formes sont contraintes à se rendre interopérables les unes avec les autres, par exemple les différents réseaux sociaux auxquels les internautes peuvent s’abonner.

Dans toutes ces configurations, l’internaute se retrouve en définitive en situation de constituer lui-même une plate-forme, jouant entre les différentes plates-formes Web 2.0 et les annonceurs. Devenu comme un média, c’est-à-dire support de publicité, l’internaute est susceptible de manifester l’impasse ou la fragilité des modèles du Web 2.0, car il n’a pas, pour sa part, la possibilité d’internaliser les externalités qu’il crée. Les différentes plates-formes cherchent, dans l’intervalle, à maximiser les interactions créées par l’utilisateur pour assurer leur financement qui vient de la publicité.

L’internaute comme hypertexte

Quelle que soit la qualité des services Web 2.0, l’internaute demeure dans une situation de choix, sauf à ce que ces services, après une stratégie de capture de publics, ne déploient des stratégies classiques d’intégration verticale de fournisseurs de contenus. Cette hypothèse commence à se vérifier à travers les stratégies d’acquisition et de rapprochements entre activités de réseaux et activités de production et distribution de contenus, comme elle se repère dans la mise en œuvre d’outils de distribution sécurisée de contenus valorisables à travers la publicité. Car, jusqu’à présent, les nouvelles plates-formes de distribution de contenus ou les réseaux sociaux valorisent peu les contenus directement. Gratuites pour le consommateur, elles sont financées par la publicité qui occupe une situation centrale dans l’économie de l’info-médiation. La publicité se justifie d’ailleurs toujours aussi classiquement s’agissant de marchés imparfaits, sur lesquels elle est d’autant plus importante pour les consommateurs qu’elle est informative et utile pour repérer des qualités propres à des biens d’expérience – c’est-à-dire des biens dont on ne connaît la valeur qu’après les avoir consommés – et pour les offreurs d’autant plus efficace qu’elle peut déclencher des effets de contagion39.

Les modèles économiques du Web 2.0 ouvrent le défi de combiner les analyses les plus classiques de la publicité relatives à l’attention des utilisateurs, qu’on la renomme ou non « économie de l’attention », avec les analyses relatives aux réseaux sociaux, pour constituer quelques bases d’une économie numérique des usages notamment sur les réseaux sociaux. Dans tous les cas, le renouvellement de l’économie de l’attention s’attache à valoriser le caractère pertinent de l’information appropriée et recherchée par le consommateur de manière à capter son attention à travers les technologies40. Elles visent à renseigner les analyses comportementales des usages sociaux, autrement dit leur profilage. Paradoxalement, cette montée en puissance de l’économie marchande des usages numériques tend à rejoindre les approches critiques de l’homo œconomicus, en les absorbant. Elle admet en effet que l’utilisateur n’est pas seulement mû par la rationalité des intérêts, mais aussi un « être social » engagé dans des stratégies de positions et de réseaux sociaux.

De l’attention à « l’engagement » et au-delà

Les médias classiques se satisfont relativement bien d’une logique d’attention, au centre de son économie, entre d’un côté la programmation de contenus, et de l’autre les annonceurs. Assez rudimentaire pour les médias, elle consiste à capter l’attention de cibles d’usagers en fonction de catégories sociodémographiques (ménagères de moins de 50 ans, 13-15 ans, etc.). Pour ces médias, l’audience, même qualifiée, constitue un indicateur relativement robuste, en tout cas à peu près suffisant. La nouvelle configuration des médias numériques bouleverse le jeu : consommations en multiactivités (musique, jeu, Web…), multiécrans (télévision, téléphone mobile, ordinateur), multicontenus (Sms, messagerie instantanée, etc.), simultanément, partiellement, en mobilité ou pas, de plus en plus à la demande (télévision de rattrapage, vidéo à la demande, liberté de programmation, etc.), de tout type de contenus et de communications de toutes natures. La fragmentation des canaux d’attention et la volatilité de celle-ci se traduisent par une pulvérisation des contacts aux messages publicitaires, une pluralité de ses temporalités, et sont comme inversement proportionnels à la « convergence » numérique des médias et des télécommunications. Les marchés de l’attention, au cœur du financement de l’économie des contenus dématérialisés, font face à une dynamique de déspécialisation des supports et des modes d’accès, en même temps que progresse l’individualisation des goûts, préférences, sélections, consommations.

Pareille mutation rend cruciales les nouvelles métriques d’attention, d’usages, d’efficacité publicitaire, tant les mesures traditionnelles apparaissent rudimentaires, préhistoriques du numérique, puisque leurs méthodologies fondamentales sont restées globalement stables des années 1960 à 200041. La prise en compte d’une interactivité commencée avec le zapping, symbole audiovisuel de l’hypertexte, est elle-même restée rustique, cherchant seulement à traduire le « clic » des utilisateurs sur les bannières en indices de leur engagement marginal, les utilisateurs restant structurellement tenus pour passifs dans leur consommation42. Cependant, dès les années 1960 les espaces de l’interactivité sont ouverts pour les médias de masse, même s’ils ne les explorent pas. Des modes de participation bien plus actifs (contribution, persuasion, réponse, achat) répondant à la tendance du consommateur expressif (express yourself!) étaient déjà envisagés. Instituts de sondages, agences de médiaplanning, centre de recherches publicitaires, ne cessent alors de chercher à combler l’intervalle entre l’attention et l’engagement sans que n’émergent techniquement et intellectuellement les conditions d’une toise adéquate, condition pourtant nécessaire sinon de l’éclosion d’une économie numérique des usages, du moins de son financement43. Or, fondamentalement, toutes ces mesures sont fondées sur des techniques issues des médias traditionnels, qu’elles rendent compte de l’audience du support (Site-Centric), du message publicitaire (Ad Centric) comme le click, ou l’utilisateur qui y est exposé (User-Centric). C’est dire que, même approfondie et combinée, aucune de ces mesures n’intègre l’effet le plus massif de l’hypertexte et du numérique qui fait de l’utilisateur un lecteur/éditeur, et toutes tiennent les formes les plus avancées de l’engagement comme des horizons inaccessibles.

Les nouveaux champs publicitaires : comportements, conversations, réputations, réseaux

L’économie de l’attention ne peut que s’attacher à valoriser, dans une économie d’abondance, le caractère pertinent d’une information appropriée pour le consommateur, de manière à transformer monétairement la capture d’une ressource rare. Dans ce cadre, parmi la nébuleuse des modèles du Web 2.0, émergent avec quelques plates-formes assurant une logicialisation, aussi invisible que possible pour les utilisateurs, les ressorts de l’économie numérique des usages. Ils doivent être capables d’apporter une solution économique à l’abondance des biens informationnels numériques et à la rareté des ressources d’attention. Délaissant des stratégies d’attention des médias classiques, ils se concentrent sur la qualification de l’information en fonction des relations, des goûts, des requêtes, etc. Pour ce faire, la plupart des plates-formes construisent des outils de recueil d’informations sur les comportements des utilisateurs par une adaptation progressive du ciblage, des dynamiques relationnelles articulant services informationnels d’un côté et, de l’autre, personnalisation et fidélisation des utilisateurs.

C’est pourquoi Google, antérieur aux nouveaux modèles du Web 2.0, demeure le porte-drapeau de la nébuleuse grâce à sa fonction de recherche qui constitue la réponse globale aux questions soulevées par l’économie de l’attention dans l’environnement numérique : la révélation des préférences. Cette fonction assure donc la gestion de l’information rendue aux utilisateurs sur une face du marché, comme elle permet, sur la face du marché des annonceurs, de vendre une faculté de ciblage. L’économie de l’attention est profondément liée à la constitution de bases de données personnelles résultant des requêtes d’utilisateurs, de leurs recommandations, de leurs parcours, de leur notoriété, de leurs réseaux, etc. Ces bases, indispensables au profilage des utilisateurs, reposent sur la formation d’une multitude de services logiciels destinés à favoriser la création de données personnelles, la production d’éléments sociodémographiques, psychologiques, etc. Leurs modèles économiques, principalement fondés sur tel ou tel outil d’interaction pour capturer de l’attention, dépendent donc des perspectives de la publicité en ligne44.

Le behavioral marketing et le targeting marketing

Le behavioral marketing, conçu à partir des années 1970, cherche à optimiser l’allocation d’investissements publicitaires entre les supports, au moment de la fragmentation des audiences face à la multiplicité des supports médias45. Le targeting marketing se concentre sur l’efficacité de l’adressage des messages, en visant particulièrement ceux qui disposent d’une information importante sur les produits et services qui les intéressent, peuvent comparer prix, qualité, conditions d’achat, et sont tenus pour prescripteurs46. Mais l’objectif est commun : analyser le comportement et l’attention à des fins de marketing en associant management, économie et psychologie47. À cet égard, Google optimise bien les choix d’allocations d’investissements sur le marché de la publicité par des outils de ciblage48. À chaque fois, l’utilité du consommateur ciblé et la différenciation comportementale impliquent l’intégration croissante de fonctions et services (courriel, logiciels, recherche, etc.) capables d’interactions qualifiées pour renseigner des bases de données d’utilisateurs, en particulier à travers des fonctionnalités de base (recherche : Google ; échange de biens : eBay, de photos : Flickr, de vidéos : Youtube, Dailymotion ; et mieux encore, d’espaces personnels ouverts sur des réseaux sociaux : Myspace, Facebook). Et déjà, au-delà de ces plates-formes, les nouveaux horizons de ces formes de marketing fondés sur l’observation des usages se tracent : les services de la géo-localisation49, de personnalisation, et donc principalement ceux des marchés publicitaires de la téléphonie mobile50.

Conversations, buzz et WoM

Le principe d’abondance déplaçant la valeur du côté de l’information sur les contenus, des comportements, de la révélation des préférences, la valeur économique doit être trouvée dans le champ des conversations. Effet de contagion, cascades informationnelles, les conversations virtuelles, les prescriptions, portent le ressort de développement des marchés de biens numériques comme des marchés publicitaires : l’analyse du bouche à oreille (Word of Mouth ou WoM). Appréhender ces usages occupe une situation stratégique pour la publicité attentive aux phénomènes de réputation et de notoriété (buzz) dans les espaces de conversations en ligne, blogosphère en particulier. Objet d’analyses anciennes pour les marchés culturels, ces phénomènes de bouche à oreille sont devenus majeurs sur les réseaux51. Parmi les biens informationnels, ils sont ceux qui sont les plus susceptibles de revente à des fins publicitaires, ceux que les services de plates-formes d’interaction – algorithme du moteur de recherche de Google, prescriptions d’Amazon, notations d’eBay – cherchent à valoriser dans leurs modèles d’affaires. À travers les possibilités techniques de recueillir ces traces se met en place le cœur des dispositifs : la conservation et l’analyse des requêtes sur Google alimentent les résultats du moteur de recherche (page ranking) en les faisant reposer sur la réputation des mots clés, soit le nombre de liens hypertextes dont la page est la cible. La valeur attribuée à l’unité de base du Web – la page ou l’Url – recherchée et donc la mesure de réputation, partant de l’hypothèse que le nombre de liens est un critère sinon de qualité, du moins de réputation. Mais aussi sophistiqué que puisse être le développement continu de services associés au moteur de recherche qui vont selon un modèle fractal de marchés bifaces entre développeurs et usagers, une large part des comportements n’est pas saisie par la plate-forme de Google, comme par la plupart des services Web 2.0. Y tendre suppose de se tourner vers des plates-formes dont la dimension sociologique est prépondérante, en particulier les motivations de contribution52 et les comportements dans les réseaux sociaux.

Les « réseaux sociaux » : une structure compréhensive ?

Les réseaux sociaux sont une des figures des modèles du Web 2.0 : les plates-formes d’interactions sociales que sont MySpace, Facebook, etc. Elles offriraient une compréhension sociale de l’utilisateur et permettraient d’optimiser le recueil d’éléments d’analyses des comportements, à partir de la compréhension de l’influence des pairs, des effets de voisinage, des conformismes, des phénomènes d’imitation, de contagion… Ces réseaux sociaux numériques présenteraient la possibilité de passer du marketing horizontal de médias de masse à un marketing vertical ou individuel dont l’interactivité est le ressort d’optimisation du ciblage publicitaire. Elles seraient ainsi parmi les plus capables de renforcer la dimension classique d’efficacité de la publicité53, combinant logiques des plates-formes d’interaction et ciblage comportemental ou saisie du bouche à oreille. Rien ne serait plus aisé que d’y terminer les comportements individuels et les déterminants du bouche à oreille à travers l’identification de positions de leader-prescripteur, selon l’échelle et l’homogénéité du réseau.

L’analyse des « réseaux sociaux54 », qui comprend notamment les relations entre amis, voisins, parents, ainsi que les liens professionnels, est essentielle au déploiement de nombre de modèles économiques numériques. Elle puise ses sources auprès d’un Georg Simmel ou d’un Gabriel Tarde pour expliquer les structures de sociabilité, du relationnel, des interactions, etc. selon les structures de réseaux sociaux. Elle cherche à dégager les niveaux de participation, d’engagement, d’exclusion, etc., sur des plates-formes qui les exprimeraient numériquement en prêtant plus aisément à des modélisations. En effet, la modélisation mathématique issue de la théorie des graphes est-elle en mesure sinon d’expliquer du moins de figurer la structure des réseaux en fonction de la centralité et de la proximité des membres les composant, comme elle établit les règles d’organisation, de composition, de hiérarchie, d’activités… La traduction économique des réseaux sociaux et des univers relationnels dépasse une logique selon laquelle les agents économiques seraient purement individuels. Sans doute les liens entre les univers relationnels et le capital social et économique sont-ils importants et d’ailleurs révélés par des cercles sociaux. Mais les éléments de structure des réseaux tenant aux logiques d’appariement, d’entraînement, de cohésion ou d’ouverture à d’autres réseaux peuvent être plus intéressants parce que plus significatifs des rôles sociaux des individus davantage que de leurs caractéristiques sociodémographiques. Selon cette approche structurale des réseaux sociaux, à partir d’indicateurs d’intégration, de proximité, d’agglomération ou d’isolement, comme de popularité, visibilité, notoriété, distance, connexité, d’intermédiarité, hiérarchie, densité, etc.55, les logiques comportementales deviendraient commensurables. D’un point de vue économique, l’analyse des réseaux sociaux offrirait ainsi la faculté d’assurer une compréhension des conditions optimales de ventes d’attention, la possibilité aussi, à travers les prescriptions dans les réseaux comme à travers les navigations passées, d’assurer une compréhension des préférences exprimées.

Pour autant, qu’on en cherche la juste métrique, qu’on cible les comportements, qu’on numérise le bouche à oreille ou qu’on mobilise l’analyse des réseaux sociaux, l’utilisateur est toujours pris dans le jeu d’une métaphore technique. Selon cette image héritée des réseaux, il n’occuperait jamais d’autre position ou fonction que celle d’un nod. Ainsi apparenté à un nœud du réseau, un équipement terminal, une terminaison de réseau, l’internaute est comme dépris de sa navigation. Or, la perspective technologique de l’utilisateur sur les réseaux, en particulier en présence de plates-formes logicielles interactives qui caractérisent les modèles du Web 2.0, masque précisément le retournement que ces services du Web 2.0 voulaient symboliser.

Ainsi, d’un point de vue économique, l’internaute comme média constitue un avenir probable du déploiement des plates-formes Web 2.0 capables de l’intégrer à travers les logiques d’interactivité et de réseaux sociaux. Devraient s’y développer des traitements plus fins de données massives, des apports plus contrôlés des foules (crowdsourcing), des fonctionnalités de réseaux sociaux plus qualifiés, flexibles et liés à des gestionnaires d’identités plus puissants, souples et protecteurs de la vie privée dans un continuum fixe/mobile homogène.

L’hypothèse économique d’un internaute-média, jouant de la multiplicité d’offreurs, doit être regardée autrement du point de vue des usages. Par ses navigations, ses réseaux, sa mobilité, il forme un espace de valeur singulier, peut-être observable, mais difficilement compréhensible. Car la valeur de l’utilisateur ne réside plus guère dans son intégration comme nouvel utilisateur accroissant la taille d’un réseau. Elle résulte de la valeur de sa navigation libre, autrement dit d’usages non séquentiels des hypertextes qu’il produit et qui dessinent les univers entrelacés de ses intérêts, goûts et préférences, imbriqués ou séparés, de ses niveaux de participation et d’engagement variés, simultanés, prolongés ou éphémères, créatifs ou non. La navigation opère sans cesse des transclusions possibles d’un univers, d’un terminal, d’un lieu, d’un logiciel ou d’un service à d’autres, en sorte que la métaphore précise des usages et de leurs valeurs est bien plutôt à rechercher du côté de l’« hypertexte » comme le révèlent nombre de ses définitions56. Et il est peut-être temps de cesser de penser l’internaute et sa navigation comme point, terminaison, nod, page… ports, pour lire, de l’inter-naute, son pilotage, ses routes, ses cartes écrites ou non, les vents et les marées qui l’accompagnent ou le contrarient, les rencontres et les identités qu’elles favorisent, interdisent ou suscitent… au cours de leurs odyssées.

Acheteur sur Amazon, chineur sur eBay, chercheur sur Google, bavard sur Msn, contributeur sur Wikipedia, Youtube ou Dailymotion, amical sur Facebook ou professionnel sur Linkedin, l’internaute est aussi personne, tout autre, encore, ailleurs et toujours. Il ne se laisse ni bien déchiffrer par les systèmes d’intégration de plates-formes, ni bien approcher par la construction de métriques publicitaires ou des outils de la publicité comportementale, pas plus qu’il ne s’explique par l’analyse structurale des réseaux sociaux, même si sa position et ses tensions s’y décrivent bien57.

Dans son halo, le Web 2.0 redécouvrant quelques potentialités du Web 1.0 n’a pas encore réalisé le changement de perspective qu’il prétendait incarner, pas plus qu’il n’a véritablement tiré les conséquences critiques de l’hypertexte, pour les médias, pour les savoirs, pour les usages, pour les contenus et l’information, bien qu’inscrites depuis son origine. Rouvrant l’espace à l’économie des usages et la sociologie économique, la « révolution numérique » semble, encore un moment, devoir rester bien jeune.

  • *.

    Professeur associé à Paris 8, maître de conférences à Sciences Po Paris, chef du Département des études et de la prospective au ministère de la Culture et de la Communication.

  • 1.

    Paul Otlet, Traité de documentation. Le livre sur le livre, théorie et pratique, Bruxelles, Éd. Mundaneum, 1934.

  • 2.

    Herbert George Wells, “World Encyclopaedia”, dans le recueil de nouvelles World Brain, New York, Doubleday-Doran, 1938 (communication donnée à la Royal Institution of Great Britain, réunion hebdomadaire du 20 novembre 1936).

  • 3.

    Vannevar Bush, “As We May Think”, The Atlantic, juillet 1945.

  • 4.

    Theodor Holm Nelson, “A File Structure for The Complex. The Changing and The Indeterminate”, dans Association for Computing Machinery (Acm), Proceedings of The 1965 20th National Conference, New York, Acm, 1965, p. 84-100.

  • 5.

    Transclusion : « […] mécanisme qui permet à un document d’être à plusieurs endroits simultanément. […] Le document ne sera pas dupliqué mais transclus, c’est-à-dire inclus simultanément dans divers environnements, soit un hypertexte permettant à un document d’être inséré dans un document », dans T. H. Nelson, “Transclusion: Fixing Electronic Literature”, conférence sur Google Tech Talks, 29 janvier 2007.

  • 6.

    Tim Berners-Lee, “Information Management: A Proposal”, note interne Cern, mars 1989.

  • 7.

    Tim O’Reilly, “What Is Web 2.0, Design Patterns and Business Models for the Next Generation of Software”, International Journal of Digital Economics, 2007, 65, p. 17-37.

  • 8.

    T. H. Nelson, Literary Machines, Sausalito, Mindful Press, 1990 : « Par hypertexte, j’entends simplement écriture non séquentielle. […] Il y a deux arguments essentiels en faveur de l’abandon de la présentation séquentielle. Le premier est qu’elle dégrade l’unité et la structure du réseau du texte. Le deuxième est qu’elle impose à tous les lecteurs une seule et même séquence de lecture qui peut ne convenir à aucun. »

  • 9.

    Http : HyperText Transfer Protocol (transferts d’hypertexte). Html : HyperText Markup Language (langage de publication).

  • 10.

    Xml : Extensible Markup Language ou Ajax : Asynchronous JavaScript.

  • 11.

    Flux Rss (Really Simple Syndication ou Rich Site Summary ou Rdf Site Summary), apparus en 1999 sur le service de page d’accueil personnalisable MyNetscape, en 1999. Ils ont pour fonction d’indexer les contenus bruts de site Web pour les syndiquer, les rediffuser (sous forme de fil d’info) par d’autres sites, ou les rendre accessibles sur des lecteurs spécifiques sans devoir consulter directement les sites d’origine.

  • 12.

    D. E. Millard et M. Ross, “Web 2.0: Hypertext by Any Other Name?”, Proceedings of the Seventeenth Conference on Hypertext and Hypermedia (Odense, Danemark, 22-25 août 2006).

  • 13.

    M. Levy et J.-P. Jouyet, l’Économie de l’immatériel. La croissance de demain, Paris, Ministère de l’Économie et des Finances, 2006.

  • 14.

    P. Chantepie, « Numérique : chiffre musical de la mondialisation », dans Musique et mondialisations, Paris, Cité de la musique, 2009 (à paraître).

  • 15.

    T. Jefferson : « Celui qui reçoit une idée de moi reçoit de l’instruction, sans diminuer la mienne ; celui qui allume sa bougie à la mienne, reçoit de la lumière sans me plonger dans le noir. Les idées devraient se répandre de l’un à l’autre entre nous tous, à l’ensemble de notre monde, pour […] l’amélioration de sa condition […] Les inventions par conséquent ne peuvent par nature être sujettes à propriété. »

  • 16.

    Jean-Michel Cornu, « Y a-t-il une économie d’abondance ? », Université d’été 2004 de la Fondation internet nouvelle génération (Fing).

  • 17.

    Karl Polanyi (1947) : « Aristote avait raison : l’homme n’est pas un être économique mais un être social. Il ne cherche pas à sauvegarder ses intérêts individuels dans l’acquisition de biens matériels, mais plutôt à garantir sa position sociale, un certain statut et des avantages sur le plan social », dans G. Dalton (ed.), Primitive, Archaic and Modern Economies: Essays of Karl Polanyi, Garden City (NY), Doubleday Anchor, 1968 (K. Polanyi, “Our Obsolete Market Mentality”, p. 59-77).

  • 18.

    A. Caillé, Anthropologie du don, Paris, Flammarion, coll. « Champs », 2002.

  • 19.

    Bernard Stiegler, Mécréance et discrédit de la croyance en politique, Paris, Galilée, 2004.

  • 20.

    G. Becker, Human Capital: A Theoretical and Empirical Analysis with Special Reference to Education, New York, Columbia University Press, 1975.

  • 21.

    Georges Bataille, la Part maudite, Paris, Minuit, 1949.

  • 22.

    Olivier Bomsel, Du gratuit. Du déploiement de l’économie numérique, Paris, Gallimard, coll. « Folio Essais », 2007.

  • 23.

    P. Chantepie, A. Le Diberder, Révolution numérique et industries culturelles, Paris, La Découverte, coll. « Repères », 2005.

  • 24.

    Howard Rheingold, Smart Mobs: The Next Social Revolution, Cambridge, Basic Books, 2002.

  • 25.

    Tomi Ahonen, Alan Moore, Communities Dominate Brands: Business and Marketing Challenges for the 21st Century, Londres, Futuretext, 2005.

  • 26.

    Ross Mayfield, “Power Law of Participation”, avril 2006 (http://ross.typepad.com/blog/2006/04/power_law_of_pa.html).

  • 27.

    M. Katz, C. Shapiro, “Network Externalities, Competition and Compatibility”, American Economic Review, 1985, 75(3), p. 424-440 ; id., “System Competition and Network Effects”, Journal of Economic Perspectives, printemps 1994, p. 93-115.

  • 28.

    Arthur Cecil Pigou, The Economics of Welfare, New York, Cosimo Classics, 1932 (vol. II, chap. 9, II.IX.10).

  • 29.

    Voir M. Katz, C. Shapiro, “Technology Adoption in The Presence of Network Externalities”, Journal of Political Economy, 1986, 94-4, p. 822-841 ; id., “System Competition and Network Effects”, art. cité ; H. Varian, J. Farrell, C. Shapiro, Economics of Information Technology, Cambridge University Press, 2004.

  • 30.

    Chris Anderson, “The Long Tail”, Wired, 12.10, octobre 2004.

  • 31.

    G. K. Zipf, Human Behavior and The Principle of The Least Effort, Cambridge (Mass.), Addison-Wesley, 1949.

  • 32.

    S. C. Bradford, “Sources of Information on Specific Subjectif”, Journal of Information Science, 1985, 10, p. 173-175.

  • 33.

    Pour Jakob Nielsen, les petits sites ont moins de visiteurs que les gros, mais ils peuvent néanmoins préserver et développer leur position. Pour chaque interrogation d’utilisateur, le Web propose un ensemble varié de réponses. Voir Jakob Nielsen, “Diversity is Power for Specialized Sites”, 16 juin 2003 (http://www.useit.com/alertbox/20030616.html).

  • 34.

    Pierre-Jean Benghozi, Françoise Benhamou, « Longue traîne : levier numérique de la diversité culturelle ? », Paris, Ministère de la Culture et de la Communication, Deps, coll. « Culture prospective », 2008-1.

  • 35.

    J.-C. Rochet, J. Tirole, “Platform Competition in Two-Sided Markets”, Journal of the European Economic Association, vol. 1, p. 990-1029 ; id., Two-Sided Markets: An Overview, Idei Working Paper, 2004.

  • 36.

    D. S. Evans, “The Economics of The Online Advertising Industry”, Review of Network Economics, 2008, 7-3, p. 359-391.

  • 37.

    D. S. Evans, A. Hagiu, R. Schmaensee, Invisible Engines. How Software Platforms Drive Innovation and Transform Industries, The Mit Press, 2006.

  • 38.

    P. Chantepie, « D’une économie de recherche d’informations à une plate-forme d’économie informationnelle », dans Alain Strowel, Jean-Paul Triaille (sous la dir. de), Google et les nouveaux services en ligne. Impact sur l’économie du contenu et questions de propriété intellectuelle, Bruxelles, Éd. Larcier, 2008.

  • 39.

    S. A. Ozga, “Imperfect Markets Through Lack of Knowledge”, Quarterly Journal of Economics, 1960, 74-1, p. 29-52 ; Phillip Nelson, “Information and Consumer Behavior”, Journal of Political Economy, 1970, 78-2, p. 311-329 ; id., “The Economic Consequences of Advertising”, Journal of Business, 1975, 48-2, p. 213-241 ; id., “Advertising as Information”, Journal of Political Economy, 1974, 83, p. 729-754.

  • 40.

    J. Beck, T. H. Davenport, The Attention Economy. Understanding the New Currency of Business, Harvard Business School Press, 2001.

  • 41.

    Advertising Research Foundation, Toward Better Media Comparisons, 1961 ; Making Better Media Comparisons, avril 2001.

  • 42.

    “Engagement: Understanding Consumers Relationships with Media”, Magazine Publishers of America, octobre 2005.

  • 43.

    Alex Chisholm, Henry Jenkins, Stacey Lynn Koerner et David Ernst, “Pathways To Measuring Consumer Behaviour in an Age of Media Convergence”, dans Advertising Research Foundation/Esomar, Television Audience Conference, Cannes (France), 2002, p. 9-36.

  • 44.

    P. Chantepie, « Le consommateur comme plate-forme, l’économie du marketing en ligne », dans Xavier Greffe, Nathalie Sonnac (sous la dir. de), Culture Web. Création, contenus, économie numérique, Paris, Dalloz, 2008.

  • 45.

    L. Berry, J. H. Kunkel, “In Pursuit of Consumer Theory”, Decision Sciences, 1970, p. 25-39.

  • 46.

    C.-H. Cho, J.-G.Lee, M. Tharp, “Different Forced-Exposure Levels to Banner Advertisements”, Journal of Advertising Research, 2001, 41-4, p. 45-56 ; M. Dahlen, A. Rash, S. Rosenberg, “Love at First Site? A Study of Website Advertising Effectiveness”, Journal of Advertising Research, 2003, 43-1, p. 25-33.

  • 47.

    G. R. Foxall, “Foundations of Consumer Behaviour Analysis”, Marketing Theory, 2001, p. 65-199.

  • 48.

    L. Esteban, J. M. Hernandez, “Strategic Targeted Advertising and Market Fragmentation”, Economics Bulletin, 2007, 12-10, p. 1-12.

  • 49.

    G. Lyber, D. Soberman, J. M. Villa-Boas, “The Targeting of Advertising”, Marketing Science, 2005, 24-33, p. 461-476.

  • 50.

    H. Rheingold, Smart Mobs: The Next Social Revolution, op. cit.

  • 51.

    C. Dellarocas, “Reputation Mechanisms”, dans T. Hendershott (ed.), Handbook on Economics and Information Systems, Elsevier Publishing, 2006.

  • 52.

    S. Rafaeli, D. R. Raban, G. Ravid, “How Social Motivation Enhances Economic Activity and Incentives in The Google Answers Knowledge Sharing Market”, International Journal of Knowledge and Learning, 2007, 3-1, p. 11-31.

  • 53.

    M. Granovetter, “The Strengh of Weak Ties”, American Journal of Sociology, 1973, 78, p. 1360-1380.

  • 54.

    John A. Barnes, “Class and Committees in a Norwegian Island Parish”, Human Relations, 1954, 7, p. 39-58.

  • 55.

    S. Wasserman, K. Faust, Social Network Analysis. Methods and Applications, New York, Cambridge University Press, 1994.

  • 56.

    G. P. Landow, Hypertext: The Convergence of Contemporary Critical Theory and Technology, Baltimore, Johns Hopkins University Press, 1992 : « L’hypertexte est un système infiniment décentrable et recentrable dont le point de focalisation provisoire dépend du lecteur. » Jean Clément, « Du texte à l’hypertexte : vers une épistémologie de la discursivité hypertextuelle », dans J.-P. Balpe, A. Lelu, I. Saleh (sous la dir. de), Hypertextes et hypermédias. Réalisations, outils, méthodes, Paris, Hermès, 1995 : « L’hypertexte peut s’envisager comme un système à la fois matériel et intellectuel dans lequel un acteur humain interagit avec des informations qu’il fait naître d’un parcours et qui modifient en retour ses représentations et ses demandes. »

  • 57.

    D. Cardon (coord.), « Réseaux sociaux de l’internet », Réseaux, vol. 26, n° 152, 2008.