Do not follow this hidden link or you will be blocked from this website !

Dans le même numéro

Les marchés financiers disent-ils la vérité ?

août/sept. 2015

#Divers

La crise de 2007-2008 a démontré la volatilité des marchés financiers, leur instabilité, en un sens, constitutive. Plutôt que d’en appeler à une hypothétique « refondation » de la valeur, cependant, peut-être vaut-il mieux prendre acte du fait que des systèmes complexes ne peuvent se réguler que de l’intérieur.

Le modèle standard en économie postule que le prix de marché d’un bien ou d’un service en situation de concurrence reflète sa valeur ; que le signal porté par le prix est stabilisateur, puisque la hausse du prix du bien diminue en général la demande et stimule l’offre, ce qui provoque en retour une baisse du prix ; qu’ainsi l’allocation des ressources dans l’économie peut se faire de façon décentralisée et sur la base des prix de marché. Ce modèle a été amendé de longue date pour tenter de prendre en compte la diversité des situations économiques (absence de concurrence, biens publics, dommages indirects, rôle de l’information, rôle des normes et de l’environnement social, etc.), avec une incontestable vitalité de la recherche depuis une trentaine d’années. Il en ressort un discours plus nuancé sur les mérites de l’économie de marché, mais aussi un large consensus sur sa capacité à ne pas sombrer dans le chaos, bien que résultant de décisions individuelles largement indépendantes.

Qu’en est-il du secteur financier ? Le modèle standard ne fait pas vraiment de différence entre lui et le reste de l’économie : après tout, les marchés financiers sont des marchés de droits et de créances assis de façon ultime sur des actifs physiques (entreprises, actifs industriels…). De ce fait, ils obéissent en principe aux mêmes lois et sont des instruments efficaces pour décider d’allouer les ressources d’épargne à telle ou telle activité.

C’est ce que contestent beaucoup d’économistes. Le consensus a toujours été moindre concernant les marchés financier et bancaire, mais il a carrément explosé lors du choc de 2008, qui a bel et bien été un chaos. En France, André Orléan est l’un des plus cohérents et radicaux dans cette critique1. Selon lui, le marché des actifs financiers est incapable de fournir une boussole utile pour déterminer la valeur des actifs économiques. Il y a rupture entre les marchés de biens et services et les marchés financiers (entre « l’économie réelle » et « la finance »). Pris dans un jeu de miroirs où chaque participant intervient en fonction de ce qu’il anticipe chez les autres, les marchés financiers ne peuvent pas extraire la bonne information sur les caractéristiques économiques des biens. Ils tournent à vide, ils sont « autoréférentiels » (on préférera pour la suite le terme de « réflexif » que retient George Soros2). Typiquement, la hausse du prix d’un actif financier, plutôt que d’être « stabilisante », c’est-à-dire de réduire l’offre et d’accroître la demande, pousse à acheter encore et à vendre moins. Il en résulte instabilité et déconnexion du sous-jacent « réel ». Dans cette perspective, le capitalisme affronte des contradictions majeures à se reposer d’une façon croissante sur les marchés financiers pour l’ancrage des décisions économiques. La puissance publique y perd largement ses moyens d’action, au détriment de l’organisation et du bien-être de la société.

Le double effet de la réflexivité

C’est cette « réflexivité » qui retient l’attention. Elle est une propriété profonde de la plupart des marchés. Elle est ambivalente : elle peut traduire l’incapacité des participants à un marché à fixer une valeur objective ou fondamentale à l’actif échangé et fait ainsi reposer la valeur « sur du vent ». Elle peut tout autant aider à ce que se propage l’information, de bonne ou mauvaise qualité, sur cet actif. Elle participe au jeu concurrentiel.

Cela tient à un mécanisme inséparable de tout marché, qui est dans la plupart des cas stabilisateur : je ne peux profiter de l’information supérieure que je pense avoir (qu’elle vienne d’une expertise particulière, d’un investissement spécifique en recherche d’informations ou d’un comportement dit d’initié, c’est-à-dire délictueux) qu’en vendant ou achetant sur le marché. Ainsi, je fais connaître à l’ensemble du marché que j’ai des raisons d’acheter ou de vendre. Ce faisant, la rente constituée par l’information privilégiée ne reste pas entre mes mains d’initiateur, elle se répand sur l’ensemble du marché. Si je ne suis pas un spécialiste du secteur pharmaceutique ou du marché du cuivre, et si je vois celui que je juge spécialiste se porter acheteur, j’aurai tendance à acheter moi-même. De la même façon, cherchant à dîner dans une ville inconnue, j’aurai tendance à choisir le restaurant bondé plutôt que celui qui est vide.

Cela n’est pas propre aux marchés financiers. À un degré moindre, les marchés de biens de consommation connaissent aussi des mécanismes d’effet miroir, comme le savent les publicitaires. La consommation, comme la beauté, est dans les yeux de celui qui vous regarde. C’est particulièrement vrai pour les biens de luxe ou à statut. Ils projettent beaucoup plus qu’un plaisir intrinsèque pour l’individu : on achète une voiture ou un téléphone pour l’image portée. L’achat fait par l’autre justifie le vôtre. Ou vous en dissuade, si le bien à statut se retrouve banalisé entre les mains de tous. La consommation est faite de réflexivité3.

Le processus sera inévitablement empreint d’essais et d’erreurs. Selon un phénomène physique désormais bien compris, la coexistence de marchés physiques aux coûts de transaction élevés et de marchés de droits sur ces actifs physiques, beaucoup plus fluides, est en soi générateur de forts sous- ou sur-ajustements. Il y a aussi un télescopage du court et du long terme. Puisqu’ils échangent des promesses de revenus futurs, les marchés financiers traitent forcément du long terme, un peu comme le font les échanges de biens physiques durables comme l’immobilier ou les infrastructures. Or les marchés financiers agissent dans le court terme, et même à la microseconde. Il se pose alors d’évidents problèmes de coordination que le jeu des prix ne suffit souvent pas à régler.

Quand les marchés tournent à vide

La capacité réflexive des marchés assure donc que les informations sont transmises et divulguées sans capture exclusive par l’initiateur. Mais encore faut-il qu’il y ait de vraies informations exogènes qui rentrent dans le système. On évolue donc entre deux extrêmes, celui de marchés pris dans un labyrinthe de miroirs où rien n’entre ni ne sort ; et celui de marchés qui révéleraient immédiatement la « valeur fondamentale » de l’actif, une notion qui désigne en général la somme des revenus futurs que cet actif va rapporter, en prenant compte le délai et le risque.

Dans le domaine financier ou immobilier, ou pour certains biens de prestige, la réflexivité pousse à ce que les économistes classent sous le terme de bulles, à savoir un processus où l’investisseur achète non plus pour le service ou le revenu que lui apportera l’actif, un revenu qui va décroissant en proportion du prix à mesure que le marché monte, mais parce qu’il anticipe que le prix va continuer à monter. Cette anticipation, une fois généralisée, s’autoréalise. Les marchés financiers qui sont facilement sujets à cette réflexivité sont ceux qui négocient des actifs ne rapportant pas de revenu pécuniaire raisonnablement certain à assez court terme. On cite habituellement le marché de l’art, des vins fins, de l’or, les actions de start-up high-tech au modèle d’affaires improbable, autant d’actifs rétifs à un ancrage dans une réalité convenue. Il est plus rare que de tels phénomènes se manifestent sur des marchés mieux ancrés, tels les obligations d’État ou les actions d’entreprise à croissance faible et distribuant de larges dividendes.

Sans aller à ces extrêmes, il est difficile d’accepter que les prix de marché coïncident strictement avec la valeur fondamentale des actifs, coïncidence qui est une des définitions d’un marché efficient. D’abord pour la raison qu’en cas d’efficience, il deviendrait inutile et non rentable de spéculer et d’investir des ressources dans la recherche de la meilleure information. Les transactions s’arrêteraient. L’existence d’une spéculation est le signe que les marchés ne sont pas efficients.

Plus profondément, il y a une aporie dans la notion même d’efficience, comme le suggère Eugene Fama, qui a pourtant reçu le prix Nobel pour ses recherches sur l’efficience des marchés et s’en est fait le chantre4. En effet, on ne peut tester l’efficience d’un marché qu’en définissant précisément ce qu’est la valeur fondamentale. Mais tant la détermination des revenus futurs que surtout la mesure du risque dépendent d’une théorie du risque et d’un modèle aidant à sa mesure. Que font alors les tests d’efficience ? Tester si les prix coïncident avec cette valeur théorique ou tester la justesse du modèle de mesure de cette valeur ? Le point est indécidable. En prenant une comparaison osée, cela ressemble à la tentative de prouver l’existence d’un Dieu transcendant. On utiliserait un modèle, par exemple le très célèbre attribué à saint Anselme postulant que la perfection (de Dieu) implique l’existence. Mais qu’indiquerait le test s’il était négatif : l’inexistence de Dieu ou l’erreur du modèle faisant de l’existence un attribut de la perfection ? Il faut quelque chose d’extérieur à Dieu pour en prouver la transcendance, chose en contradiction avec la notion même. Il en va de même avec le concept de valeur fondamentale : rien n’existe en dehors du système social de détermination des prix.

On est donc conduit à une vision plus modeste mais plus exigeante : celle de s’assurer que le système des prix est constamment nourri d’un flux d’informations de qualité, ce qui suppose des institutions (État, législation, structures de marché, investissement des parties prenantes, normes et règles morales…) qui favorisent la production d’informations. La valeur fondamentale est un outil heuristique, une cible jamais atteinte, mais qui sert à cadrer le discours sur la valeur. Intervient fortement la notion de « transparence », qui est le processus et l’exigence par laquelle les marchés sont davantage nourris en informations, ce qui dépend du cadre réglementaire contraignant mentionné plus haut.

L’observation de l’industrie financière des dernières décennies conduit à un certain pessimisme à cet égard. Deux tendances sont à noter. En premier lieu, la gestion de l’épargne et de la retraite est de plus en plus une fonction sociale assumée par l’industrie de la gestion d’actifs, qui a acquis une très grande puissance et a permis des rémunérations étourdissantes chez des gérants de fonds et leurs fournisseurs dans les banques d’investissement5. Son développement a conduit à un raccourcissement important des horizons d’investissement. Ces myriades de transactions contribuent peu à la recherche du bon prix, beaucoup au bruit du marché. Il n’est pas impossible que la gestion des retraites par une caisse publique produise une valeur sociale supérieure.

En second lieu, le modèle bancaire traditionnel (je prête et je porte le prêt dans mon bilan) s’efface au profit d’un modèle de courtage (je prête et cherche à revendre mon prêt immédiatement à quelqu’un d’autre). Cette tendance a de bonnes propriétés au regard du risque systémique si elle concentre moins de risques au sein des bilans bancaires, sachant l’aspect cataclysmique d’un défaut bancaire – un socle désormais de la philosophie de régulation des banquiers centraux. Mais elle a correspondu à un sous-investissement majeur de l’industrie financière dans l’analyse du risque : il importe désormais moins de sélectionner et de surveiller le risque quand on ne cherche qu’à revendre au plus vite. Il en résulte un macro-risque à l’échelle de l’économie et un moins bon fonctionnement de son financement.

Les deux exemples portent à dessein sur le risque de crédit. En effet, les conséquences d’une mauvaise valorisation sont bien plus importantes pour les produits de dette (crédits bancaires et obligations) que pour les actions et autres titres de propriété : les actionnaires peuvent y perdre, mais à leurs seuls dépens. Un titre de dette crée un risque de faillite, c’est-à-dire une rupture chaotique, une cassure contractuelle entre débiteurs et créanciers, avec de possibles effets de cascade. Au vrai, les crises de crédit sont les seules à redouter ; l’explosion de la bulle internet au début des années 2000 a été bénigne à côté de la crise financière ouverte en 2008. Si les marchés financiers, comme tous les marchés, ne peuvent exister sans une base juridique, institutionnelle et culturelle forte, il faut constater à quel point les marchés d’actions, c’est-à-dire de titres de propriété, sont simples dans leur fonctionnement et dans leur infrastructure. En 2008, ils sont restés constamment « liquides », quand bien même ils connaissaient de fortes baisses. Les marchés de la dette ont de tout temps entraîné des ruptures graves. Ils exigent un droit des contrats très élaboré, par exemple un droit de la faillite, commerciale et personnelle, dont on mesure les imperfections à chacune des nombreuses réformes législatives. La réflexion critique d’André Orléan sur les marchés, si fouillée d’un point de vue institutionnel, ne semble pas donner une grande importance au mode de propriété et de financement du capital, par fonds propres ou par contrats de dette, alors qu’il est déterminant dans l’analyse du fonctionnement des marchés.

Réflexivité et avis d’experts

Si le phénomène réflexif oblige à se méfier des valorisations de marché, y a-t-il des alternatives ? Les avis d’experts sont-ils un meilleur guide ? L’expérience rend pessimiste. On peut en effet comparer les emballements que connaissent si souvent les marchés financiers à certains phénomènes sociaux, tels que la prise en compte d’un risque d’épidémie, de guerre ou de catastrophe nucléaire. L’épisode de la grippe aviaire advenue en 2009 en est une bonne illustration.

Il a été de bon ton de critiquer, deux milliards d’euros après son début, la gestion de la crise par les autorités sanitaires françaises. Elles ont surdépensé en prévention, par exemple en imposant la double vaccination, des stocks de masques dans les entreprises, etc. Facile à dire après coup. La conduite retenue était probablement celle que tout gouvernement aurait suivie sur la base des avis que les experts lui formulaient sur le moment.

Ce qui intéresse ici, c’est le processus décisionnel face à un risque, la pandémie, ayant un caractère d’incertain absolu. Qui peut prédire sa létalité ? Un mal banal ou la réédition de la grippe espagnole en 1918 ? La collecte de la connaissance se fait à tâtons, au fil du déroulement du risque en cause : prioritairement les experts et la connaissance scientifique, mais aussi les relais d’opinion et les médias qui s’en emparent. Sachant le caractère réflexif de l’information en matière de risque épidémique (les gens avertis se protègent, ce qui prévient la propagation du virus), les autorités sanitaires doivent user délicatement d’une certaine dramatisation : faire peur pour mobiliser, mais sans panique, pour ne pas affoler. Qui dit réflexivité dit possibilité que le mal n’advienne pas du tout, ce qui éteint l’alarme première et laisse penser que la mobilisation était inutile ; il sera alors plus difficile la prochaine fois de mobiliser. Devant le risque pandémique, il peut donc se construire des bulles, à partir d’un processus cognitif centralisé et piloté principalement par l’avis scientifique.

Ces aléas majeurs se rencontrent aussi dans la vie économique : suite à l’entrée en scène de l’internet à la fin des années 1990, quel va être, vu à l’année 2000, l’avenir du secteur de la distribution et la place du e-commerce ? Suite au chaos financier de 2008 qui déboussole d’un coup tous les décideurs économiques du monde, quelle va être la conséquence sur l’économie et sur les indices boursiers ? Il s’agit là aussi d’événements dans le registre de l’incertain et de l’indécidable. Quelle est la différence avec l’exemple de la grippe aviaire ? Pour simplifier, c’est le marché qui est ici l’agent collecteur d’informations, à savoir un processus cognitif fonctionnant en réseau décentralisé, prenant ici ou là les éléments d’informations nécessaires, dont bien sûr également les éléments techniques et scientifiques des experts et des économistes.

Il est des cas où le processus décentralisé est le plus efficace. Parce qu’il fait intervenir une myriade d’agents, chacun intéressé à collecter la bonne information, y compris la connaissance scientifique. Qu’il est évolutif et dialectique, prenant en compte le caractère dispersé et souvent contradictoire de l’information pertinente ; qu’il est particulièrement parcimonieux dans son mode de transmission de l’information, puisque tout ou presque est résumé par l’indicateur de prix ; qu’il est ouvert à toute connaissance latérale, chaque agent ayant intérêt à valoriser au mieux l’information qu’il possède, y compris la connaissance des experts. Un processus ouvert en matière de grippe aviaire aurait indiqué que certes les experts sont les experts, mais que ceux d’outre-Rhin ne recommandaient pas une double vaccination.

Il reste néanmoins une forte déficience du processus décentralisé : il n’est jamais facile de mettre en place un marché qui fonctionne bien et même qui fonctionne tout court. Le rôle des institutions, de l’ordre juridique, des pratiques sociales est ici majeur. Des pans entiers de l’activité sociale échappent au domaine de validité de cet instrument. Parfois même, l’instrument de marché est stupidement mis en place alors que sa pertinence reste douteuse, fragile ou exigerait des investissements complémentaires en infrastructure juridique ou informationnelle. Qu’on pense au marché des dérivés de crédit6 ou de la titrisation7, trop vite montés en régime et qui ont été un des facteurs de la crise financière. Il en a été de même au moment où se sont introduits les premiers systèmes de monnaie fiduciaire au xviiie siècle (John Law). La critique des marchés financiers revient très souvent, quand on la décortique, pas tant à la présence des marchés qu’à leur absence ou à leur structuration déficiente. C’est pourquoi le décideur public doit accepter pragmatiquement, au vu de leurs résultats, que coexistent les processus cognitifs dits « experts » et les processus dits « de marché ».

Friedrich Hayek a été l’économiste qui a le plus étudié ces processus de collecte dynamique d’informations. Il écrit :

S’il est aujourd’hui si largement admis que [l’information en provenance d’experts convenablement choisis] est dans la meilleure position, c’est parce qu’un type d’information, à savoir la connaissance scientifique, occupe une telle place dans l’imagination publique que nous tendons à oublier qu’elle n’est pas la seule pertinente8.

À lire cette phrase, on aurait aimé connaître l’opinion de Hayek devant l’internet, qui représente peut-être un mode historiquement nouveau de collecte décentralisée d’informations, et jusqu’à aujourd’hui avec peu d’intermédiation de marché. Toujours est-il que, contemplant cette capacité à générer de l’information à faible coût, Hayek, suivi par une bonne part des économistes professionnels aujourd’hui, a développé une fascination pour le marché, jusqu’à en faire la base de sa philosophie sociale et le principe organisateur de nos sociétés. Cette réduction est absurde. Si l’on en reste au seul champ des relations économiques, le marché n’est pas, et de loin, majoritaire dans l’allocation des biens et des ressources. Les flux économiques s’opèrent essentiellement entre les entreprises et au sein des entreprises. Or les entreprises sont des organisations. Quand on gratte sous leur peau, ce ne sont pas des transactions de marché qu’on voit, encore moins des transactions financières, mais des décisions, des échanges, des collaborations accomplies entre des salariés pris dans un système de commande hiérarchique, sans nulle intermédiation des prix9. Les transactions qui s’opèrent entre les entreprises, c’est-à-dire le gros des échanges économiques marchands, se font via des contrats qui, loin de la stylisation des manuels d’économie, renferment souvent des pages et des pages de spécifications techniques et de conditions de vente. Et quand il est possible au sein d’une entreprise, par exemple entre deux de ses départements, de contractualiser les relations de façon identique à ce que ferait un contrat commercial, c’est souvent le signe que ces deux entités n’auraient pas à souffrir de leur séparation, c’est-à-dire d’une scission de l’entreprise en deux nouvelles. Les très grandes entreprises sont à elles seules de gigantesques « marchés » internes de l’épargne : elles se financent essentiellement par autofinancement plutôt que par tirage de ressources externes auprès des banques et des marchés ; et cette épargne est allouée au sein des différents métiers et projets de l’entreprise sans nulle intermédiation des prix et des marchés de capitaux. Si ces derniers sont essentiels pour l’information qu’ils apportent, ils sont très loin d’être majoritaires dans le financement de l’économie.

Nous sommes plus conscients aujourd’hui des fortes limitations du marché. C’est ce qui peut conduire, dans un retournement ironique de Hayek, à voir plus modestement dans le marché un « mécanisme », ayant certaines bonnes propriétés, notamment en matière de coût d’infrastructure, pour élaborer des conventions de valeur. L’État régulateur serait sot de ne pas s’en servir comme outil d’intervention dans les domaines de validité qu’on peut lui reconnaître. Car c’est l’usage de l’outil plus que l’outil lui-même qui lui donne son sens politique.

Le rôle de la volatilité

Il devient courant désormais dans les sciences sociales d’analyser des objets en termes de système complexe, avec des analogies qui tiennent davantage de la biologie et de l’écologie que de la physique mécanique, et qui permettent de mieux comprendre la notion de risque en finance. Darwin entre en force dans l’économie politique aux côtés d’Adam Smith et de Walras10. La résistance d’un système ne se juge pas à sa solidité mécanique, mais à sa capacité à apprendre des inévitables chocs qu’il reçoit. Le constat est banal depuis la fable du chêne et du roseau, mais la notion de « complexité » apporte des éclairages nouveaux et utiles pour l’action. Le transport aérien est devenu un des modes de transport les plus sûrs grâce à sa capacité, non à empêcher tout accident, mais à faire en sorte que les accidents qui surviennent soient porteurs d’une sécurité accrue pour les futurs avions et pour les infrastructures à venir11. Dans cette approche, la volatilité économique est un élément d’information du système ouvert qu’est l’économie, aidant à renforcer sa résistance aux chocs les plus grands. Il devient contre-productif d’empêcher que se manifestent les chocs mineurs.

Parce qu’il provient fréquemment d’une source endogène, le risque financier est souvent fabriqué par le fonctionnement même du système et le jeu de ses anticipations. Par exemple, les banques ont des modèles de risque qui les poussent à se désengager quand telle limite de crédit est atteinte. Pour le raisonnement, il importe peu que le modèle soit juste ou faux. Car si une majorité des banques utilisent en même temps le modèle présumé juste, il en résultera un mouvement de vente synchrone qui déstabilisera les marchés (et du coup invalidera le modèle). On est en pleine réflexivité, cette fois à un niveau collectif, et souvent par une action inadéquate du régulateur, si jamais c’est lui qui impose aux banques ce modèle de risque. Pour une raison proche, la corrélation entre les variables financières est hautement instable : les cours des actions de deux sociétés sont corrélés positivement quand le secteur est en forte croissance ; mais deviennent corrélés négativement quand le secteur est à maturité et que la croissance de l’une s’opère via des parts de marché perdues par l’autre. C’est aussi ce qui fait qu’il n’y a aucune loi ou « martingale » qui soit durablement stable sur les marchés financiers. Si on établit que les cours boursiers ont tendance à chuter tous les 11 septembre, les gens auront tendance à vendre dès le 10 septembre, puis dès le 9 si à nouveau la vente le 10 se généralise, etc. La martingale s’use (quasi instantanément) dès qu’on s’en sert à large échelle. C’est cet argument précis, il faut le noter ironiquement, qu’utilisent les tenants de la rationalité des marchés financiers : il est impossible, à niveau de risque donné, d’avoir des performances financières durablement meilleures que la moyenne du marché. Le jeu des anticipations peut invalider toute relation jugée stable entre des variables économiques12. La mesure du risque dans ce contexte est délicate et sujette à des phénomènes d’interférence et de réflexivité, analogues aux phénomènes que les physiciens ont découverts il y a environ un siècle dans leur compréhension de l’infiniment petit.

Quelle régulation dans ce contexte mouvant ?

La leçon est importante pour la régulation. Il ne suffit pas de chercher à gommer le choc ou la volatilité. Il ne s’agit plus nécessairement de bâtir des systèmes de protection renforcée, des digues calibrées sur le haut de l’échelle de Richter, pour parer à l’événement dit séculaire (dont on s’aperçoit qu’il revient malicieusement tous les cinq ans). Il s’agit de bâtir des systèmes comportant un raisonnable degré d’auto-immunité, en d’autres termes de réflexivité.

La régulation publique intervient ici non comme une entité extérieure mais comme partie intégrante du système. Plus qu’à interdire qu’advienne le prochain choc (d’où viendra-t-il d’ailleurs ?), il est parfois préférable d’empêcher, par la réaction du système complexe, qu’une fois advenu il ait des effets explosifs sur l’économie.

On aurait tort de tirer de cette proposition un quelconque appel à une vision purement libérale de l’action publique, réduite à un rôle de juriste normalisateur, en charge d’aplanir le terrain de jeu pour la concurrence. La régulation peut être activement interventionniste, mais en prenant complètement conscience des propriétés de réflexivité du système. Il sera par exemple plus sage d’œuvrer pour une dispersion des risques bancaires (y compris sur des marchés financiers bien régulés) que pour leur accumulation au sein des banques ; il sera plus sage de favoriser une multiplicité d’acteurs et de lutter contre leur taille excessive, plutôt que de renforcer la concentration des banques, ce qui est pourtant le résultat de l’action publique sept ans après le début de la crise financière ouverte en 200813.

Un domaine de régulation est particulièrement d’intérêt pour notre sujet, à savoir les agences de notation, qui évaluent pour les marchés financiers le risque de crédit que portent les contrats de dette. Elles rendent traditionnellement le double service d’information (créer la confiance chez l’investisseur) et de surveillance (forcer les dirigeants d’entreprise à se soucier de la qualité de leur dette et non plus de la seule valeur actionnariale). Cette combinaison est censée apporter un progrès sur les marchés financiers. C’est là qu’un risque nouveau apparaît. En effet, présentes sur plusieurs fronts, les agences acquièrent une autre dimension. De simples diffuseurs d’information, elles fabriquent l’opinion sur un titre financier, sur une entreprise ou sur la gestion d’une dette publique. Elles polarisent les anticipations sur une référence unique, la note de solvabilité, qui devient une convention, un repère dominant, à l’exclusion souvent de tous les autres ; avec capacité à s’autoréaliser, à donner le la sur les marchés. On retrouve exactement l’autoréférentialité qu’analyse Orléan. Le rôle des agences peut devenir dans ce cas déstabilisant pour l’entreprise ou l’État émetteur, surtout dans les moments difficiles où leur financement est en jeu.

Cette hégémonie des agences a aussi l’effet pervers d’évincer et d’entraîner une démission d’acteurs importants dans la « chaîne de confiance » qui soutient l’économie. Ainsi, les investisseurs institutionnels ou les banques ont pu sous-investir pendant trois décennies dans la recherche-crédit pour compte propre, en privilégiant leur fonction d’intermédiaire et s’en remettant exagérément aux agences. Du coup, celles-ci renforcent leur position de dépositaire exclusif de la confiance, exonérant les autres intervenants d’un jugement propre.

La réponse des régulateurs a jusqu’à récemment été sur le mode de la « solidité ». Il s’agit de sélectionner les agences ayant autorisation d’exercer, sur la base de leur sérieux statistique et de l’absence de conflits d’intérêts. Mais, à supposer même que cette sélection soit réalisable, on limite ainsi la concurrence entre les agences et on accroît encore leur monopole de légitimité. On touche ici au paradoxe de la régulation : accroître les contraintes réglementaires sur un secteur, c’est faire monter les coûts d’entrée, réduire l’innovation et renforcer la visibilité et le prestige des seuls acteurs qui ont reçu l’adoubement du régulateur. Il faut au contraire « banaliser » les agences, en faire des sociétés d’étude et d’analyse crédit comme d’autres et faillibles comme les autres14.

Une régulation qui vit trop longtemps et qui protège trop finit par fragiliser le système, favorise l’aléa moral, terme de l’industrie d’assurance désignant l’accroissement des conduites à risque qu’entraîne le sentiment de sécurité. La banque centrale est par exemple l’assureur ultime contre les chocs de liquidité, et les mécanismes de son intervention sont mieux compris depuis la crise de 1929. Il est généralement admis que les interventions de la Fed, banque centrale des États-Unis, et de la Bce ont évité le choc macrosismique, qui aurait pu, à l’égal de 1933, entraîner l’économie mondiale dans l’abîme. Pour autant, la mise sous perfusion de la liquidité bancaire et la politique de bas taux d’intérêt qui s’ensuit sont porteuses de risques de nature nouvelle et d’une autre forme de fragilité du système.

Dans ce jeu où la régulation d’un secteur industriel doit prendre en compte l’ensemble des effets qu’elle a sur la réalité, il est prudent qu’elle anticipe d’entrée les conditions de sa disparition, un point de vue bien résumé par Paul Champsaur, ancien président de l’Autorité de régulation des communications électroniques et des postes (Arcep) :

Une bonne régulation sectorielle doit, par construction, être conçue comme transitoire. Elle doit utiliser l’impulsion donnée par une succession d’instabilités dynamiques, notamment liées à l’innovation, afin de conduire le secteur dans la bonne direction. Une bonne régulation dépend fortement de l’histoire passée et elle doit évoluer. […] Une autorité de régulation qui réussit voit son champ d’action se réduire [je souligne]15.

C’est bien la leçon que l’étude des systèmes complexes apporte au régulateur d’aujourd’hui.

L’élusive quête d’un fondement de la valeur

Au cœur de la réflexion d’André Orléan, on trouve la critique d’une vision qu’il appelle essentialiste de la valeur et des processus sociaux de valorisation. Il est inutile et vain selon lui de chercher un élément granulaire commun à chaque bien ou service échangé sur un marché qui puisse permettre leur comparaison. À plus forte raison s’agissant d’actifs financiers. Cette critique, il l’applique tant à Marx et à sa théorie de la valeur-travail qu’au modèle néoclassique, presque hégémonique aujourd’hui dans l’enseignement universitaire. Chez Marx, la particule élémentaire qui « fonde » le mécanisme de formation des valeurs est la quantité de travail incorporé dans le processus de production. Chez les néoclassiques, ce serait l’« utilité », chère à Stuart Mill, Jevons ou Walras, ingrédient qui serait porté par chaque individu pris dans un splendide isolement.

Les deux lectures sont extrêmes. Marx, comme l’ont souligné des économistes marxiens à la sortie de l’Empire de la valeur16, laisse une large part à la réflexivité sociale, ne serait-ce qu’à travers sa notion de « travail socialement nécessaire », une notion difficile à quantifier selon laquelle il faut une acceptabilité sociale du travail incorporé et un processus d’interfaçage – dont le marché fait partie –, pour que la marchandise produite acquière le rang de « valeur » reconnue pécuniairement. La critique du modèle néoclassique s’applique aux premières formalisations de la théorie de l’équilibre général, où, de fait, la satisfaction de l’individu autocentré ne dépend ni de celle des autres, ni de sa vision de celle des autres. Mais c’est d’abord limiter le regard à la seule théorie traditionnelle du consommateur et laisser de côté cette partie tout aussi importante dans la définition de l’équilibre qu’est la théorie du producteur, où depuis longtemps des éléments perturbateurs ont été introduits. Et désormais, puisant quelque ultime ressource du vieux cadre de pensée utilitariste, c’est l’individualisme méthodologique qui s’efface de la description du comportement de l’individu dans l’acte économique : effets externes ou miroir de la consommation, normes et valeurs sociales, rationalité limitée, biais comportementaux17. Il est juste de dire que ces « complications » sont un vrai casse-tête pour la modélisation et que les jolis équilibres concurrentiels et surtout leur facile utilisation idéologique ne tiennent plus. Mais c’est ici que sont les domaines de recherche les plus actifs.

Que signifient ces tentatives d’appréhender le mécanisme de valorisation dans les deux cas ? Fondamentalement, qu’il est endogène, résultat d’une confrontation complexe de raretés des ressources, d’institutions, de fonctionnement des marchés du travail et des biens. Il est réducteur de fonder une théorie de la valeur sur un socle externe au champ de l’économie, le quantum de travail ou d’utilité selon le cas, mais tout aussi réducteur de penser que les économistes ne s’en sont pas aperçus. Serait-on tenté de lire plus positivement l’ouvrage d’Orléan comme une tentative de désigner la monnaie comme le fondement qu’on recherche à la valeur, son ingrédient de base ? Elle étalonne à l’évidence le système des prix ; elle est une construction sociale complexe. David Graeber, auteur récent d’un livre important sur la dette18, est assez convaincant quand il montre que la monnaie, vue comme étalon et comme réserve de valeur, c’est-à-dire comme créance ou crédit sur le souverain qui l’émet, précède historiquement l’acte d’échange proprement dit. Mais pour autant, elle n’est pas un élément exogène : la valeur naît bien en même temps que son appréciation monétaire. Sa fonction de convention sociale s’est encore accrue depuis que les systèmes monétaires ont abandonné l’ancrage dans un référent physique, l’or, au début de la décennie 1970, pour un pur système fiduciaire plus ou moins bien contrôlé par les autorités monétaires.

L’échange économique s’inscrit immanquablement dans un contexte social, institutionnel et interpersonnel. La valeur du bien ou de l’actif échangé est le résultat de ce processus et ne préexiste pas à l’échange. Cela vaut également, malgré des égarements fréquents, pour les actifs financiers, qui in fine sont toujours représentatifs de droits de propriété ou de créances sur des actifs non financiers. Il faut donc se résoudre à analyser les prix et les valeurs, et plus généralement le corps social, comme un système ouvert, sans fin ni destinée, procédant de sa logique interne. Où est l’autorité extérieure ? Mirage de refaire monde, par une sorte de nihilisme à rebours. Où est l’instance évaluatrice, si ce n’est à l’intérieur même du système complexe dans lequel nous vivons, et qui produit son sens dans son mouvement même ? Cette béance peut inquiéter. Pour utiliser des mots nietzschéens, la perte du point fixe qu’est la valeur équivaudrait à la mort de Dieu. Du point de vue de la connaissance, elle conduit plus modestement à tenter de relier les phénomènes et à trouver des chaînes de causalité, plutôt que de réclamer un hypothétique travail de refondation. Et du point de vue de l’action, à se saisir des bonnes prises pour corriger le système.

  • *.

    Économiste et consultant.

  • 1.

    André Orléan, l’Empire de la valeur. Refonder l’économie, Paris, Le Seuil, 2011.

  • 2.

    George Soros est gérant de fonds, spéculateur rendu célèbre par ses succès financiers, philanthrope et polémiste de talent. Voir The New Paradigm for Financial Markets : The Credit Crisis of 2008 and What It Means, New York, PublicAffairs, 2008.

  • 3.

    On voit la similitude côté entreprise avec le mécanisme de l’innovation : l’entreprise tire une rente de l’innovation, mais ne peut en profiter qu’en la mettant sur le marché, ce qui la fait connaître des concurrents.

  • 4.

    Voir Eugene Fama, Two Pillars of Asset Pricing. “Lecture for the Sveriges Riksbank Prize in Economic Sciences in Memory of Alfred Nobel”, 2013 (www.nobelprize.org/nobel_prizes/economic-sciences/laureates/2013/fama-lecture.pdf).

  • 5.

    François Meunier, « Pourquoi de tels salaires dans la banque », Rapport moral 2010 sur l’argent dans le monde, 2010, p. 155-170.

  • 6.

    Le dérivé de crédit est un titre financier négociable qui dédommage l’acheteur, contre paiement d’une prime, dans le cas de défaut d’une créance sous-jacente. C’est un produit proche d’une assurance dans le cas où l’acheteur est porteur de la créance couverte ; c’est un produit très spéculatif, permettant de jouer en faveur du défaut de la créance, s’il ne l’est pas.

  • 7.

    La titrisation collecte des prêts bancaires, par exemple des prêts immobiliers, et les refinance par émission d’obligations sur le marché. La banque allège ainsi son bilan ; ce sont les investisseurs non bancaires – en principe – qui assurent le financement et le risque.

  • 8.

    Friedrich Hayek, “The Use of Knowledge in Society”, American Economic Review, vol. 25, n° 4, septembre 1945, p. 519-530.

  • 9.

    Voir une présentation lumineuse de l’opposition entre marchés et organisations dans Herbert A. Simon, “Organizations and Markets”, Journal of Economic Perspectives, vol. 5, n° 2, printemps 1991, p. 25-44.

  • 10.

    Voir par exemple Paul Seabright, The Company of Strangers : A Natural History of Economic Life, Princeton University Press, 2010 ; Robert H. Frank, The Darwin Economy : Liberty, Competition, and the Common Good, Princeton and Oxford University Press, 2011. Dans le domaine financier, un vulgarisateur iconoclaste est Nassim Nicholas Taleb, Antifragile. Les bienfaits du désordre, Paris, Les Belles Lettres, 2013. Voir aussi le projet du Santa Fe Institute, avec Eric D. Beinhocker, The Origin of Wealth, Boston, Harvard Business School Press, 2006.

  • 11.

    Toute personne qui meurt dans un accident d’avion, dit Taleb (Antifragile, op. cit.), épargne ainsi la vie de centaines d’autres.

  • 12.

    Pour prendre un exemple imagé, les autorités de Fort Knox observeraient à raison que jamais le fort n’a été attaqué par les voleurs, du moins depuis Goldfinger. Mais il serait erroné de leur part d’en inférer qu’ils n’ont pas besoin d’un système de sécurité aussi perfectionné. Parce que le comportement des candidats au braquage repose sur leur anticipation d’un fort imprenable, une anticipation qui pourrait facilement changer.

  • 13.

    Fusion en France des réseaux Caisse d’épargne et Banques populaires, disparition de Dexia et monopole confirmé des banques dans beaucoup de domaines.

  • 14.

    Dans cette logique réflexive, une piste à refuser absolument serait pourtant celle qu’André Orléan aimerait recommander : celle d’une agence publique, désintéressée, dispensant la « bonne » information aux acteurs économiques. On créerait ainsi, si jamais elle arrivait à décoller, un super-hegemon de la parole financière, entraînant des effets de mimétisme, de boucles rétroactives et de conventions aspirantes, sans compter les multiples prises d’intérêts qui la feraient trébucher. La Bce s’est ainsi sagement retirée de certains appels à ce qu’elle joue le rôle de notateur des dettes publiques de la zone euro.

  • 15.

    Présentation faite en novembre 2013 devant des étudiants de l’École nationale de la statistique et de l’administration économique (Ensae). Voir Variances, n° 49, février 2014, p. 33-35.

  • 16.

    Voir par exemple Jean-Marie Harribey, « Note de lecture : André Orléan, L’Empire de la valeur », Revue de la régulation, n° 10, 2e semestre 2011. Harribey fait aussi la remarque qu’Orléan met trop l’accent sur les processus mimétiques tournant à vide, fonctionnant « hors-sol » selon son expression. La réalité est comme toujours à son endroit habituel, selon lui à l’intermédiaire entre pure réflexivité et pure valeur fondamentale.

  • 17.

    Voir Gary Becker, dès 1974, pour des essais de modélisation d’effets externes dans la consommation (“A Theory of Social Interactions”, Journal of Political Economy, n° 82, p. 1063 et suiv.) ; ou, horriblement technique, Roland Benabou et Jean Tirole pour l’introduction de l’environnement culturel et légal (“Laws and Norms”, Nber Working Paper, n° 17579, 2011).

  • 18.

    David Graeber, Dette. 5 000 ans d’histoire, Paris, Les Liens qui libèrent, 2011, rééd. 2013.