Do not follow this hidden link or you will be blocked from this website !

Dans le même numéro

Choix démocratiques et « vérité » des marchés

décembre 2010

#Divers

Avec la dette se profile à nouveau le risque d’une disparition des marges de manoeuvre des puissances publiques devant les contraintes des marchés. Pour ne pas s’enfermer dans un débat sur le bon niveau de la dette, il faut s’interroger sur la manière dont nous comptabilisons la création de valeur économique aujourd’hui.

Dans la crise que traversent depuis le printemps 2010 les États, particulièrement la Grèce, on a tôt fait d’opposer vérité des marchés et impuissance politique, ou plutôt d’apposer l’une à l’autre, la vérité des premiers signifiant la défaite des seconds. C’est à partir de ce contexte qu’on tentera d’effectuer ici une sorte de va-et-vient entre les univers économique et philosophique dont l’objectif est de mieux comprendre les faiblesses de l’Union européenne mais aussi de discerner des moyens pour sortir de la situation actuelle en s’appuyant sur les outils que peut proposer la philosophie, en l’occurrence la question de la vérité, question qui peut se révéler un détour nécessaire pour dénouer le débat.

L’hypothèse qui sera explorée est que, si la règle et sa sanction ont tant de difficultés à s’incarner dans la sphère financière, c’est que celle-ci se présente comme porteuse d’une vérité, vérité face à laquelle les choix démocratiques peuvent apparaître vains. Mais comment les faits économiques se constituent-ils en vérité ? Répondre à cette question peut peut-être créer des rapports plus équilibrés entre délibération politique et réalité économique.

Qu’est-ce que l’aléa moral et pourquoi est-il important de savoir qui le supporte ?

L’aléa moral (moral hazard), pour un économiste, est cette idée que les acteurs augmentent le niveau de risque qu’ils prennent lorsqu’ils ne supportent pas les conséquences de leurs comportements. Cette théorie permet d’envisager la crise financière de l’automne 2008 et celle des dettes souveraines de 2010 comme un continuum, dans un sens précis. Cette première question est donc en quelque sorte celle de l’origine de la crise grecque ou irlandaise.

La chronologie des événements de l’automne 2008 est à cet égard significative. Lorsque le 15 septembre 2008, les autorités américaines laissent Lehman Brothers faire faillite, l’avertissement est clair, à savoir : « Vous, les banques, supporterez les conséquences de vos comportements à risque. » Mais très vite par la suite, le message s’inverse et, dans chacune des grandes nations, des mesures assurant la prise en charge étatique des risques bancaires se mettent en place, alors même que des dispositions d’urgence avaient été prises au niveau comptable pour éviter que toutes les institutions financières ne se trouvent de fait en situation de faillite lors de leur arrêté de comptes du troisième trimestre 2008. On ne s’est donc pas contenté de modifier les règles du jeu de sorte à éviter les faillites en cascade, les États se sont aussi portés garants du risque résiduel qui demeurait.

Par-delà les montants financiers mobilisés par les États, la conséquence ne pouvait qu’en être double : du côté des institutions financières, la conscience du fait qu’elles ne supporteraient pas les conséquences de leurs comportements les plus risqués, ce qui n’a pas manqué de se matérialiser dès 2010 (on pense par exemple aux bonus qui ont continué à être versés) ; du côté des institutions étatiques, une recrudescence du soupçon des marchés financiers sur le niveau de risque supporté, même s’il n’est pas nécessairement matérialisé dans des chiffres tangibles, puisque c’est bien un risque systémique qui a été pris en charge.

Ce détour par l’aléa moral présente l’intérêt de couper court à l’argumentaire de ceux qui, au sein de la sphère financière, défendent l’idée que la crise des dettes souveraines n’est pas liée aux plans de sauvetage des banques de l’automne 2008, les banques ayant pour l’essentiel remboursé toutes les sommes qui leur ont été prêtées, ce qui est un fait. Autour de la notion d’aléa moral, il ne s’agit pas en effet de se positionner par rapport au niveau effectif de la dette publique pour justifier les difficultés actuellement rencontrées par certains États mais de se situer par rapport au niveau de risque économique global qu’ils ont accepté de supporter.

Or, il va être très difficile de revenir en arrière et de convaincre les acteurs de la sphère financière qu’ils supporteront à l’avenir pleinement les conséquences des risques qu’ils prennent. Pour ce faire, il faudra disposer d’un mécanisme de règles et de sanctions qui soit crédible en vitesse de croisière, objectif qu’on peut estimer accessible, mais qui le soit également en situation extrême. Ceci supposerait par exemple que les États fassent dès maintenant payer au prix fort le soutien apporté à la sphère financière, au lieu d’en payer eux-mêmes le prix. À défaut, la sphère financière ne pourra qu’être incitée à se situer dans des zones de risques plus élevées que celles qu’elle viserait naturellement.

Quelle est la responsabilité de la France dans la situation actuelle ?

Partant de ce type d’analyse, qui, se plaçant sur le terrain des risques, présente l’avantage d’éviter le détour par la question épineuse de savoir quel est le bon niveau de dette publique, il n’est pas surprenant qu’une crise touche la zone monétaire dont l’intégration est la plus fragile et, en son sein, les maillons les plus faibles. De fait, la zone euro est celle dans laquelle la règle et la sanction font le plus clairement défaut. Il ne s’agit pas là de dire que les règles et sanctions n’y sont pas effectives, les pays de l’Union ayant dans leur majorité un niveau élevé d’encadrement des marchés financiers, mais de constater que ces mécanismes ne sont pas unifiés et surtout qu’ils ne trouvent pas aujourd’hui à s’incarner dans une autorité qui en assurerait le respect.

À défaut d’avoir une identité politique qui permette de donner à lire au moins la zone euro comme une globalité pour les marchés financiers, la valeur de l’euro a tendance à fluctuer en fonction des problèmes rencontrés par son maillon le plus faible, ce qui est justement le signe de l’absence de cette identité commune qui ferait office d’écran. Et ce sont ces fluctuations, ces facteurs d’incertitude qui sont problématiques. Ce diagnostic est évidemment très simple à effectuer et d’ailleurs, depuis l’avènement de la crise des dettes souveraines en Europe, les projets de renforcement de l’union économique européenne se succèdent à un rythme accéléré.

On peut toutefois ressentir, au terme de la séquence politique qui s’est jouée pour l’Europe ces derniers mois, un certain étonnement devant la manière dont ces questions se sont posées dans le débat public français.

En France, on a désigné la chancelière allemande et l’Allemagne en général comme les obstacles au renforcement de l’Union européenne, comme si les Français demeuraient les hérauts de la cause européenne. C’est faire preuve d’une forme d’aveuglement : ce n’est en effet pas l’Allemagne mais la France qui, en 2005 et par la voie de son peuple, a dit non au renforcement de l’Union européenne. Si l’Union européenne n’existe pas autant que certains le souhaiteraient, ce n’est qu’à nous-mêmes et à personne d’autre que nous devons nous en prendre. D’autant qu’il ne s’agit pas d’une première : sur la question européenne, la France avait déjà dit non au moment de la communauté européenne de défense (Ced) par voie parlementaire en 1954. Cinquante ans plus tard, ce sera par voie référendaire qu’elle refusera l’adoption d’une constitution européenne.

Il est possible que les deux vecteurs aient été mal choisis : la voie parlementaire pour la Ced dans les années 1950 où les populations étaient peut-être en avance sur les décideurs et la voie référendaire au moment du projet de constitution européenne. En effet, le traité de Maastricht avait été adopté à une très courte majorité, il était donc possible et même statistiquement probable que le non l’emporterait la fois suivante, d’autant que la question de l’élargissement a brouillé la nature du sujet soumis à référendum. Il ne s’agit pas de critiquer par là la démocratie directe ou représentative mais de formuler une critique claire à l’égard du personnel politique, dont l’apport dans un système de démocratie représentative ou directe peut se mesurer à sa capacité à présenter les bonnes questions dans des conditions propices.

En l’espèce, il faut tenir compte du fait que les populations ne sont peut-être pas prêtes, en tout cas en France, à accepter le dépassement de l’État-nation. C’est une situation qu’on peut n’accepter qu’avec regret, en constatant que sur ce point les mentalités sont en retrait par rapport au monde contemporain, mais c’est une situation à laquelle il faut faire face. Et lorsqu’on répond qu’au plan technique l’essentiel, voire la quasi-totalité, des dispositions de la constitution européenne ont été malgré tout adoptées grâce au traité de Lisbonne ratifié par le congrès en France en février 2008 et sont donc en vigueur, c’est la pire réponse que la démocratie représentative puisse faire à la démocratie directe, et à la démocratie tout court.

Il est vrai que l’Union européenne s’est vue confier depuis son avènement des compétences qui ne sont pas parmi les plus populaires, la politique de la concurrence notamment, et que l’institution a été amplement utilisée par les gouvernements nationaux pour faire adopter des réformes difficiles, expliquant la forme de défiance dont l’appareil communautaire fait l’objet. Il sait pourtant, le domaine éducatif avec les projets Érasmus en est un exemple, concrétiser des politiques positives pour autant que les États membres lui en donnent compétence. Il est clair aussi que le système institutionnel européen fonctionne sur des références qui ne sont pas celles du « grand homme » mais plutôt celles de pouvoirs et contre-pouvoirs, qui ne forment pas le cœur de la tradition politique française, dont l’imaginaire politique se situe plus du côté de Rousseau que de Montesquieu, Voltaire ou Diderot. Enfin, pour un pays habité par son histoire, il est difficile d’accepter le déphasage de l’État-nation pour le règlement des questions économiques et le passage à une autre échelle.

Tout comme le fut le mouvement de constitution des nations, il s’agit là de processus à juger dans le temps long. Simplement, il ne faut pas se faire trop d’illusions sur le rôle qu’y joue la France.

Pourquoi le « choix » démocratique apparaît-il aussi faible par rapport à la « vérité » des marchés ?

Il y a ainsi fort à faire sur le plan de la pensée politique, qu’il s’agisse de la question des institutions ou de celle des programmes, pour arriver à définir le lieu dans lequel la règle et la sanction pourront s’exercer légitimement dans le monde contemporain. Si l’on estime que la figure du grand homme renvoie à celle du grand architecte de la royauté de droit divin plus qu’à la forme d’incarnation que devrait recevoir une démocratie représentative, si l’on considère aussi que la figure de l’algorithme mathématique n’est qu’une forme perfectionnée du grand homme (positions fortes qu’il faudrait justifier bien évidemment), il nous reste justement à incarner le système représentatif avec efficacité dans une réalité faite de changements, de sorte à proposer réellement des choix, de sorte à trouver une prise dans ce que Sloterdijk appelle le Palais de cristal1.

Ceci suppose sans doute d’aller au-delà de la Théorie de la justice2 de Rawls, en ce que cette théorie s’apparente trop clairement à la formulation d’un nouvel algorithme contemporain. La voie tracée par Habermas dans lAvenir de la nature humaine : vers un eugénisme libéral3 ? peut être celle à emprunter, au sens où elle propose une sorte de va-et-vient entre la réalité et le droit s’agissant en l’occurrence de la question de la vie et de la mort et de la manière dont le droit peut justement accompagner les mutations technologiques existant en la matière et les questions métaphysiques qu’elles posent, en traçant des frontières à l’acceptable et à l’accepté dans des zones de possibles de plus en plus larges.

Ce type de mouvement peut avoir toute sa place dans le champ économique mais il passe par le renoncement à certains points de repères fixes hérités du passé (et d’ailleurs construit avec lui, on pense à la nation), même si, comme le montre Marcel Gauchet dans le Désenchantement du monde4 et la Démocratie contre elle-même5, ce renoncement charrie son lot de problèmes nouveaux.

De façon presque schématique, légitimité démocratique et légitimité économique sont vues comme concurrentes, avec des modes de rapport à la réalité qui sont perçus différemment : du côté de la démocratie, la délibération et le choix et, pour l’économie, la vérité et les faits. Pour reprendre le vocabulaire de Foucault, ces deux systèmes de véridiction se situent dans un rapport de force tel que l’un est soumis à l’autre : ils sont de fait hiérarchisés, dans la sphère économique au moins mais celle-ci a tendance à occuper des espaces de plus en plus larges, notamment parce que son régime de vérité et de faits est conçu comme universel alors que la démocratie et le choix s’incarnent dans l’État-nation, États-nations qui ne peuvent être le cadre pertinent de fixation de la règle et de la sanction en matière de marchés financiers.

Les marchés financiers sont d’autant plus puissants à cet égard que les acteurs qui interviennent en leur sein se positionnent comme « trop gros pour tomber » (to Big to Fail), en contradiction avec les préceptes économiques classiques selon lesquels une concurrence entre acteurs devait garantir l’absence de position dominante. C’est là une question qui mérite attention : l’économie classique établit en effet le marché comme lieu de vérité de l’acte économique uniquement dans la mesure où ce marché n’est pas confisqué par certains intérêts mais ouvert à tous.

Pourquoi la dette grecque n’est-elle pas traitée comme celle de la Louisiane ou de la Californie et que cela signifie-t-il sur la valeur que nous accordons à la sphère publique ?

Pour affiner ce diagnostic, on peut tenter d’approfondir l’analyse de la crise que traverse l’Union européenne au travers de la question suivante : pourquoi la dette grecque n’est-elle pas traitée comme celle de la Louisiane ou de la Californie ? Une réponse d’ensemble à cette question a déjà été esquissée : parce qu’il existe une identité économique des États-Unis dépassant les États qui composent la confédération, identité qui fait défaut dans l’Union européenne, défaut qui conduit à indexer le risque sur le maillon le plus faible de cette union, avec toutefois une certaine dose d’amortissement apporté par la présence de l’euro.

Les États-Unis sont porteurs d’une dette publique très élevée (elle a dépassé, selon les déclarations des autorités fédérales le 3 juin, les 13 000 milliards de dollars, soit 88 % du Pib et devrait en effet atteindre 92, 6 % du Pib à la fin de l’année selon le Fmi) mais ce problème, s’il est considéré avec sérieux par les autorités, n’apporte pas le même lot de fluctuations sur le dollar que ce qu’il draine dans l’Union européenne. La comparaison qui peut être faite entre les États qui composent l’Union européenne et ceux qui composent les États-Unis est à ce titre intéressante. De fait, la dette des États qui composent la confédération américaine peut être en proportion de leurs activités très élevée, comme c’est le cas en particulier en Californie mais aussi en Louisiane. Mais cette dette n’engendre pas le même mouvement de remise en cause de l’ensemble composé par les États-Unis contrairement à ce qui se passe actuellement dans l’Union européenne.

Certes, le niveau élevé de la dette de la Californie ou encore celui de la Louisiane a justifié que ces États voient leur notation baisser, elle est désormais de A – pour la Californie. Le 13 janvier 2010, quand Standards & Poors a baissé la note de la Californie, il y a eu de fortes répercussions sur les conditions dans lesquelles la Californie a pu financer ses besoins de trésorerie, sur le marché secondaire des titres de l’État californien et des mesures d’urgence ont été prises au niveau de l’État de Californie. Mais le dollar n’a pas été attaqué et il n’y a eu aucune annonce d’un plan de redressement des finances publiques américaines alors même que le poids de la Californie y est bien plus élevé que ne l’est celui de la Grèce dans l’Union européenne. L’absence d’identité économique de la zone euro a donc un prix collectif, même s’il faut savoir apprécier ce prix au regard du niveau élevé de l’euro avant la crise des dettes souveraines.

Ce qui est encore plus problématique, c’est que, face à cette absence de reconnaissance de la zone euro ou de l’Union européenne par les marchés financiers, et les marchés financiers ne sont pas à blâmer sur ce point puisqu’ils ne font que constater la réalité, on a assisté de la part de l’Union européenne à une réaction qui mérite d’être discutée. En effet, l’Union européenne a répondu aux turbulences sur les marchés financiers par une surenchère de chacun des États qui la composent en matière d’orthodoxie budgétaire (et, sur ce point précis, on peut critiquer la chancelière allemande). À la crise économique, on ajoute donc le durcissement de la politique budgétaire, ou à tout le moins son annonce.

C’est exactement la voie qui fut choisie par l’Europe dans les années 1930, alors qu’un pays comme les États-Unis prit une orientation radicalement différente face à une situation qui était sans doute plus dramatique, une voie qui porta ses fruits alors que le rétrécissement des horizons nationaux européens prépara la guerre. On retrouve, quatre-vingts ans plus tard, le même type d’opposition, partant toutefois d’une situation que l’on peut estimer plus enviable au plan social6, liée notamment à la construction de l’État-providence. Les comparaisons ont donc leurs limites mais la tendance à une réaction par le rétrécissement de la sphère publique en Europe face aux crises économiques, en opposition avec ce que pratiquent les autres pays et ce que la sagesse la plus élémentaire indique, apparaît ainsi comme un fait historique assez prégnant en Europe.

C’est sans doute une raison supplémentaire qui motive le comportement des marchés financiers face aux turbulences associées à la dette grecque, espagnole et irlandaise, des marchés que l’on voit attentifs à ce qu’il n’y ait pas de surréaction de la zone euro, surréaction qui contracterait durablement l’activité économique. C’est un équilibre subtil qui est à trouver, et le moins qu’il apparaît est que l’équilibre ne fut pas exagérément subtil durant les derniers mois en matière d’annonce de coupes dans les budgets nationaux de l’Union européenne. Ceci renvoie finalement à la problématique de la valeur assignée aux activités publiques.

On a en effet l’impression que l’État en Europe se sent légitime à porter les risques associés à l’ensemble des activités économiques (la réaction fut rapide et conjointe en la matière), mais qu’il ne juge pas pour autant particulièrement légitimes les activités qu’il assume quotidiennement. Cette réalité est à rapporter à un système de décompte de la valeur économique dans lequel la sphère publique est traitée avec insuffisamment d’égards et qui trouve sa justification profonde dans une forme d’idéologie critiquable.

Pour donner une indication quant à la manière dont la richesse publique est en quelque sorte tronquée dans les indicateurs économiques, on peut citer le calcul de la valeur ajoutée du secteur public, de fait limitée aux seuls salaires des personnels alors que cette notion embrasse un ensemble beaucoup plus vaste dans la sphère privée. Or, les États présentent de plus en plus leurs activités sous la forme d’un compte de résultat et d’un bilan comme le font les entreprises. Si les hypothèses liées à l’établissement de ces comptes étaient satisfaisantes au regard des missions assurées par la sphère publique, nous aurions donc l’outil qui pourrait permettre d’établir différemment, et de façon plus large, la richesse apportée par la sphère publique dans le Pib.

Mais il faudrait pour ce faire que les principes utilisés pour établir ces comptes soient adaptés. Il serait en particulier très utile de distinguer différentes sortes d’activités au sein de la sphère publique, en première approche autour de trois catégories : les activités régaliennes traditionnelles (police, justice, dépenses militaires), les investissements publics civils (au premier rang desquels l’éducation et la recherche) et la protection sociale. Ce type de présentation aurait l’avantage d’arrêter de donner une vision biaisée de la sphère publique en Europe par rapport à ce qu’elle représente par exemple aux États-Unis. Ainsi, si l’on s’en tient aux activités régaliennes, les pays de l’Union n’ont pas un niveau de dépenses par rapport au Pib particulièrement élevé (et d’ailleurs un niveau de dépenses particulièrement élevé dans ce segment peut être le signe de problèmes forts de cohésion sociale ou d’une situation de guerre) ; si l’on en vient au deuxième segment, les dépenses d’investissements civils, on constate que celles-ci ne sont pas extrêmement élevées notamment en France au regard de ce qu’elles peuvent être dans des pays anglo-saxons alors même que la sphère privée occupe une part bien plus importante dans le financement de l’éducation et de la recherche.

C’est quand on traite du dernier segment, la protection sociale, que l’écart est extrêmement important entre les pays de l’Union européenne et les États-Unis pour en rester à cet exemple. Or, ceci ne signifie pas par principe que nous avons un système de retraite ou de santé moins performant que celui des États-Unis, c’est simplement le signe que nous avons fait le choix de financer ce système de façon massivement collective quand les États-Unis ont fait le choix inverse (même s’ils ont récemment adapté leur propre système). Bref, présenter de façon plus fine l’activité publique dans les indicateurs économiques serait le moyen d’aller au-delà de la doxa en l’occurrence alimentée par les chiffres selon laquelle le secteur public est trop développé dans les pays européens. C’est au regard de ce qu’il assure comme activité qu’il doit être jugé.

Peut-il exister une vérité en dehors d’un cadre de référence ?

Ceci suppose de mettre en question la vision idéologique qui sous-tend l’activité publique selon laquelle elle n’est pas productive en elle-même, seule la sphère privée apportant une richesse nouvelle. Ce cadre de pensée qui réduit l’acteur économique pertinent à l’entreprise privée est critiquable, non pas dans l’objectif inverse qui voudrait que seules les activités publiques soient productives (option qui fut défendue aux xixe et xxe siècles) mais dans l’idée que la légitimité de l’acteur économique doit être mesurée à ce qu’il procure : ceci devrait conduire la théorie économique à une vision plus équilibrée des apports respectifs de la sphère publique et de la sphère privée. Chez les auteurs économiques classiques, dans ce que l’on peut appeler le libéralisme des origines et notamment Adam Smith, on trouve des points d’accroche sérieux pour justifier une telle approche. Et ce type d’approche, appliqué au partage entre sphère publique et sphère privée mais aussi à la question de savoir comment l’apport des salariés est décompté dans l’entreprise, serait de nature à changer assez radicalement la manière dont nous percevons la réalité économique et, partant, la manière dont nous nous comportons7.

Par-delà les problématiques de philosophie politique, l’analyse philosophique peut apporter des éléments au débat sur ces points au travers de la longue fréquentation qu’elle a de la question de la vérité, qui la traverse tout entière. Pour expliciter la référence qui est ici faite à des cadres de pensée qui peuvent évoluer, on partira d’une citation des dernières pages de De la certitude8. On sait que la question de la vérité logique a amené Wittgenstein au problème des jeux de langage et, pour terminer, à celui de la certitude :

664 – Il y a une différence : entre apprendre à l’école ce qui est vrai et faux en mathématiques d’une part et, d’autre part, déclarer moi-même que je ne peux pas faire erreur sur une proposition.

665 – J’ajoute ici quelque chose de spécial à ce qui est généralement établi9.

Wittgenstein apporte évidemment quelque chose de neuf dans ce qu’il avance. Il y a une différence entre une assertion (qui m’est personnelle, qui est à rapporter à la personne qui la formule) et une preuve, qui, comme c’est le cas en mathématiques, n’a pas d’énonciateur particulier, n’est pas liée à une expérience personnelle, mais qui, partant d’axiomes et les utilisant dans un raisonnement, aboutit à un résultat qui est une vérité.

Mais on pourrait ajouter à Wittgenstein qu’il n’y a pas que dans les mathématiques qu’on obtient ce genre de résultats. Le commissaire aux comptes ou l’expert-comptable par exemple qui prend son recueil de normes comptables et l’applique aux comptes d’une entreprise suit également un raisonnement qui l’amène sur la base de ces règles à un résultat qui est aussi une vérité. Comme en mathématiques, il est d’ailleurs possible qu’il hésite sur le genre de démonstration à produire, voire qu’il considère que plusieurs solutions sont possibles dans le jeu de règles qui lui est offert, à l’image des équations algébriques qui n’ont pas qu’une seule solution.

De même, lorsqu’on est dans le champ politique, une fois que l’on s’est donné des règles s’agissant du mode de représentation à retenir, il y aura bien une vérité dont je ne peux pas douter dans le fait que tel vote donnera lieu à telle composition de la chambre des représentants (pour autant, bien entendu, que les votes soient correctement décomptés et quoi que l’on pense des règles de représentation choisies).

Ce genre de procédures – celles qu’utilisent les commissaires aux comptes avec leurs normes comptables, celles que mobilisent les démocraties avec leurs lois électorales – établissent non seulement des faits mais aussi des vérités. Ces vérités sont, au regard des normes sur lesquelles elles reposent, du même type que celles qui se rencontrent en mathématiques : il y a vérité lorsqu’il y a une correcte application d’un référentiel préétabli. Mais il n’y a vérité qu’au regard de ce référentiel.

L’intérêt de ces exemples est de montrer, sans doute plus clairement que dans le cas des mathématiques, et quoi que ce soit exactement la même chose au plan scientifique que ce qui se passe avec les géométries non euclidiennes, que cet espace de la vérité, vérité auto-référencée à un cadre normatif, est étroit, étroitement lié à ce cadre normatif. Un autre cadre normatif pourrait conduire à considérer d’autres faits comme des vérités ou à établir d’autres faits en tant que vérités. C’est tout l’intérêt des développements des mathématiques depuis la fin du xixe siècle que d’avoir mis l’accent sur ce point : la vérité n’existe qu’en tant qu’elle se réfère à ce cadre de référence par rapport auquel elle est un « fait correct ».

Mais on voit bien dans le cas de la comptabilité ou du système représentatif que plusieurs cadres de références sont possibles et coexistent d’ailleurs en pratique à travers le monde. Donc, la question de la vérité emporte également à un certain niveau celle du choix, du choix du cadre de référence qui permet d’établir la vérité.

Le champ scientifique se présente de la façon la plus proche possible de la vérité mathématique, laquelle n’a pas d’existence matérielle alors que les faits scientifiques traités dans les autres champs disciplinaires en ont. Il est normal que la science cherche à embrasser l’ensemble du réel dans un cadre de référence si possible unique et cohérent avec ce réel. Cette quête est naturelle et a fait beaucoup progresser notre connaissance de l’univers. Mais il n’est ni normal, ni naturel que le cadre de référence choisi devienne lui-même une vérité unique et qui ne peut être mise en débat, alors même que c’est ce genre de débats qui a fait progresser notre connaissance, comme le montre notamment Paul Fayerabend lorsqu’il décrit le passage au système copernicien dans Contre la méthode10 ou encore la position défendue par Thomas Nagel dans le Point de vue de nulle part11. On pourrait même avancer qu’aujourd’hui une telle hypothèse sous-jacente, celle d’un rapport fixe aux catégories de vérité, n’est pas judicieuse pour faire progresser la connaissance d’un monde qui n’est plus uniquement naturel mais partout transformé par le travail et la présence des hommes en très grand nombre.

S’il y a bien un champ pour la vérité, s’il y a bien une vérité qui est la juste application des cadres de références établis, il n’y en a pas moins place pour la recherche d’autres cadres de référence, d’autres jeux de normes qui pourraient façonner le monde différemment dans une entreprise assez proche de la manière dont se conçoit la philosophie cartésienne. C’est une vision de la vérité décalée par rapport à celle que propose l’école des choix rationnels et notamment Amartya Sen dans Rationalité et liberté en économie12, au sens où elle ne suppose pas qu’un jeu de référence s’imposera comme le meilleur possible, et ce même si l’on étend la gamme des préférences de l’homo oeconomicus comme le fait Jon Elster dans le Désintéressement13.

Ce genre de système de vérité est une version qui est beaucoup plus encadrée que le relativisme, en ce sens qu’il ne rapporte cette relativité qu’au cadre de référence et considère bien qu’à l’intérieur de celui-ci, qui peut ne pas bouger pendant des siècles puis bouger subitement comme on a l’impression que c’est le cas aujourd’hui, il y a bien une vérité, qui n’est certes pas absolue mais qui n’est pas non plus uniquement empirique.

Ce type de philosophie de la connaissance pourrait en tout cas nous permettre d’unifier les différents champs du savoir autour d’une vision peut-être étroite de la vérité, mais qui pourrait avoir la capacité d’accueillir une grande diversité de faits et dans le même temps de désigner des espaces de débat.

High Frequency Trading ou les huit minutes où le système a failli s’effondrer sur lui-même

Et c’est bien une grande diversité de faits que nous devons accueillir et essayer de trouver les moyens d’ordonner. C’est en tout cas ce qui ressort de ce qui s’est passé sur le New York Stock Echange entre 14 h 38 et 14 h 46 le 6 mai dernier. Le 6 mai 2010, à 14 h 38, le Dow Johns a commencé une chute abrupte de huit minutes durant laquelle il a perdu 6, 3 % de sa valeur (9 % par rapport au cours d’introduction du matin, soit une perte de 998 points). Le Nasdaq connaissait le même trou noir durant quelques minutes. Onze minutes plus tard, à 14 h 57, l’indice Dow Johns était remonté de 6, 1 % pour se situer à 10 489 points et la journée se clôturait finalement par une baisse de 3 %. Les gestionnaires du Nasdaq annonçaient le soir même qu’ils annulaient toutes les transactions effectuées entre 14 h 40 et 15 heures. Et la Security Exchange Commission (Sec) en charge de la supervision de la Bourse de New York ouvrait une enquête.

Diverses explications ont été avancées pour ce qui constitue à ce jour la plus grande chute à l’intérieur d’une journée de cotation (intraday) de l’histoire de cet indice créé en 1884. On a d’abord évoqué une erreur de saisie d’un trader de la Citygroup, explication qui fut rapidement écartée pour se ranger ensuite à l’hypothèse d’un emballement des automates de trading en jeu dans ce que l’on appelle le High Frequency Trading (les échanges à haute fréquence), qui auraient été mis automatiquement hors circuit à un certain niveau de baisse, le rebond constaté dans les minutes suivantes étant lié à des ordres eux aussi automatiquement générés par des prix anormalement bas, expliquant le retour rapide à une situation plus normale.

Ce type de faits invite à réfléchir sur la question des modèles statistiques adaptés pour rendre compte de la réalité constatée dans la sphère financière et plus largement dans la sphère économique, au travers d’une notion d’un abord assez technique, celle des « queues de distribution épaisses », les Fat Tails comme on les désigne en anglais. Il s’agit de savoir si les phénomènes extrêmes doivent être considérés comme ayant des probabilités d’occurrence suffisamment élevées pour devoir être pris en compte dans les modèles statistiques, ce qui conduit alors à devoir renoncer aux statistiques gaussiennes et à la fameuse courbe en cloche qui désigne ce modèle en vertu duquel les événements limites seront justement tellement limités qu’ils ne viendront pas remettre en cause le diagnostic qui peut être formulé à partir des observations nombreuses situées autour de la moyenne. Or, si l’on admet l’existence des queues de distribution épaisses, on se trouve contraint d’accepter l’existence de bifurcations non seulement possibles (les statistiques gaussiennes le prévoient aussi) mais qu’il est impossible de négliger.

C’est un sujet majeur pour la science économique, qui dépasse d’ailleurs le simple cadre de la finance et qui trouve notamment à s’appliquer aux questions écologiques. Si l’on en juge par un colloque intitulé « Gérer le changement climatique », organisé les 7 et 8 juin 2010 au Collège de France par Nicolas Stern et Roger Guesnerie14, cette question est aujourd’hui prise au sérieux par les économistes, avec notamment un débat entre Nicolas Stern et William Nordhaus sur la question de savoir si ces queues de distribution sont épaisses (ce qui est la position des défenseurs d’une réponse énergique au problème environnemental), négligeables (ce qui fut la position initiale de Nordhaus) ou médianes (ce qui est désormais sa position, permettant de sauver l’essentiel du raisonnement économique classique, à savoir le maintien d’une référence privilégiée aux courbes en dérivées).

Il n’entre pas dans ce propos de trancher cette question : ce sont en l’occurrence les faits qui tranchent ce type de débats. À cet égard, on peut pointer du doigt le fait, reprenant d’ailleurs une réponse de Nordhaus à une question sur l’explication de l’évolution de sa position (« quand les faits changent, mes idées aussi »), qu’il est probable que les faits étudiés par la science économique ont changé de nature dans les dernières décennies, en relation avec un changement d’échelle dans le nombre des parties prenantes de la sphère économique et dans la diversité des opérations auxquelles elles procèdent, rendant les phénomènes dépendants les uns des autres. En ce sens, il n’y aurait rien d’anormal à ce que l’économie, si elle vise à être une science exacte, c’est-à-dire une science qui rend compte le plus exactement possible de son objet d’étude, soit conduite à modifier en profondeur le mode de raisonnement mathématique qu’elle utilise.

Que faire ?

Toute personne sensée et qui n’est pas directement impliquée dans le système financier a des idées sur la manière dont les marchés financiers peuvent être assagis, avec une sorte de consensus de l’honnête homme qui pourrait se formuler en ces termes : 1) il faut s’assurer que les mouvements financiers ont une assise (réglementer le placement de sommes dont on ne dispose pas) ; 2) il faut limiter les phénomènes de réplication au sein de la sphère financière (interdire les fonds de fonds et les dérivées de dérivées ou trouver les moyens d’assurer la traçabilité des opérations) ; 3) on devrait taxer les transactions financières, parce qu’il n’est pas normal que ce segment de l’activité économique échappe au financement des activités communes et, qu’en sus, l’existence d’une taxe sur les transactions, même minime, sera un facteur de stabilisation du marché ; 4) les écarts par rapport aux règles qui existent déjà doivent être sanctionnés par de lourdes peines (abus de confiance, abus de position dominante, manipulations frauduleuses) ; 5) enfin, nous ne devons plus nous retrouver dans des situations où les acteurs du marché financier sont trop gros pour tomber, cette dernière proposition étant en quelque sorte la prémisse dont les autres découlent.

Tout le problème est qu’il ne suffit pas de déclarer cela entre personnes de bonne compagnie, il faut également que cela apparaisse légitime, c’est-à-dire que la décision de le faire résulte d’une délibération adaptée (ce qui renvoie à la question des institutions politiques supranationales) et qu’elle ne suscite pas la révolution, en l’occurrence des marchés financiers. Or, pour ce faire, le détour par la question de la vérité paraît indispensable, au sens où il peut permettre de montrer combien toute vérité est construite, y compris dans le champ économique et qu’une intervention dans ce champ n’est donc pas une intervention contre la vérité.

En l’espèce, s’agissant des marchés financiers, ce détour apparaît d’autant plus justifié que les règles sur la base desquelles ils fonctionnent aujourd’hui les situent dans des zones statistiques extrêmes (les queues de distribution épaisses) qui les sortent de la rationalité au sens où elle est entendue par la science économique. S’ils n’étaient pris dans leur propre jeu d’acteurs, les intervenants des marchés financiers devraient ainsi eux-mêmes demander une régulation qui permette de limiter ces phénomènes et de les resituer dans un horizon où les faits pourront s’ordonner de façon moins sauvage.

Pour tenter de synthétiser non pas la solution mais le problème, un monde de faits, un monde dans lequel un grand nombre d’acteurs doués de raison et de sentiments interagissent en tenant compte du comportement des autres (qu’on peut aussi appeler un système réfléchi), est un monde instable, désordonné, évolutif (ce qui n’est pas en soi une mauvaise nouvelle). Il est utile que le paradigme scientifique soit adapté pour en tenir compte, le risque étant sinon que de plus en plus de faits apparaissent comme irrationnels alors qu’ils ne sont que le signe de cette ouverture du réel. Mais il est en parallèle aussi utile et urgent que nous nous mettions en situation de choisir parmi les faits ceux que nous souhaitons ordonner, ceux autour desquels nous souhaitons nous retrouver autour de règles tenant compte de la technicité du monde actuel et démocratiquement acceptées. Et c’est justement le point sur lequel on peut considérer que les marchés financiers sont en défaut : ils manquent de règles et de sanctions.

En ce sens, se situer dans le monde contemporain, se projeter non plus dans un univers infini mais dans un système réfléchi et en ordonnancer certains aspects est un défi qui ne pourra être relevé avec succès que s’il s’accompagne au niveau de la pensée philosophique d’un déplacement de notre conception de la vérité, de sorte à pouvoir notamment accueillir la manière dont les faits s’y construisent et à dégager le substrat, le cadre de référence sur lequel ils se fondent. À défaut, la discussion continuera à être, sinon totalement impossible, du moins très fortement biaisée.

Historiquement, la relation à la nature nous a poussé à une vision conséquentialiste mais celle-ci n’a pas la même validité pour un monde de faits (opposé à un monde de choses) et d’ailleurs devient aussi difficile à appliquer sur la nature à un niveau qui combine le très petit et le très grand (le niveau du système de la nature et celui des mouvements subatomiques). Cela ne signifie pas que l’on ne peut pas avoir une vision conséquentialiste mais que celle-ci n’a pas de valeur absolue ; elle n’a de valeur que située dans un état de fait et de temps. Ce genre de raisonnement peut se nourrir des travaux de Tarski et d’une manière générale de toute l’école logique polonaise, telle que l’a utilisée notamment Whitehead dans le Concept de nature15 et qu’il peut être très utile d’élargir à ce qui n’est justement pas la nature mais le monde dans lequel se déploie l’acte économique, sur le mode de ce que fait par exemple Nelson Goodman16.

Pour reprendre la terminologie de la logique des mondes possibles modernes, nous avons construit notre modèle scientifique « en nécessité », et il nous faudrait maintenant développer un modèle scientifique « en possibilité » toujours dans le même langage, si nous voulons avoir prise sur le réel que nous avons construit. Les règles qui régissent nos manières de nous comporter sont le nœud par lequel nous pouvons passer d’un modèle à l’autre, concevoir en possibilité et avoir quelque chose qui tient en nécessité. Ce passage d’un référentiel à l’autre, qui doit être compris comme un processus inscrit dans une certaine temporalité, même s’il existe un moment où il se cristallise, peut faire appel à des notions d’apprentissage comme le fait notamment Vincent Descombes dans la Denrée mentale17 ou encore Giorgio Agamben dans Signatura rerum : sur la méthode18. Et la situation actuelle appelle clairement à procéder à ce genre de va-et-vient entre les faits et les cadres qui leur servent de référence en matière économique, tant la manière dont les règles du jeu s’y sont cristallisées durant les dernières décennies apparaît contestable.

Ainsi, si la toile de fond sur laquelle se déploie l’acte économique aujourd’hui rapporte la légitimité des acteurs privés à leur capacité à assumer des risques, force est de constater que le risque de système pèse sur la puissance publique dont le rôle devrait être ainsi réévalué ; de même, cette toile de fond fait du court terme l’horizon privilégié de l’acte économique, point central pour expliquer la situation actuelle et qui constitue un choix éminemment critiquable, ne serait-ce que si l’on se réfère à la théorie économique classique. En ce sens notamment, le capitalisme qui se déploie aujourd’hui avec son avidité pour le gain immédiat constitue une forme économique en décalage par rapport aux préceptes de l’économie de marché classique, dont on oublie trop souvent qu’elle fut conçue par ses plus grands auteurs comme un moyen de lutter contre les tendances à la concentration capitalistique.

À cet égard comme à bien d’autres, et en particulier à la manière dont les normes comptables considèrent le travail salarié, le référentiel utilisé aujourd’hui par la sphère économique est discutable, c’est-à-dire qu’il peut être discuté et, avec lui, la hiérarchie qu’il établit entre les différents marchés économiques, faisant du financement de l’économie le marché pour lequel fonctionne le circuit de production des biens et des services et reléguant celui du travail au rang de marché d’ajustement secondaire. C’est là, ne serait-ce que pour se placer en regard du standard économique classique, un déplacement du centre de gravité des faits économiques qui peut expliquer la situation à laquelle nous faisons face, situation qui mérite d’être analysée plus en termes de rapport de force que de vérité du marché.

  • *.

    Auteur du Libéralisme contre le capitalisme, Paris, Fayard, 2006, de Et si les chiffres ne disaient pas toute la vérité ?, Paris, Fayard, 2008, « Quand faut-il s’arrêter de compter ? », Esprit, janvier 2010 et « D’un automne à l’autre : les chantiers de la comptabilité », Esprit, novembre 2009.

  • 1.

    Peter Sloterdijk, le Palais de cristal, Paris, Maren Sell, 2006.

  • 2.

    John Rawls, Théorie de la justice, Paris, Le Seuil, 1987.

  • 3.

    Jürgen Habermas, lAvenir de la nature humaine : vers un eugénisme libéral ?, Paris, Gallimard, 2002. Ce livre incarne en quelque sorte le problème traité dans J. Habermas, Droit et démocratie, Paris, Gallimard, 1997.

  • 4.

    Marcel Gauchet, le Désenchantement du monde, Paris, Gallimard, 1985.

  • 5.

    M. Gauchet, la Démocratie contre elle-même, Paris, Gallimard, 2002.

  • 6.

    Une fois les données disponibles sur les effets sociaux de la crise à long terme comparés par exemple à ceux de la grande dépression, il sera intéressant de mesurer dans quelles conditions les classes les plus aisées ont été touchées. On peut en effet avoir l’intuition, mais elle serait à étayer par des faits, que l’impact de la crise actuelle sur les « riches » n’est pas du même ordre que celui qu’a eu la grande dépression, avec son cortège de faillites, de ruines et de suicides parmi les « nantis ».

  • 7.

    Voir V. Charolles, le Libéralisme contre le capitalisme, op. cit. Pour un éclairage historique sur ce point, on pourra se référer à Fernand Braudel, la Dynamique du capitalisme, Paris, Arthaud, 1985, qui présente succinctement les contours de Civilisation matérielle, économie et capitalisme, Paris, Armand Colin, 1979. Sous une formulation très différente, ce thème est également évoqué dans Gilles Deleuze et Félix Gattari, lAnti-Œdipe : capitalisme et schizophrénie, Paris, Minuit, 1972-1973 et il est également présent dans Michel Foucault, Naissance de la biopolitique, cours au Collège de France de 1978-1979, Paris, Gallimard/Le Seuil, 2004.

  • 8.

    Ludwig Wittgenstein, De la certitude, trad. fr. Jacques Fauve, Paris, Gallimard, 1965.

  • 9.

    Ibid., p. 150.

  • 10.

    Paul Fayerabend, Contre la méthode, Paris, Le Seuil, 1979.

  • 11.

    Thomas Nagel, le Point de vue de nulle part, Combas, L’Éclat, 1993.

  • 12.

    Amartya Sen, Rationalité et liberté en économie, Paris, Odile Jacob, 2005.

  • 13.

    Jon Elster, le Désintéressement, Paris, Le Seuil, 2009.

  • 14.

    Voir la présentation dans Esprit : Nicolas Bouleau, « Climat et développement durable : comment penser à long terme ? », août-septembre 2010.

  • 15.

    Alfred North Whitehead, le Concept de nature, Paris, Vrin, 1998.

  • 16.

    Nelson Goodman, Manières de faire des mondes, Paris, Jacqueline Chambon, 1992.

  • 17.

    Vincent Descombes, la Denrée mentale, Paris, Minuit, 1995.

  • 18.

    Giorgio Agamben, Signatura rerum : sur la méthode, Paris, Vrin, 2008.