Do not follow this hidden link or you will be blocked from this website !

Dans le même numéro

Climat et développement durable : comment penser à long terme ?

août/sept. 2010

#Divers

Le cours de Nicholas Stern au Collège de France, « Gérer les changements climatiques, promouvoir la croissance, le développement et l’équité », s’est clos les 7 et 8 juin derniers par une conférence internationale coorganisée par Roger Guesnerie focalisant la réflexion sur deux points cruciaux du changement climatique : l’économie du long terme et la promotion de l’innovation.

Cette initiative heureuse était le débouché naturel et attendu de l’enseignement de Nicholas Stern où celui ci avait présenté une vision panoramique de ces problèmes dans leur configuration physique, économique et politique. Ces six leçons n’ont pas fait appel à des modèles économiques sophistiqués où les phénomènes sociaux sont « expliqués » par des boîtes noires mathématiques. Il s’agissait au contraire d’une présentation géopolitique des divers points de vue et arguments en présence dans les discussions entre les acteurs : États, experts, public. Dans cette synthèse aux assises nécessairement incertaines et contestées, le rôle accordé par Stern à l’économie était minimal. On peut dire que c’est l’art de retenir les faits simples, quantifiés, importants qui structurent le paysage décisionnel.

Le financement du long terme

Pour autant l’auteur du rapport sur l’économie et le changement climatique remis au gouvernement britannique (connu sous le titre de Stern Review) n’en est pas resté à des généralités. Son analyse, précautionneuse, conduisit progressivement l’auditoire devant des thèses claires et fortes. Un de leurs points saillants est que, pour penser l’avenir et sortir de l’impasse des intérêts divergents, il convient que les pays riches régulent leurs émissions de gaz à effet de serre et participent en outre au financement d’une réorientation moins polluante de l’économie des pays en développement, position proche de celle à laquelle arrivait la Banque mondiale dans son rapport diffusé avant Copenhague, et qui semble, en effet, la seule réaliste devant cet immense problème dont la caractéristique principale actuelle est l’immobilisme1.

Cette lecture de la problématique pose immédiatement la question du financement à long terme, car pendant que les uns et les autres, Européens, Américains, Chinois, Brésiliens, etc., se querellent pour esquiver les efforts, c’est l’équité intergénérationnelle qui bascule : l’ordre économique contemporain confond avantage compétitif et avantage immédiat, pour des raisons profondes qui tiennent au fonctionnement même du système libéral, fondées non seulement sur une certaine confiance dans le progrès technique, qui fait penser que les entreprises actuellement les plus performantes seront aussi celles les mieux à même de profiter des innovations, mais aussi de plus en plus sur l’idée inverse qu’en situation de difficulté elles seront celles qui résisteront le mieux. Cette myopie se traduit par des taux d’actualisation2 trop élevés pour que les choix de « gestion rationnelle » prennent en compte le long terme et engagent des investissements nécessaires à un cadre de vie acceptable pour les générations futures. Beaucoup d’économistes sont conscients de cette situation et un courant se dégage parmi eux qui réclame à être mieux entendu des pouvoirs publics et des dirigeants afin de quitter la passivité irresponsable du business as usual. Au demeurant l’actualité ne porte pas à l’optimisme en la matière puisque les ministres des finances du G20 réunis à Busan en Corée du Sud ne sont pas parvenus à s’entendre sur le principe d’une taxe bancaire internationale, échec qui, après Copenhague, porte un coup sérieux à la recherche de « financements innovants » (préconisés notamment par Jean-Louis Borloo) dont l’idée semblait faire consensus en France, avec cette réserve évidente qu’elle ne pouvait être décidée unilatéralement.

Le risque déréalisé par les chiffres

Dans ce contexte, les attentes de ce colloque au Collège de France dépassaient les enjeux habituels des rencontres académiques. Le projecteur était mis sur un sujet crucial autour duquel s’entremêlent les contradictions où se débat notre époque que les économistes allaient s’efforcer d’élucider raisonnablement pour qu’on y voie plus clair.

La première surprise fut pour moi le choix des intervenants où figurent bon nombre de ténors de l’économie néoclassique, ainsi appelée pour qualifier l’orientation prise par le libéralisme, surtout à partir des années 1980, marquée par une dominance et une complexification des marchés financiers. Je ne discuterai ici que certains points d’intervenants très célèbres, parce qu’ils marquent, par leur notoriété même, plus typiquement les préoccupations de la communauté économique. L’exposé de M. L. Weitzman (Harvard) a essentiellement porté sur les incertitudes, en insistant sur le fait que la mauvaise connaissance des probabilités des événements rares – phénomène désigné sous le terme de « queues de lois épaisses » – joint au fait que les dommages correspondants peuvent être extrêmes fait que « l’exposition » au risque peut être illimitée. Il en déduit que l’analyse coût-bénéfice appliquée au changement climatique peut être largement dominée par un facteur de crainte qui est au-delà des modélisations robustes. Au premier degré, on ne peut que souscrire aux observations de Weitzman, d’ailleurs connues depuis longtemps. Mais pourquoi, au point où nous en sommes de la négociation climatique, ce professeur de Harvard tient-il ce type de discours ? Pourquoi insiste-t-il sur le doute et plaide-t-il ainsi, qu’on le veuille ou non, pour le business as usual3 ? W. Nordhaus (Yale) va dans le même sens en poussant plus loin le propos grâce à de véritables statistiques sur les événements graves, tremblements de terre, désastres dus aux guerres, aux inondations, famines, etc. Le problème est que les statisticiens savent bien qu’il n’est pas raisonnable d’évaluer les queues de probabilités sur des événements mesurés avec des échelles qui ne sont pas des grandeurs additives. On ne peut additionner les points de l’échelle de Richter, cela n’a aucun sens. Les extrapolations qu’on ferait ainsi seraient aussi arbitraires que le repérage utilisé. De sorte que la seule grandeur additive qui est derrière tout ça c’est l’argent. Autrement dit, une inondation au Bengladesh comptera pour peu de chose. Les économistes ne peuvent refréner leur propension à tout évaluer en argent, tout ce qui se vend et tout ce qui ne se vend pas. Ce faisant, évidemment, la question du taux d’actualisation et de l’équité intergénérationnelle reste entière.

Non seulement les queues de lois sont mal connues mais elles sont largement de nature interprétative relevant de lectures diverses de la réalité économique et politique. Antoine-Augustin Cournot au xixe siècle, en introduisant la notion de « probabilités philosophiques », avait déjà insisté sur le fait que la force des interprétations n’était pas quantifiable et ne relevait pas du calcul mathématique des probabilités. Il s’agit donc d’une limitation intrinsèque du langage économique lui-même. Il serait plus sage que les économistes le reconnaissent et laissent une vraie place à la décision politique.

Je citerai encore R. Guesnerie qui a présenté un travail conjoint sur le thème du taux d’actualisation au titre prometteur, « Intuition écologique versus “raison” économique ». Mais, hélas, la façon d’aborder cette intéressante question a relevé d’un véritable rituel à mon avis de moins en moins convaincant. Il s’agit d’un raisonnement à partir d’un modèle mathématique soi-disant simple mais couvrant néanmoins plusieurs pages de calculs dont le cœur est une fonction d’utilité entre un bien privé et un bien représentant l’environnement fonction dite Ces (constant elasticity substitution) de sorte que les conclusions de la réflexion sur la pertinence de l’intuition écologique reposent sur la valeur d’un exposant dans une formule et de la concavité ou convexité d’une fonction. Cette argumentation n’est-elle pas dérisoire devant le champ de bataille désolé que nous risquons de laisser à nos petits-enfants ? Quelle est cette « raison » économique mise ici à l’épreuve ? On nous ressert toujours ces petits modèles mathématiques pour aborder les questions du comportement des humains et de l’organisation sociale. Quelle est la relation véritable de ce type de discours avec la réalité ?

Passons sur plusieurs autres exposés encore fondés sur ces petits diagrammes faits de droites décalées ou de courbes concaves ou convexes censées expliquer les lois ou les tendances qui sont des raisonnements locaux où l’on raisonne en faisant varier infinitésimalement des grandeurs très abstraites et mal mesurées. Est-ce avec ça qu’on pense éclairer le long terme ?

Finalement les économistes n’ont guère apporté de réponse à cette grande question que sont le financement du long terme et le choix d’un taux d’actualisation. Ce dont ils ont fourni la preuve en revanche, c’est que les conventions du langage économique (disons : petits schémas mathématisés fondés sur la quête d’équilibres décrits par la littérature théorique) obèrent sérieusement une pensée pertinente sur une telle question. La conclusion raisonnable devrait être dès lors que l’économie ne doit pas à toute force chercher à étendre son royaume mais laisser la place à la négociation politique pluraliste au sein d’instances internationales renforcées.

Mais la conclusion de fait n’est pas celle-là. C’est que le taux d’actualisation en tant qu’outil pour la décision publique et la politique incitative est une vue de l’esprit : les taux sont donnés par les marchés financiers et s’imposent aussi bien aux entreprises qu’aux États. Ne pas en tenir compte en proposant des obligations peu rémunérées est irréaliste. Les marchés à terme et les dérivés de crédit annihilent la position particulière qu’avait l’État vis-à-vis de ses administrés dans le passé.

Je dois signaler cependant l’intervention de C. Hepburn (Oxford) qui sortait de ces byzantinismes et pointait lucidement les limites de la modélisation économique. Il m’a semblé que Nicholas Stern, au cours de ses interventions, n’était pas loin de souscrire à cette analyse mais comme il l’a dit, il considère indispensable de garder le langage économique pour se faire comprendre. Il y a sans doute une part de sagesse dans cette affirmation, à condition que le langage économique ne défende pas toujours les mêmes thèses et parvienne à convaincre vraiment de sortir des affaires comme si de rien n’était.

  • 1.

    Immobilisme qui signifie toujours autant de carbone rejeté dans l’atmosphère et par conséquent, par effet de stock, aggravation de la dégradation du climat : voir Nicolas Bouleau, « Un, deux, trois… soleil. Pourquoi les négociations sur le climat sont mal parties », Esprit, décembre 2009.

  • 2.

    Le taux d’actualisation peut être vu soit comme la rentabilité ramenée à l’année d’un investissement qui ne rapporte que plus tard, soit comme le coefficient qui doit affecter les recettes futures dans le choix entre différentes stratégies. Avec un taux de 4 %, un euro dans vingt-cinq ans est équivalent à 36 centimes aujourd’hui, un euro dans cinquante ans compte autant que 14 centimes aujourd’hui.

  • 3.

    Voir à ce propos le remarquable ouvrage de David Michaels, Doubt is Their Product. How Industry’s Assault on Science Threatens Your Health, Oxford, Oxford University Press, 2008.

Nicolas Bouleau

Professeur émérite à l'École des Ponts ParisTech où il a dirigé pendant dix ans le centre de mathématiques, Nicolas Bouleau est mathématicien et philosophe des sciences. Il est notamment l'auteur de Le Mensonge de la finance (Éditions de l'Atelier, 2018), Mathématiques et risques financiers (Odile Jacob, 2009), Martingales et marchés financiers (Odile Jacob, 1998). …

Dans le même numéro

Actualité d’Ivan Illich
Un penseur contre-productif ?
Les professions, les outils, la sience : les deux temps d'une oeuvre
Critique de la pensée du risque

Deux inédits d'Ivan Illich :
"Le texte et l'université"
"L'énergie, un objet social"