21 décembre 2009

Contre l'esprit de système

La pensée est un exercice difficile. Nombreux sont les écueils dans lesquels elle doit éviter de tomber : incohérence, absence de rigueur, trop forte subjectivité, volonté de jouer un jeu social, soit en épousant les thèses du moment ou en se réfugiant dans les niches du paradoxe systématique. A ces pièges un peu grossiers, qui sont facilement repérables, il est nécessaire d’en ajouter un beaucoup plus subtil, et par là-même beaucoup plus dangereux : l’esprit de système.


Qu’entend-on par « esprit de système » ?

Le monde est une succession de faits plus ou moins connectés les uns aux autres, parfois contradictoires et souvent chaotiques. Pour saisir cette réalité complexe, notre entendement cherche à repérer des invariances, des relations de causalités ou des éléments explicatifs. Le monde extérieur est ainsi modélisé par chacun d’entre nous en quelque chose de plus simple et de plus cohérent. Cette démarche est nécessaire, car personne ne peut vivre dans un monde complètement chaotique, sans aucun repère. L’esprit de système ne consiste donc pas en une modélisation du monde, mais il s’agit d’une perversion de cette modélisation. C’est en cela qu’il est plus difficilement repérable.

L’esprit de système procède d’une inversion : à la primauté du réel il substitue la primauté du modèle. Plutôt que de reconnaître que tout modèle est une approximation imparfaite de la réalité, il postule que le réel finit toujours par se conformer au modèle, même s’il emprunte parfois pour cela des détours tortueux. Avoir l’esprit de système, c’est penser que le monde a une structure, c’est adopter une approche d’algébriste. Cette structure, c’est une sorte d’ « arrière-monde », ce qui introduit une certaine filiation de l’esprit de système avec la religion. Ceux qui adoptent l’esprit de système sont les prêtres de cette religion de la logique, ils affirment que leur système ou leur arrière-monde est plus réel que la réalité elle-même.

Quelques exemples d’esprit de système

L’esprit de système transcende les clivages idéologiques traditionnels. Pour le montrer, on peut prendre deux exemples diamétralement opposés : le communisme (à la Badiou) et les bases microéconomiques du libéralisme.

Le communisme radical consiste en une division du monde en deux : les dominants et les dominés, division qui recouvre exactement celle entre oppresseurs et opprimés. Ce modèle rudimentaire est à la base de tous les raisonnements communistes. La culture aristocratique ou bourgeoise n’a par exemple aucune valeur en soi, elle n’est considérée que comme un moyen en vue d’un fin politique : la domination des masses par une certaine classe sociale. Surtout, il n’y a pas de place pour la nuance dans ce modèle où l’on ne compte jamais au-delà de deux. Dès lors chacun doit choisir son camp, tout autre objectif que la question politique devient une diversion et toute tentative de compromis social devient une compromission, voire une trahison.

A l’autre bout du spectre, on trouve l’ultralibéralisme qui se fonde sur une approche microéconomique selon laquelle l’homme est un homo œconomicus qui connaît et maximise son intérêt matériel. Dans ce cadre, toute intervention étatique est par nature sous-optimale par rapport à la solution apportée par des marchés supposés efficients. Cette vision postule également un individualisme total et ne considère le social que comme la résultante d’un ensemble d’individus libres et indépendants les uns des autres. Ainsi, il n’y a pas de sociologie possible des homo œconomicus, seule l’approche microéconomique et son formalisme mathématique peut prétendre à la recherche de la vérité.

On pourrait multiplier les exemples d’esprit de système, qu’il s’agisse du crypto-marxisme nationaliste (à la Eric Zemmour) qui ne voit la mondialisation et l’immigration que comme un moyen pour le grand Capital de faire pression à la baisse sur les salaires en Occident, de l’antiracisme qui reprend la distinction opprimés/oppresseurs chère au communisme ou encore du conservatisme sociétal pour qui l’éducation des enfants n’est possible que dans le cadre classique d’une famille avec un père et une mère. Le point commun de toutes ces idéologies, c’est qu’elles refusent de traiter les cas particuliers pour mettre en avant des abstractions : le dominé, l’homo œconomicus, le capitaliste, l’immigré ou encore « la figure du père ».

La plausibilité plutôt que la vérité

L’erreur originelle propre à tous les types d’esprit de système consiste à substituer la plausibilité à la vérité. En effet, tous les systèmes ou les modèles évoqués ci-dessus sont plausibles, en ce sens qu’on peut trouver une interprétation logique et rationnelle qui les justifie. Il est par exemple plausible que les dominants n’aient comme seul objectif de conserver leur pouvoir social au mépris de toute considération de justice et de mérite et que la seule solution pour les dominés soit la lutte à mort contre cette classe ennemie. Il est plausible que toutes les actions des individus soient guidées par l’intérêt matériel, à travers un calcul coût/avantage précédant chaque prise de décision. Il est plausible que certains actionnaires de firmes multinationales poussent à la délocalisation pour bénéficier de salaires plus bas et poussent à l’immigration pour faire baisser le coût de la main d’œuvre dans les pays riches. Il est plausible que l’explication du plus fort taux de chômage et d’un plus grand nombre d’actes de délinquance chez les populations d’origine immigrée tienne uniquement au racisme dont elles sont victimes dans la société. Il est plausible, enfin, que le cadre biologique (un père et une mère) soit également le cadre idéal et indépassable pour élever des enfants.

En effet, dans tous ces cas, on comprend le raisonnement sous-jacent et on connaît des cas concrets où le modèle s’applique. Mais la véritable question, à laquelle ne répond jamais l’esprit de système, n’est pas de savoir si le modèle est plausible, mais s’il est vrai. Dans le cas du communisme, le démenti a été apporté par l’histoire, puisque la suppression de la classe dominante n’a pas entraîné le bien-être de la société, bien au contraire. Dans le cas de l’ultralibéralisme, on ne compte plus les expériences d’économie qui montrent que les hypothèses utilisées, en particulier la logique de l’intérêt, ne sont pas conformes aux faits. La logique du don, par exemple, semble irréductible à une explication au travers de l’intérêt.

On touche là au cœur du problème : l’esprit de système remplace le monde réel par le monde de la logique et il substitue comme critère d’évaluation la plausibilité à la vérité. Ainsi, l’abstraction peut se déployer sans limite et faire fi de la réalité : dès lors que le critère de plausibilité est respecté dans le monde logique, on finira bien par trouver une explication, une manière de regarder la réalité qui s’accordera avec le modèle.

Un exemple a été récemment fourni par l’actualité : à quelques mois d’intervalle, on a vu deux personnalités politiques, Brice Hortefeux et Jacques Chirac, se prêter, sans se rendre compte qu’ils étaient filmés, à une mauvaise blague sur un jeune d’origine maghrébine. Mais beaucoup de commentateurs ont refusé de traiter ces informations sur le même plan, car dans leur « modèle », Brice Hortefeux, ancien ministre de l’immigration et actuel ministre de l’intérieur incarne la droite raciste tandis que Jacques Chirac incarne cette France tranquille et accueillante. Comme la réalité des faits ne correspondait pas au modèle, on a choisi de chausser les lunettes déformantes de la réalité et d’aucuns sont venus expliquer que la teneur des deux propos n’avaient absolument rien à voir et que s’il on pouvait sans hésiter parler de racisme chez Hortefeux, il s’agissait juste d’un lapsus regrettable pour Chirac.

Pour résister à l’esprit de système, il faut donc refuser de faire de la cohérence l’alpha et l’oméga de la pensée philosophique et politique et affirmer avec force que la réalité ne doit jamais être sacrifiée sur l’autel de la cohérence logique. En effet, la logique est manichéenne alors que la réalité ne l’est pas, l’esprit de système a donc une tendance naturelle à mener à des positions extrémistes (communisme, ultralibéralisme, nationalisme, antiracisme ou conservatisme radical).

Quels avantages à adopter l’esprit de système ?

Dès lors que sont pointés les erreurs et les dangers propres à l’esprit de système, il convient d’expliquer pourquoi certaines personnes peuvent avoir naturellement tendance à en faire usage. Trois raisons principales peuvent être mises en avant. Tout d’abord, comme toute idéologie qui postule un arrière-monde (religion, théorie du complot,…), il y a un côté grisant dans l’esprit de système. Il s’agit en effet de ne pas s’arrêter aux prétendus faux-semblants : « la réalité ment, la vérité est ailleurs », tel est le credo de tous les systèmes. L’esprit de système permet en ce sens de dépasser une certaine naïveté en proposant sa vision explicative de la marche du monde.

La deuxième raison qui peut expliquer l’attrait pour l’esprit de système est de nature esthétique, au sens où les mathématiques relèvent de l’esthétique. Un raisonnement logique est plus beau qu’un raisonnement complexe, il y a un côté « jardin à la française » dans la recherche de la cohérence. On trouve ainsi des penseurs qui préfèrent avoir tort élégamment que raison fastidieusement (Jacques Attali, Claude Riveline,…). Pour le dire autrement, adopter l’esprit de système, c’est placer la beauté et sa pureté au-dessus de la vérité et de sa complexité.

La troisième raison, c’est un esprit critique inachevé. Plus précisément, l’esprit de système, c’est un esprit critique, qui doute de tout sauf de lui-même. C’est une absence d’humilité qui empêche de dire « je ne sais pas ». Les climato-sceptiques sont un bon exemple de cette forme particulière d’esprit de système : ils doutent des résultats scientifiques de la communauté des climatologues tels Galilée s’opposant à la communauté scientifique de son temps, sous prétexte que la science n’est pas démocratique. Mais ce qui vaut pour Galilée ne vaut pas pour l’étude de systèmes complexes où la collégialité est une nécessité et où aucun scientifique ne peut prétendre comprendre tous les tenants et tous les aboutissants. Les climato-sceptiques ne sont pas condamnables parce qu’ils doutent, mais parce qu’ils refusent de douter de leur doute.

L’empirisme radical comme alternative à l’esprit de système ?

Face à l’impasse constituée par l’esprit de système, la tentation peut être de dépasser toute idée de système et de modèle en essayant de prendre la réalité directement comme elle nous arrive, de manière totalement empirique. Mais il s’agit là également d’une impasse, qui ne consiste pas cette fois à placer la plausibilité au-dessus de la vérité mais à supprimer purement et simplement la plausibilité. Il est impossible d’appréhender le monde sans a priori et sans modèles préétablis, ce sont ces préjugés qui doivent être ensuite soumis à la réalité.

Une illustration pratique de ces considérations théoriques se trouve dans la science économique. Pour caricaturer, certains économistes écrivent des systèmes à partir de leur seule intuition et de leur subjectivité, qu’ils traduisent ensuite sous forme mathématique, pour expliquer la réalité. Face à eux, on trouve certains économètres qui prétendent adopter une démarche purement objective, basée sur des mesures et des régressions statistiques. Ces deux démarches sont toutes les deux vouées à l’échec : de même que la confrontation au réel est une nécessité pour l’économiste, l’adoption d’un modèle préalable (de régression par exemple) est indispensable pour l’économètre.

C’est ce va-et-vient permanent entre la confrontation à la réalité et l’élaboration de modèles que mettent à mal l’esprit de système comme l’empirisme radical.

Modèle explicatif ou modèle normatif ?

Là où l’esprit de système est particulièrement dangereux, c’est quand le modèle explicatif qu’il met en avant tend à devenir un modèle normatif. C’est le passage du « je crois » au « il faut » : il faut que les dominés et les dominants soient ennemis l’un de l’autre, il faut que l’homme devienne un homo œconomicus,…

Bien entendu, les modèles normatifs ne sont pas condamnables en soi, c’est même ce que l’on appelle couramment la morale, en revanche, il est dangereux de faire de la morale sans le dire. En assénant un système, il finit par devenir auto-réalisateur : le fait de modéliser l’homme par un homo œconomicus uniquement mu par son intérêt matériel finit par faire exister cet individu jusque là purement fictif. Il est rare en effet, qu’un système ne serve qu’à décrire ou commenter le réel, très souvent, il cherche également à influer sur le réel, c’est là où la frontière entre le descriptif et le normatif devient poreuse.

Conclusion : la littérature comme solution ?

Un domaine résiste farouchement à l’esprit de système, c’est la littérature. C’est en tous cas la thèse développée par Alain Finkielkraut dans son dernier ouvrage « Un Cœur intelligent ». La littérature réintroduit la particularité et la pluralité des cas, elle renâcle à faire rentrer ses personnages dans des cases caricaturales. De ce point de vue, la littérature a une fonction éminemment philosophique puisqu’elle permet de nous faire sentir la complexité du réel, qui ne sera jamais réductible à une modélisation définitive.

Bien entendu, la littérature ne fournit pas un principe d’action, elle ne répond pas à la question « que faire ? » de même qu’elle ne fournit pas un modèle pour appréhender le monde. Elle nous alerte juste sur le fait que les modèles et les systèmes sont imparfaits et qu’il faut en avoir conscience. C’est déjà une grande leçon de sagesse qui peut permettre à ceux qui la reçoivent de penser plus justement.

02 décembre 2009

Les conditions du désendettement public


L’objet de ce papier n’est pas de détailler un ensemble de solutions techniques qui permettraient de faire revenir les finances publiques à l’équilibre, les rapports des Commissions des Finances de l’Assemblée et du Sénat ou ceux de la Cour des Comptes constituent certainement de saines lectures à ce sujet, il s’agit plutôt pour nous ici de dresser les conditions générales nécessaires au désendettement de l’Etat.

  1. La clarté, préalable à la pédagogie

Dans une optique de désendettement qui demandera des efforts importants à tous nos concitoyens, il convient de clarifier les concepts et les outils utilisés afin de bien faire comprendre à l’opinion publique où se situent les marges de manœuvre.

    1. Cotisations patronales et salariales

La question du financement de la protection sociale ne va pas tarder à se poser avec insistance : avec des recettes limitées car pesant sur le coût du travail et des dépenses en hausse du fait de l’augmentation de l’espérance de vie, le système peut devenir très vite largement déséquilibré. Il faut donc éviter que l’opinion publique se tourne vers de fausses solutions, la principale étant « il suffit de faire payer les entreprises en augmentant les cotisations patronales ».

En effet, cette dichotomie entre cotisations patronales et salariales est source de confusion. Il convient de rappeler que la protection sociale est un grand service de mutualisation des risques qui bénéficie aux salariés et dont le coût repose intégralement sur les épaules des salariés. Ce qui intéresse l’entreprise, c’est le salaire hyper-brut, elle n’a pas à se soucier a priori du partage entre le salaire net et les cotisations sociales. Il serait donc opportun de fusionner les cotisations salariales et patronales, d’adapter le SMIC en fonction (pour qu’il soit homogène à un salaire hyperbrut) et de sortir les organisations patronales de la gestion de la protection sociale. Ce sujet doit concerner les salariés (via leurs syndicats) et l’Etat.

Ainsi, les salariés comprendront mieux sur leur fiche de paye ce qu’ils coûtent à l’entreprise et quelle part de leur salaire va au financement de la protection sociale. Ils seront donc mieux à même de comprendre et de donner leur opinion sur les arbitrages nécessaires.

    1. Cantonnement de la dette sociale et de la dette de crise

Le principe du cantonnement de la dette sociale est absolument essentiel. Il interdit le mélange de la dette sociale avec la dette publique et contraint chaque génération à faire face à ses déficits sociaux, via le paiement de la CRDS qui vient alimenter la CADES (caisse d’amortissement de la dette sociale). Même si le gouvernement n’a pas voulu faire ce choix, il aurait été opportun de transposer ce dispositif de cantonnement à la dette générée par la crise économique, il n’est d’ailleurs peut-être pas trop tard pour le faire.

Pour que ce cantonnement soit crédible, il faut se fixer un horizon temporel de remboursement et essayer de s’y tenir. Cela signifie que toute dette supplémentaire à amortir doit se traduire par une augmentation de la CRDS ou de son équivalent pour la dette de crise. En effet, reporter toujours plus tard le remboursement de ce type de dette, c’est faire payer aux générations futures notre protection sociale ou notre politique économique conjoncturelle, ce qui n’est pas acceptable.

    1. Etablir un moratoire sur les nouvelles dépenses fiscales et fixer une limite budgétaire à chaque niche existante

Le Parlement est le seul habilité à décider du montant des dépenses de l’Etat et à en assurer le contrôle. C’est ce qu’il fait dans le cadre des dépenses budgétaires, dans le cadre de la loi de finances et des lois de finances rectificatives. Il en va tout autrement de la dépense fiscale qui connaît un essor considérable depuis quelques années (passage de 30 à 70 milliards d’euros par an) et dont le montant n’est absolument pas contrôlé par le Parlement. Pire : il est même difficile de l’estimer correctement.

La dépense fiscale est le subterfuge trouvé par les gouvernements qui n’ont plus les moyens de la dépense budgétaire. Désormais, il n’y a plus de projets de loi sans exonération fiscale ou sociale, ce fut en particulier le cas de la loi TEPA. Pour stopper cette dérive, il convient, comme le suggèrent Didier Migaud et Gilles Carrez, de poser une sorte de moratoire sur les dépenses fiscales à venir en demandant que pour chaque nouvelle exonération proposée, on justifie l’intérêt de la dépense fiscale par rapport à la dépense budgétaire.

Par ailleurs, afin de redonner au Parlement un pouvoir de contrôle sur ces moindres recettes fiscales, il conviendrait que pour chaque niche fiscale, une enveloppe soit votée en loi de finances qui constituerait le maximum d’exonération que pourraient se partager les contribuables utilisant cette niche.

    1. Exprimer le déficit en fonction des recettes fiscales et non du PIB, remplacer dette/PIB par intérêts/budget

Les questions de vocabulaire peuvent sembler accessoires, elles sont au contraire tout à fait majeures car elles structurent souvent le débat politique. L’habitude a été prise de rapporter le déficit public au PIB, ce qui ne permet pas à l’opinion publique de bien se rendre compte du déséquilibre réel des finances publiques. Il serait beaucoup plus approprié de rapporter ce déficit aux recettes fiscales de l’Etat. Ainsi, en 2009, le déficit public vaut environ 8% du PIB mais plus de 25% des recettes publiques !

Dans le même ordre d’idées, il nous semble plus parlant de rapporter la charge des intérêts de la dette au budget voté plutôt que d’utiliser le ratio dette/PIB qui est beaucoup plus abstrait. Comme indiqué précédemment, la comparaison entre cette charge d’intérêt et les grands postes budgétaires de l’Etat, en particulier l’Education Nationale, exprime bien à quel point l’endettement de notre pays limite les marges de manœuvre politiques des différents gouvernements.

  1. Responsabiliser les Français à la dépense publique par une grande réforme fiscale

Pour revenir à l’équilibre des finances publiques, il faut s’interroger sur ce qui empêche la dérive des dépenses publiques dans une démocratie. Le stabilisateur le plus important, au-delà de la sagesse de la classe politique, c’est le fait que les contribuables rechignent à payer trop d’impôts. Pour que ce stabilisateur joue véritablement son rôle, il ne suffit pas que les Français paient beaucoup d’impôts, il faut qu’ils aient l’impression d’en payer trop. Or ce n’est pas le cas en raison de la trop faible part de la fiscalité directe dans les ressources de l’Etat.

La comparaison avec les Etats-Unis est de ce point de vue édifiante : alors que la fiscalité dans ce pays est moindre, les contribuables ont l’impression de payer beaucoup d’impôts et ne parlent que de ça au moment de leur déclaration fiscale. Tel n’est pas le cas en France où près d’un ménage sur deux ne paye pas l’impôt sur le revenu et où la TVA, la TIPP ou l’IS créent une augmentation des prix pour les consommateurs qu’ils n’associent pas directement à des ressources fiscales qui viennent financer les dépenses publiques.

(cliquer pour agrandir)

    1. Fusion des impôts directs : IRPP, CSG, PPE

Ce constat appelle à une grande réforme fiscale qui créé un grand impôt direct, payé par tous les contribuables et qui viendrait remplacer en première approche l’IRPP, la CSG et la PPE (impôt négatif). Cet impôt s’appliquerait à tous les revenus du travail et du capital et serait progressif.

En cas de hausse des prélèvements obligatoires, c’est cet impôt qui aurait vocation à augmenter et non la TVA, la TIPP ou l’IS. Parallèlement à ce système, des taxes incitatives comme la taxe carbone pourraient être augmentées à condition d’être restituées aux contribuables de manière forfaitaire, ce qui n’augmenterait donc pas la pression fiscale.

En ce qui concerne son mode de perception, le prélèvement à la source semble le plus opportun, il permettrait à chaque salarié de bien comprendre le poids des dépenses publiques sur chacune de ses fiches de paye avec la décomposition du salaire hyperbrut en cotisations sociales, impôts directs et salaire hypernet (somme réellement perçue par le salarié). Ce mécanisme ne supprimerait pas la déclaration d’impôts annuelle qui prendrait en compte les autres revenus que le travail, le quotient familial et les différentes exonérations fiscales. Cet acte de déclaration est essentiel pour que les contribuables mesurent bien la somme qu’ils allouent chaque année à l’Etat pour mener ses politiques.

    1. Faire apparaître les impôts d’amortissement CRDS + dette de crise

En plus de l’impôt direct décrit ci-dessus, qui aurait vocation à financer la majeure partie des dépenses publiques et une partie des dépenses sociales, il convient de distinguer les impôts exceptionnels qui permettent d’amortir les dettes cantonnées (dette sociale et dette conjoncturelle de crise). Cet impôt pourrait également être prélevé à la source et serait, comme aujourd’hui, proportionnel aux revenus des contribuables (du travail ou du capital).

Chaque contribuable/salarié verrait donc clairement apparaître les trois types de prélèvements directs dont il fait l’objet :

  • Les cotisations sociales pour financer la majeure partie de la protection sociale
  • L’impôt direct pour financer l’essentiel des dépenses de l’Etat et une partie de la protection sociale
  • L’amortissement des dettes conjoncturelles accumulées dans le passé récent
    1. Harmoniser les niches fiscales et les plafonner globalement

Comme évoqué plus haut, les niches fiscales se sont considérablement développées au cours des dernières années au point que le total des exonérations fiscales aujourd’hui (70 Mds d’€) dépasse largement la recette de l’impôt sur le revenu (55 Mds d’€). Cette réduction considérable de l’assiette entraîne une décorrélation totale entre les taux marginaux élevés affichés par notre système fiscal et les taux moyens effectivement payés par les contribuables. Cette particularité rend notre système à la fois complexe, injuste, inefficace et peu attractif.

En plus de plafonner chacune des niches fiscales comme proposé précédemment, il est nécessaire de plafonner globalement, pour chaque contribuable, le montant des exonérations fiscales. Une récente étude menée par Gilles Carrez et Didier Migaud sur les niches fiscales a montré que leur utilisation intensive par les contribuables les plus riches allait jusqu’à rendre l’impôt dégressif et non plus progressif sur les tranches les plus hautes. Pour cela, il faut tout d’abord harmoniser l’ensemble de ces niches fiscales : certaines consistent en des réductions de l’assiette et d’autres en des réductions de l’impôt à payer. C’est ce système hybride qui avait conduit le Conseil Constitutionnel à censurer le plafonnement global des niches fiscales déjà proposé car il le jugeait trop complexe et peu lisible.

Le Parlement a adopté un mécanisme de plafonnement pour l’impôt sur le revenu de 2010 qui permettra certainement de contenir enfin la dépense fiscale. L’exonération fiscale ne pourra en effet, pas dépasser 25 000€ + 10% du revenu imposable du foyer fiscal. C’est un premier pas intéressant, qu’il conviendra d’analyser avec précision. Quoi qu’il en soit, si une augmentation de l’imposition directe devenait nécessaire, une augmentation de l’assiette (via la diminution des seuils de 25 000 € et de 10% du revenu imposable) serait préférable à une augmentation des taux marginaux.

    1. Appliquer la Constitution qui veut que les collectivités locales soient financées de manière prépondérante par des ressources propres

L’article 72-2 de la Constitution stipule que « Les recettes fiscales et les autres ressources propres des collectivités territoriales représentent, pour chaque catégorie de collectivités, une part déterminante de l'ensemble de leurs ressources ». Cet article est ambigu, il serait préférable de remplacer « déterminante » par « prépondérante ». Ajoutons que le financement actuel des collectivités locales est presque illisible puisque l’Etat intervient à de multiples titres : par une dotation globale de fonctionnement, par des allègements fiscaux compensés par l’Etat et par le transfert de certains impôts (comme une partie de la TIPP). Ce système complexe ne permet pas de responsabiliser les élus locaux sur leurs dépenses.

Il serait préférable de transférer une partie des transferts de l’Etat vers les collectivités locales en fiscalité propre. Ainsi, les collectivités locales pourraient décider d’une partie du taux d’imposition directe et toucherait les recettes correspondantes. Par exemple l’Etat fixerait les taux marginaux de base des différentes tranches et chaque collectivité locale (les départements et les régions principalement) détermineraient un taux additionnel qui s’appliquerait à chacune de ces tranches. Ces augmentations de taux seraient toutefois encadrées par la loi et devraient conserver la progressivité de l’impôt. Pour ne pas compliquer le système il faudrait que les communes et les intercommunalités ne participent pas à ce système et soient donc financées principalement par d’autres impôts comme la taxe d’habitation, la taxe foncière ou la cotisation économique territoriale nouvellement créée.

Bien entendu, afin d’assurer la péréquation entre les régions et les départements, une partie du financement des collectivités territoriales doit rester une dotation globale de fonctionnement transférée par l’Etat.

  1. Assurer un financement pérenne de la protection sociale

La dette sociale est aujourd’hui plus faible que la dette de l’Etat ou que celle des collectivités locales (35 Mds d’€ contre 1 145 pour l’Etat et 147 pour les collectivités locales à fin 2008). Cependant, comme il s’agit de la part prépondérante des dépenses publiques, un déséquilibre du financement de la protection sociale peut très vite produire une augmentation brutale et incontrôlée de la dette sociale. De surcroît, les dépenses sociales profitent uniquement à la génération actuelle, il serait donc tout à fait immoral d’en faire supporter le coût aux générations futures. Le préalable nécessaire à toute réflexion sur le financement de la protection sociale est donc le suivant : à moyen terme les cotisations sociales (y compris la CSG) doivent venir compenser les prestations sociales.

Bien entendu, il ne s’agit pas d’établir une égalité comptable stricte au mois le mois ou même à l’année : les stabilisateurs automatiques doivent jouer pendant les périodes de crise, mais ces déficits passagers doivent être compensés par des excédents pendant les périodes de croissance de manière à l’équilibre sur l’ensemble d’un cycle économique.

Au-delà de la gestion conjoncturelle du financement de la protection sociale, le vieillissement de la population appelle à des réformes structurelles qu’il ne convient pas de détailler ici. De manière générale, on peut regretter que les réformes successives des retraites ne soient que des solutions provisoires qui permettent de gagner quelques années. Cette accumulation de réformes peut avoir comme conséquence de décourager l’opinion publique. Une réforme véritablement structurelle devrait conduire à un équilibre quasi-automatique du système (régime par points, régimes en comptes notionnels).

  1. Repenser l’investissement public et son financement

Si la croissance ne suffira pas, à elle seule, à faire revenir les comptes publics à l’équilibre comme indiqué précédemment, une chose est sûre : sans croissance il n’y a pas de solution. Pour permettre cette croissance, les administrations publiques ont besoin d’investir. Au cours des dernières années, l’investissement public est resté relativement stable entre 3 et 3,5% du PIB, en revanche, on assiste à des modifications profondes entre la part de l’Etat (passage de 25% à 13% de l’investissement public de 1993 à 2006) et celle des collectivités locales (passage de 65% à 73%).

Parmi les investissements des collectivités locales, plus de 70% sont réalisées à l’échelon communal ou intercommunal. Beaucoup de ces investissements contribuent essentiellement à l’amélioration de la qualité de vie dans notre pays (piscines, réfection des centres-villes, ronds-points par centaines,…) mais ne sont pas productifs et ne préparent donc pas la croissance de demain. Il est temps de réaliser que tout investissement n’est pas bon par nature et que notre pays n’a certainement plus les moyens financiers de construire de multiples « éléphants blancs ».

Les investissements productifs supposent une certaine taille critique qui ne peut être que celle des régions ou de l’Etat et non celle des communes ou des départements. L’intérêt du débat sur le Grand Emprunt a été de réhabiliter le rôle de l’Etat en tant qu’investisseur-stratège. De ce constat général on peut tirer les propositions suivantes :

  • Les échelons qui ont vocation à s’endetter pour investir sont la région et l’Etat. Aujourd’hui, les collectivités locales ne peuvent s’endetter que pour investir, il serait opportun de rendre cette règle plus contraignante en faisant que les chambres régionales des Comptes n’autorisent l’emprunt que pour les investissements productifs, les investissements destinés à améliorer la qualité de vie devant être financés par des recettes courantes.
  • Les dépenses d’investissements productifs ne doivent toutefois pas être sans limite car tout investissement comporte une part de risque et que l’Etat a une tendance naturelle à surestimer le retour sur investissement de ses projets. Une proposition intéressante qui figure dans le rapport de la commission Juppé-Rocard : que les charges d’intérêts générées par l’endettement supplémentaire soient compensées par des réductions équivalentes des dépenses de fonctionnement, de manière à ce que le recours à l’emprunt pour financer des investissements productifs ne viennent pas aggraver la situation des déficits publics.

Conclusion

Le désendettement public, nécessaire pour retrouver des marges budgétaires et donc politiques, ne se fera pas d’un coup de baguette magique : il n’existe pas de solution miracle. Cet article propose plusieurs pistes pour faire revenir nos finances publiques vers l’équilibre. Il ne s’agit pas d’un catalogue de mesures mais plutôt de grands principes à respecter au premiers rangs desquels viennent la responsabilisation des citoyens-contribuables par une clarification des systèmes de dépenses et de recettes publiques, la pérennisation des réformes de la protection sociale à l’heure du vieillissement de la population et la réhabilitation de l’investissement productif au profit de l’investissement de confort.

Plus qu’un impératif financier, le désendettement public est un impératif politique et moral.

27 novembre 2009

Réflexions sur la dette publique

Cet article est le premier d'une série de deux consacrée à la dette publique. Il s'agit tout d'abord de présenter un cadre d'analyse général et de pointer ce qui me semblent être un certain nombre de "fausses solutions". Le deuxième article tentera de proposer des pistes de solutions. Entre les deux, je serais très reconnaissant aux lecteurs de ce blog intéressés par le sujet de bien vouloir me livrer leur sentiment en laissant un commentaire ou en m'envoyant un mail.

1. Pourquoi se soucier de la dette publique ?

La dette publique française n’a cessé d’augmenter au cours des 30 dernières années, à l’instar de ce qui s’est passé dans la plupart des pays comparables. La crise économique récente a considérablement accéléré cette évolution. Si la situation est préoccupante, elle est loin d’être catastrophique pour le moment, la signature de la France suscitant toujours la confiance des investisseurs. Dans ces conditions, on est en droit de se demander si la dette publique est réellement un problème pour notre pays et si vouloir la contenir ne s’apparente pas à une mise sous tutelle de la politique sous la contrainte comptable.

Il y a pourtant trois raisons essentielles qui invitent à s’inquiéter du déséquilibre persistant des finances publiques :

  • La première d’entre elles, c’est le risque d’emballement de la dette qui finirait par la rendre insoutenable et qui entraînerait notre pays vers la faillite. Ce scénario, qui n’est aujourd’hui pas le plus probable étant donnée la notation de la dette française, pourrait être causé par une forte remontée des taux d’intérêts qui viendrait augmenter le service de la dette, par une incapacité politique à réduire les dépenses publiques, par l’impossibilité d’augmenter les recettes de l’Etat ou par une combinaison des trois. Laisser déraper les finances publiques, c’est augmenter ce risque dont les répercussions économiques, sociales et politiques seraient absolument catastrophiques.
  • La deuxième raison c’est la volonté de retrouver des marges de manœuvre budgétaires, synonymes de marges de manœuvre politiques. En effet, se soustraire à la contrainte d’équilibre des finances publiques, comme cela a été le cas en France depuis 35 ans, ce n’est pas faire disparaître la contrainte financière, c’est la déplacer : sur les générations futures qui ne peuvent pas s’exprimer à travers la volonté générale du moment mais aussi à plus court terme par une limitation croissante des marges de manœuvre budgétaire de l’Etat en raison de charges d’intérêt de la dette publique croissantes (bientôt le premier poste de dépenses publiques). Aujourd’hui, la charge de la dette représente autant que ce que rapporte l’impôt sur le revenu, dès 2010 ce poste pourrait représenter un tiers du budget de l’Etat.
  • La troisième raison, certainement la plus essentielle, c’est que la dette publique est le moyen à travers lequel la classe politique et l’opinion publique françaises se mentent à elles-mêmes depuis des années. Prôner l’équilibre des finances publiques ce n’est pas avoir une vision étriquée et comptable de la politique, c’est au contraire lui redonner sa noblesse. En effet, faire de la politique c’est faire des choix, c’est admettre que tout n’est pas possible et que tout ne peut pas être prioritaire. L’équilibre financier d’un Etat est donc la marque d’un peuple et d’une classe politique responsable. L’évolution comparée des déficits publics et de la croissance du PIB montre que le creusement de la dette publique a été un moyen pour la France de maintenir son niveau de dépenses publiques malgré une croissance moindre (plus de 5% avant le premier choc pétrolier de 1974, moins de 2,5% après). Le risque est grand que le même scénario ne se reproduise après la crise actuelle avec une nouvelle baisse de notre croissance structurelle et un maintien des dépenses publiques à un niveau d’avant-crise. Il y a un danger réel d’accoutumance à l’endettement public, un peu à la manière des pays disposant d’abondantes ressources naturelles et qui en deviennent dépendants au point de ne pas diversifier le reste de leur économie.

Ces trois raisons impliquent que l’objectif de diminution de la dette publique est la seule voie responsable pour les années à venir. Il est toutefois difficile d’établir un niveau cible à atteindre : s’agit-il d’un ratio dette/PIB de 60% comme inscrit dans le Pacte de Stabilité et de Croissance ? Plutôt que ce rapport entre un stock et un flux, il semble préférable de considérer le ratio entre les charges d’intérêts de la dette et le budget de l’Etat qui traduit mieux l’oberration des marges de manœuvre budgétaires due à l’endettement. Un objectif raisonnable pourrait être que le service de la dette pèse moins que l’une des principales dépenses d’avenir : le budget de l’Education Nationale. Cet objectif relève plus d’un symbole politique que d’une analyse quantitative sur le niveau de dette optimale.

Cet objectif de diminution de la dette publique étant posé, il convient de présenter un chemin permettant de le respecter. Nous commencerons tout d’abord par énumérer un ensemble de « fausses solutions » souvent présentées comme des recettes miracles pour réduire l’endettement avant de détailler les conditions qui nous semblent nécessaires pour y parvenir.

2. Les fausses solutions pour réduire l’endettement de notre pays

Les pistes évoquées ci-dessous sont souvent considérées comme allant dans le sens d’un meilleur équilibre des finances publiques, toutefois elles sont largement insuffisantes pour ramener le déficit public dans des proportions raisonnables. Il convient donc d’être particulièrement lucide face aux différentes recettes miracles du désendettement.

a) Un retour de la croissance
Comme indiqué précédemment, la croissance structurelle de la France s’établit autour de 2,2% depuis le premier choc pétrolier. En admettant que la crise actuelle n’ait pas d’impact sur ce taux de croissance structurel, ce qui implique une forte croissance dans les années à venir pour compenser les années 2008 à 2010, la Cour des Comptes estime que notre déficit diminuerait jusqu’à se stabiliser à un niveau structurel de 3% du PIB.

Si l’on considère un scénario moins favorable où les pertes de 2008 à 2010 soient irréversibles et où la croissance à partir de 2011 s’établisse à un niveau structurel légèrement plus faible de 1,8%, le déficit structurel de la France serait alors égal à 7,5% du PIB ce qui est très clairement insoutenable.

Postuler que la croissance seule pourra solutionner le problème de la dette, c’est faire le pari d’une croissance dans les années à venir supérieure en moyenne à ce que connaît notre pays depuis le milieu des années 70, ce qu’aucun élément tangible ne vient accréditer aujourd’hui. La croissance doit bien entendu rester un objectif prioritaire de la politique économique, mais un discours de responsabilité sur l’endettement public implique de ne pas se reposer sur d’éventuels « lendemains qui chantent » et de prendre en considération un scénario aujourd’hui très crédible : le maintien d’une croissance structurelle pour notre pays autour de 2%.

b) Un retour de l’inflation
L’inflation est souvent présentée comme un remède miracle pour réduire les dettes des Etats. Il est vrai que par le passé, que ce soit au sortir des guerres de Louis XIV ou plus récemment à la fin de la Seconde Guerre Mondiale, c’est ainsi que l’Etat est parvenu à assainir ses finances. Mais la situation actuelle est différente pour trois raisons essentielles :

• La Banque Centrale Européenne est aujourd’hui indépendante et son mandat, dont la remise en cause exigerait l’unanimité des pays de la zone euro, est de limiter l’inflation à 2%.

• L’inflation ne se décrète pas dans un monde globalisé : avec la mobilité des capitaux, les torrents de liquidités déversées par les Banques Centrales conduisent davantage à créer de nouvelles bulles qu’à générer de l’inflation. Structurellement, les réserves mondiales de main d’œuvre à bas salaire sont un frein important à une inflation significative (sauf si des politiques très protectionnistes étaient menées, ce qui ne me semble pas désirable).

• Quand bien même on assisterait à un retour de l’inflation, il faut savoir que 10% de la dette publique aujourd’hui est indexée sur l’inflation et que 15% de la dette publique est à court terme. Il ne fait aucun doute qu’une forte inflation conduirait à une augmentation des taux exigés pour cette dette à court terme, ce qui limiterait l’impact positif d’une telle évolution pour les finances publiques. Rappelons également que, sauf à ce que l’inflation reste forte sur une très longue période, la période de désinflation, qui succéderait à une période d’inflation, serait douloureuse pour les finances publiques.

Rappelons enfin que l’inflation n’est pas un phénomène neutre, elle est un facteur d’imprévisibilité pour les acteurs économiques et pèse donc sur la croissance structurelle de notre pays.

c) Le non-remplacement d’un fonctionnaire sur deux partant à la retraite
Le non-remplacement d’un fonctionnaire sur deux partant à la retraite est l’élément phare de la Révision Générale des Politiques Publiques menée par l’Etat depuis 2007. Cette évolution est absolument nécessaire à long terme pour revenir à une fonction publique moins pléthorique qui génère d’importantes dépenses de fonctionnement pour l’Etat. Cependant, à court et à moyen terme, cette mesure n’a qu’un impact très limité sur l’équilibre des finances publiques. L’économie souvent avancée est de l’ordre de 500 M€/an. En effet, un fonctionnaire qui part à la retraite continue à être une charge financière pour l’Etat qui doit alors lui verser une pension. De plus, les fonctionnaires sont aujourd’hui recrutés avec un niveau de qualification supérieur à celui que possédaient leurs aînés partant à la retraite, ce qui se traduit par une rémunération supérieure.

Pour se donner un ordre de grandeur, cette mesure de non-remplacement d’un fonctionnaire sur deux partant à la retraite rapporte aujourd’hui 5 fois moins que ne coûte la baisse de la TVA consentie à la restauration. On voit bien, dès lors que ce n’est pas de là que viendront les grandes économies qui viendront rétablir l’équilibre des finances publiques.

    Conclusion
    Il ressort de cet état des lieux rapide que l'endettement est un problème réel pour notre pays, principalement parce qu'il réduit considérablement les marges d'actions politiques des différents gouvernements. Mais il n'y a pas de recette magique pour revenir à l'équilibre des finances publiques, des réformes structurelles qui stabilisent les dépenses publiques sont donc nécessaires, ce sera l'objet du prochain article consacré à ce sujet.

    03 novembre 2009

    La décomposition du paysage politique français


    S’il possède de nombreux défauts, on peut s’accorder assez facilement sur la qualité que possède Nicolas Sarkozy pour faire bouger les lignes politiques. Le Président de la République est un animal politique hors norme, doué d’une véritable intelligence de l’action et du rapport de force. La conséquence de cet activisme stratégique est une véritable recomposition, ou plutôt une décomposition, du paysage politique français dont il convient de brosser les grandes lignes.

    Durant la campagne de 2007, la stratégie de Nicolas Sarkozy était simple, elle passait par le rassemblement de toutes les droites afin d’arriver nettement en tête au premier tour. Ce pari risqué dans un pays dont on disait qu’il se gagnait au centre a eu pour effet d’offrir aux électeurs français un choix politique assez clair : une politique économique plus libérale et un discours fort sur les valeurs, à commencer par le travail et l’autorité. La droite française rejoignait ainsi ses partis frères à l’échelle de l’Europe. Il faut d’ailleurs reconnaître que cet effort de clarification politique n’a pas été réalisé par les principaux adversaires de Nicolas Sarkozy : Ségolène Royal et François Bayrou. Ces derniers sont restés dans une certaine forme d’ambigüité et proposaient, chacun à leur manière, un programme politique aux contours flous.

    Dès son élection, le nouveau Président a commencé à brouiller les lignes en jouant la carte de l’ouverture. Il a réussi à convaincre les frustrés comme Bernard Kouchner ou Jean-Marie Bockel, les compétences chez Jean-Pierre Jouyet ou Martin Hirsch et celui qui se situe dans l’entre-deux de la frustration et de la compétence : Eric Besson. Si Nicolas Sarkozy a pu se permettre cette ouverture, c’est parce qu’il avait suffisamment donné de gages à l’électorat de droite au cours de sa campagne, ce qui s’appelle bétonner ses arrières, une position que n’avait pas réellement connu son prédécesseur Jacques Chirac. L’ouverture, c’est l’acte I de la décomposition du paysage politique français.

    Le deuxième moment important de cette décomposition, c’est la lente dérive (au sens maritime du terme) de François Bayrou vers la gauche. Celui qui aurait peut-être pu être Premier Ministre à l’heure actuelle s’il avait su amorcer ce virage plus tôt, dans l’entre deux tours, à fait évoluer son parti du centre droit au centre gauche. Historiquement, François Bayrou sera certainement considéré comme le grand liquidateur de la démocratie chrétienne en France, il a délibérément choisi de sacrifier ce grand mouvement de pensée sur l’autel de son ambition personnelle et de son ego surdimensionné. Ce repositionnement stratégique a cependant du mal à masquer l’absence totale de pensée politique du Modem : quel est son programme économique ? Quel est son programme social ? Toutes les prises de parole du leader maximo de ce parti étant consacrées au sauvetage de la République en danger.

    L’acte III de la décomposition, c’est la crise économique qui a eu pour effet collatéral d’enterrer définitivement la timide politique économique libérale que le pouvoir essayait de mener jusqu’alors. Place à une politique keynésienne que ne renierait pas le premier social-démocrate venu. Plus qu’une logique keynésienne, c’est une logique guainésienne qui est aujourd’hui à l’œuvre à la tête de l’exécutif (si un débat existe pour savoir si le multiplicateur keynésien est inférieur ou supérieur à 1, il ne fait guère de doute, dans la tête de son auteur, que le multiplicateur gainésien vaut au moins 8 !). Le conseiller spécial de l’Elysée, qui avait été contenu pendant le début de mandat, s’est subitement senti pousser des ailes et s’est réveillé un matin en refondateur du capitalisme. En quelques mois, de façon assez opportuniste, la droite française est devenue presque autant antilibérale que la gauche, ce qui fait de notre pays un cas tout à fait singulier.

    Signe de cette frénésie keynésienne (qui aurait certainement bien fait rire Keynes lui-même) dont s’est emparée la classe politique française dans son ensemble : le débat autour de la relance budgétaire. Dans un premier temps le gouvernement a défendu un plan de relance de 15 milliards axé sur l’investissement face à une opposition qui réclamait 100 milliards principalement ciblés sur la relance du pouvoir d’achat. Dans un second temps, l’exécutif sort l’idée de Grand Emprunt, d’un montant qui pourrait approcher les 100 milliards et c’est l’opposition qui crie (avec raison) au dérapage incontrôlé de la dette publique. Le débat économique a ainsi perdu toute rationalité, il n’existe plus de point de repère.

    Le dernier moment en date de cette décomposition/recomposition est venu des dernières élections européennes avec l’émergence des écologistes comme concurrents sérieux du Parti Socialiste au sein de l’opposition et l’effondrement du parti de François Bayrou. Tirant les leçons de ce scrutin, Nicolas Sarkozy a décidé d’accentuer le mouvement de rapprochement de la droite vers les thèses écologistes, ce qui s’est matérialisé par la taxe carbone. L’occasion pour lui aussi de remettre en cause de dogme de la croissance économique avec les conclusions de la commission Stiglitz qui recommande de tenir compte plus largement du bien-être de la population.

    Au cours de ces quatre actes, le Parti Socialiste continue sa lente descente aux enfers avec un congrès de Reims désastreux et une incapacité à émettre la moindre idée originale et pertinente. On pourrait se consoler en se disant qu’une nouvelle génération finira par émerger, sauf que les quadras du PS sont plus médiocres encore que leurs aînés. Ce qui rassemble Peillon, Valls, Hamon, Montebourg et Moscovici c’est leur ambition personnelle démesurée, leur opportunisme qui les fait changer d’écurie à chaque congrès et leur absence de vision politique.

    Au terme de ce rapide tour d’horizon, le paysage politique français apparaît comme un véritable champ de ruine : une droite qui n’a aucun cap, qui cherche au même moment à chasser sur les terres de l’extrême-droite, du centre gauche et des écologistes, deux personnalités qui n’ont rien d’autre à offrir que leur ego : François Bayrou et Dominique de Villepin, un PS en miette, en proie à la guerre civile, des écologistes qui ne sont pas à la hauteur de leur tâche historique et une gauche de la gauche qui joue le scénario du pourrissement à la Die Linke.

    Ce résultat n’est pas à mettre seulement sur le compte de quelques événements isolés comme j’ai pu le faire dans cet article : des mouvements de fond sont à l’œuvre pour brouiller et déstructurer le spectre politique français. Le premier, c’est le pragmatisme, personnalisé par Martin Hirsch et appuyé par de nombreux économistes (principalement des économètres) qui, en cherchant à désidéologiser la politique, finit par la dépolitiser. Pourtant, on ne dira jamais assez que la politique, fût-elle économique, n’est pas une question (uniquement) technique : la définition de ce qui est optimal résulte d’un choix politique pas d’une analyse technico-économique. Le second, c’est l’arrogance moderne qui ne se sent aucune attache vis-à-vis du passé dont elle entend faire table rase. Les partis politiques et leur leader se sentent ainsi libre de tous les mouvements, pourvu que la stratégie électorale le justifie. Les hommes politiques contemporains semblent oublier que les traditions politiques qu’ils sont censés incarner sont plus importantes qu’eux, que ce sont elles qui font l’histoire d’un pays et qu’elles ne doivent pas être pensées comme des tremplins commodes pour satisfaire une ambition personnelle.

    La restructuration du paysage politique, essentielle pour la vie démocratique de notre pays, ne se fera qu’à travers l’humilité. Humilité du positivisme économique qui n’a pas à s’ériger au-dessus des choix politiques sous couvert de pragmatisme. Humilité de la classe politique vis-à-vis des traditions intellectuelle dont elle est le fruit.

    22 octobre 2009

    Quelle écologie ?


    Longtemps, j’ai considéré l’écologie comme quelque chose d’assez accessoire défendu par des militants plus ou moins loufoques. Etre écologiste, cela signifiait pour moi adopter un mode de vie en marge de la grande masse des consommateurs occidentaux, c’est-à-dire la quête d’une certaine originalité. Bien que cette vision me semble s’appliquer à de nombreux écologistes auto-proclamés, à Saint-Germain-des-Près ou ailleurs, la lecture d’un économiste trop méconnu, Nicholas Georgescu-Roegen (noté NGR dans la suite de cet article), m’a fait toucher du doigt que l’écologie était en fait un sujet tout à fait majeur et sérieux, à condition de l’aborder par le bon bout. Son livre principal, La Décroissance (disponible ici), pose les bases de sa réflexion sur l’écologie. Trente années après sa parution, les problématiques de réchauffement climatique et d’épuisement des ressources naturelles démontrent la pertinence de cet ouvrage original. Ces enjeux planétaires me donnent la curieuse impression que l’écologie est un sujet beaucoup plus sérieux que les écologistes traditionnels ne l’avaient pressenti jusqu’ici. Cet article tente de poser quelques bases d’une « écologie sérieuse ».

    1. La notion d’entropie en économie

    Pour NGR, l’erreur majeure de l’économie « orthodoxe », qui englobe pour lui les écoles keynésienne, néo-classique ou encore marxiste, est de considérer l’économie sous l’angle de la mécanique (« la mécanique de l’utilité et de l’intérêt individuel » selon Jevons), au sens de lois symétriques et réversibles. Dans cette vision, rien ne disparaît jamais, il n’y a que des flux matériels qui s’équilibrent en valeur. La matière et l’énergie ne sont jamais créés, ils sont simplement transformés ce qui semble suffire à générer de l’utilité pour les individus. L’exemple le plus simple c’est celui du champ qui fournit une récolte dont on peut prélever une partie pour planter l’année suivante, et ainsi de suite. A rebours des autres écoles, NGR propose une analogie de l’économie avec la thermodynamique et non avec la mécanique. Pour lui, le processus économique se traduit précisément par son irréversibilité et par la destruction des ressources, nécessaire pour générer de l’utilité (ou de la joie de vivre pour reprendre ses propres termes). Il y a donc bien quelque chose qui est irrémédiablement perdu dans le processus économique.

    Ce quelque chose, c’est la basse entropie, c’est-à-dire la matière ordonnée ou l’énergie utilisable. En thermodynamique, l’entropie est une fonction d’état qui décrit l’état de désordre d’un système. Par exemple, il y a plus d’entropie dans un minerai de cuivre que dans une plaque de cuivre réalisée à partir de ce minerai ou il y a plus d’entropie dans une baignoire d’eau tiède que dans une casserole d’eau bouillante. En effet, dans le premier exemple, le cuivre est mieux rangé ou ordonné dans une plaque que dispersé dans le minerai et dans le second, l’énergie thermique est plus utilisable dans la casserole (on peut y faire cuire un œuf par exemple) que diluée dans la baignoire. Le premier principe de la thermodynamique dit la même chose que la mécanique, à savoir que l’énergie ou la matière sont forcément conservés au cours d’une évolution physique. C’est le second principe qui distingue la thermodynamique de la mécanique, puisqu’il pose qu’un système fermé, c’est-à-dire un système qui n’échange ni matière ni énergie avec l’extérieur, voit son entropie (ou son désordre) augmenter.

    Si on applique cette loi à l’exemple du minerai de cuivre, on est tout d’abord sceptique puisque l’entropie du cuivre diminue au cours du raffinage du minerai. Mais pour effectuer ce raffinage et fabriquer des plaques de cuivre, de l’énergie doit être apportée de l’extérieur. La « loi de l’entropie » nous dit que la diminution d’entropie dans le minerai de cuivre au cours du processus est inférieure à l’augmentation d’entropie dans la source d’énergie (charbon par exemple) qui a été dégradée pour permettre le processus. Le système fermé minerai+charbon voit donc son entropie augmenter. Il en va de même pour le recyclage des déchets : d’un côté on diminue l’entropie du système puisque l’on transforme des déchets en matières valorisables mais de l’autre on a besoin de dégrader de l’énergie pour réaliser ce processus.

    La vie biologique n’échappe pas à la loi de l’entropie : chaque être vivant doit lutter pour maintenir constant son niveau d’entropie afin de ne pas être peu à peu dégradé. Pour cela, il doit utiliser de la basse entropie présente dans son environnement, principalement de la nourriture. Malgré cela, aucun être vivant n’arrive à combattre efficacement la lente dégradation entropique qu’est le vieillissement et qui conduit, tôt ou tard à la mort de l’organisme. A titre d’exemple, un être humain a besoin, pour maintenir constante son entropie, de dégrader 100 W de puissance utile, sous forme de nourriture, en puissance thermique. D’un point de vue thermodynamique, un être humain est donc assimilable à une ampoule forte consommation.

    La vie économique n’est qu’une extension de cette vie biologique : l’objectif n’est plus de maintenir constant son niveau d’entropie mais de dégrader encore plus de basse entropie pour générer de l’utilité/joie de vivre/bien-être. En tant qu’être économique, un humain a aujourd’hui besoin en moyenne de 1000W de puissance énergétique, 10 fois plus que ne l’exige sa survie biologique. Même si l’on sait que l’origine de la valeur économique est essentiellement subjective depuis Menger, Walras et Jevons, le concept d’entropie vient redonner une composante objective à cette notion. On peut dire que le point commun à toutes les activités qui créent de la valeur c’est la transformation de ressources peu ou pas utilisables en quelque chose d’utilisable, c’est-à-dire une baisse d’entropie. Une plaque de cuivre a plus de valeur que du minerai de cuivre parce qu’elle possède une plus faible entropie, en revanche, impossible de dire à ce stade si ce surcroît de valeur ainsi obtenu compense le coût du raffinage du minerai et de la fabrication de la plaque de cuivre. Créer de la valeur, c’est ordonner le monde qui nous entoure. Pour cela, des ressources naturelles, notamment énergétiques sont nécessaires, c’est ce qui amenait l’économiste français du XIXème Frédéric Bastiat à considérer le développement économique comme le transfert d’utilité payante (issue du travail) en utilité gratuite (issue de la nature).

    La rareté, concept de base de l’économie, c’est donc la basse entropie, si le monde respectait les lois de la mécanique plutôt que celles de la thermodynamique, il n’y aurait pas de dégradation entropique et donc pas de rareté, nous vivrions dans l’abondance. Pour le dire autrement, la loi de l’entropie, c’est la base théorique de la loi fondamentale de toute l’économie (peut-être la seule qui reste toujours vraie) : « there is no free lunch », que j’aime traduire par l’expression populaire bien connue « on ne peut pas avoir le beurre et l’argent du beurre ».

    2. Les ressources : la question fondamentale de l’énergie

    La loi de l’entropie explique à elle seule pourquoi l’énergie est si importante pour le développement économique. En effet, puisque l’entropie d’un système fermé ne peut qu’augmenter et que la valeur économique réside dans la basse entropie, la seule échappatoire consiste à dégrader plus d’énergie que l’on ne créé de basse entropie. Le moteur de l’économie, c’est donc la consommation énergétique. Se demander si le développement économique est durable, cela revient donc à se demander si les sources énergétiques sont durables, ou, pour reprendre un terme en vogue, renouvelables.

    A proprement parler, aucune source d’énergie n’est totalement renouvelable en raison du second principe de la thermodynamique : l’univers tend vers un état d’entropie maximale ou il n’y aura plus d’énergie utilisable. Ces considérations n’ont pas vraiment de sens pour ce qui touche à l’humanité, qui aura disparu depuis bien longtemps. On peut donc considérer qu’une énergie renouvelable est une énergie dont la source a une durée de vie supérieure à celle de l’humanité. Ainsi, l’énergie solaire et tous ses dérivés (énergie éolienne, énergie hydraulique) doivent être considérés comme renouvelables. Il en va de même de l’énergie marémotrice ou de la géothermie. Mais ce qui caractérise principalement ces ressources énergétiques, et qui est trop rarement souligné, c’est qu’elles sont fatales, c’est-à-dire qu’elles sont produites que nous les utilisions ou pas.

    Si la vie a pu apparaître sur Terre, c’est parce qu’il ne s’agit pas d’un système fermé du fait de l’énergie solaire. Cet apport extérieur permet la photosynthèse, le cycle de l’eau, les courants, les vents… Jusqu’avant la révolution industrielle, on peut considérer que cette ressource énergétique suffisait à l’humanité et donc que le mode de développement était soutenable.

    On peut se demander si l’utilisation de ressources fossiles (charbon, pétrole, gaz, uranium…) qui caractérise le monde industriel nous conduit inexorablement vers l’impasse. A priori, il est difficile de donner une réponse, tout dépend des échelles de temps en jeu. Le charbon, le pétrole et le gaz ne semblent pas présents en assez grande quantité pour subvenir aux besoins de l’humanité sur de longues échelles de temps. Il en va de même pour ce qui concerne l’Uranium 235 qui est utilisé dans les réacteurs nucléaires actuels et qui ne représente que 0,7% de l’Uranium naturel. Toutes ces sources d’énergie risquent d’être épuisées d’ici un à deux siècles.

    Il n’en va pas de même de l’Uranium 238 et du Deutérium (isotope de l’hydrogène), qui permettent d’alimenter respectivement les réacteurs à fission dits de 4ème génération et les réacteurs à fusion. La durée de vie de ces ressources est plutôt de l’ordre du millier, du million voire de la centaine de millions d’années, ce qui peut les placer dans la catégorie des ressources durables (à défaut d’être totalement renouvelables). En revanche, la principale caractéristique de ces ressources fossiles est qu’elles ne sont pas fatales, c’est-à-dire qu’elles ne s’épuisent que lorsque nous décidons de les utiliser. Cela a pour effet de les rendre plus pratiques à utiliser mais nourrit également l’idée d’un stock qui diminue peu à peu, contrairement à l’énergie solaire qui se caractérise avant tout par un flux. Il est également fort probable que d’autres sources d’énergie soient découvertes dans l’avenir, même si l’on sent bien qu’avec la fusion nucléaire, on aboutit à une forme d’optimum, puisqu’il s’agit de l’énergie utilisée par les étoiles.

    Si l’on s’intéresse maintenant aux ressources non-énergétiques (métaux, phosphates,…) la question de la durabilité devient plus critique car la Terre est un système quasi-clos, c’est-à-dire qu’elle n’échange presque pas de matière avec l’extérieur, à l’exception des météorites. D’un autre côté, ces ressources, ou plutôt les atomes qui les composent, ne disparaissent pas : le stock de cuivre sur Terre peut être considéré comme constant. Mais est-ce encore le cas si l’on considère le stock de cuivre réellement utilisable ? Pour être économiquement intéressant, un minerai de cuivre doit en effet être suffisamment ordonné, c’est-à-dire avoir une teneur suffisamment importante (ce qui est le résultat indirect de l’énergie solaire et de l’énergie sismique). En raison des pertes irrémédiables propres à l’activité économique, il semble donc que le stock de ressources non-énergétiques utilisables décroisse petit à petit. Bien entendu, il serait théoriquement possible d’utiliser une énergie renouvelable pour alimenter des processus de recyclage, mais les ressources et le temps nécessaires exploseraient à mesure que le taux de recyclage s’approcherait de 100%. Un recyclage complet des ressources minières est donc une vue de l’esprit, reste à voir, au cas par cas, quelles sont les échelles de temps pour l’épuisement de ces ressources.

    Il y a donc des ressources périssables ou épuisables, qu’elles soient énergétiques (charbon, pétrole, gaz, U-235) ou pas (métaux, phosphates…). Ces ressources constituent un capital qui s’épuise petit à petit, il s’agit donc de se demander comment optimiser l’utilisation de ces ressources. Pour répondre à cette question de manière théorique, il faut introduire un autre capital : le capital intellectuel de l’humanité. En effet, le développement économique permet également le développement de la recherche et des techniques, ce qui permet à l’humanité d’utiliser de nouvelles ressources grâce à la maîtrise de nouvelles technologies. En consommant dès aujourd’hui le pétrole, nous en léguons moins aux générations futures, mais nous leur transmettons un capital humain supérieur qui leur permettra éventuellement d’utiliser l’énergie solaire ou la fusion nucléaire. Il n’est donc pas forcément de mauvaise politique, en matière de développement durable, de consommer des ressources épuisables. Bien entendu, le jeu est risqué, ce qui implique un effort de recherche substantiel et suffisamment anticipé.

    3. Protection de l’environnement : la tension entre le local et le global

    La bonne utilisation des ressources, et en particulier l’efficacité énergétique et exergétique, plaide pour une certaine centralisation des activités économiques, qu’il s’agisse de la production d’électricité ou de chaleur, l’organisation des zones d’habitation ou le caractère intensif des cultures agricoles. En plus d’un meilleur rendement thermodynamique, cette centralisation permet, jusqu’à un certain point, des économies d’échelle qui viennent réduire le coût économique. Il vaut mieux avoir une éolienne de 3 MW que 30 éoliennes de 100 kW, une centrale nucléaire de 1000 MW que dix petites centrales de 100 MW, une ville bien organisée et suffisamment dense plutôt qu’un étalement urbain qui rend difficile l’installation de transports en commun, un champ avec des hauts rendements grâce aux engrais et aux pesticides plutôt que plusieurs champs avec des techniques plus naturelles et des rendements plus faibles. L’exemple le plus caricatural est donné par NGR lui-même : il vaut mieux construire un barrage plutôt que de chercher à récupérer l’énergie cinétique de chacune des gouttes de pluie qui tombent dans une certaine zone.

    Cette vision qui fait la part belle au rendement et à l’efficacité masque pourtant une partie de la réalité. En effet, l’environnement est quelque chose de fragile à la fois globalement et localement. La gestion optimale des ressources est un problème global dès lors que celles-ci sont transportables sur des échelles assez grandes. Le climat est également un problème global par excellence, mais il n’en va pas de même de bon nombre de pollutions (ou de l’accumulation de déchets) qui fragilisent l’environnement au niveau local. Une grande éolienne se voit plus que plusieurs petites, une grande centrale nucléaire perturbe plus un cours d’eau qui lui sert de refroidissement que plusieurs petites, une grande ville génère un niveau élevé de pollution et de déchets au niveau local, enfin, l’agriculture intensive fragilise davantage les terres que l’agriculture biologique. Il existe une véritable tension écologique entre le local et le global, tant et si bien que sur tous ces sujets, ce sont souvent des écologistes entre eux qui s’affrontent.

    Historiquement, le mouvement écologiste s’est principalement formé sur la problématique de la pollution locale, avec une forte composante anti-nucléaire et un mot d’ordre « Small is beautiful ». La globalisation des questions écologiques (climat, ressources) fragilise cette vision et la met parfois en porte-à-faux. Pour l’instant, le mouvement écologique parvient à mettre de côté ces problèmes pour présenter une unité de façade, mais tôt ou tard, deux visions finiront par s’opposer. D’un côté une écologie de type individualiste (Not In My BackYard), « small is beautiful », agriculture bio et vie à la campagne et de l’autre une écologie qui entend changer les comportements collectifs, qui s’intéresse principalement aux enjeux mondiaux, ce qui conduit à promouvoir les énergies renouvelables et le nucléaire, les villes écologiques et les haut rendements dans l’agriculture (« big is efficient » ?). Telle devrait être en tous cas le partage logique de ce qu’on appelle aujourd’hui les écologistes.

    4. Ecologie et externalités

    La vision de l’écologie présentée au cours de cet article s’appuie sur l’analyse fortement hétérodoxe de NGR, pourtant, un outil des théories économiques orthodoxes doit absolument être évoqué : celui d’externalité. Ce concept s’applique particulièrement bien aux problèmes de pollution, locale ou globale. Lors d’un échange économique, une pollution peut être créée ce qui peut avoir un impact sur un ou plusieurs tiers (parfois il s’agit de l’humanité toute entière, comme dans le cas du CO2) : faire payer cette externalité négative aux agents économiques qui réalisent l’échange (producteur ou consommateur), c’est une manière de perfectionner le marché en intégrant tous les coûts, y compris celui de la nuisance environnementale, dans le prix de l’échange.

    La résorption de cette externalité nécessite un cadre politique et légal adapté, elle est donc d’autant plus facile que la pollution est locale. Contrairement aux Etats, la communauté internationale n’a pas de pouvoir contraignant, la lutte contre des pollutions globales de type CO2 nécessite donc un vaste accord international difficile à mettre sur pied. Concrètement, deux grande voies existent pour limiter ce type d’externalité : le signal prix (que ce soit à travers une taxe directe ou des quotas mis aux enchères) et la réglementation (consommation thermique des bâtiments, émissions des voitures…). Le signal prix a pour objectif de mobiliser tous les acteurs économiques afin qu’ils trouvent par eux-mêmes des solutions adéquates et innovantes tandis que la réglementation doit viser les principales causes de la pollution (en nombre limité), celles sur lesquelles l’action de l’Etat est la plus efficace.

    Il est en revanche plus complexe d’appliquer le concept d’externalité à la question des ressources. En effet, comme exposé précédemment, on se trouve en face d’une externalité négative, l’épuisement de certaines ressources, mais aussi d’une externalité positive, une augmentation potentielle de capital humain. Il est donc difficile de savoir s’il faut taxer l’usage de ressources naturelles et si oui, à quel niveau. En ce qui concerne les hydrocarbures, ce problème est en partie solutionné par le fait que ces ressources émettent du CO2 quand on les brûle et qu’elles tombent donc sous le coup d’une externalité de type pollution. La question est plus complexe sur d’autres types de ressources comme les métaux rares. La notion d’externalité ne suffit donc pas à appréhender l’ensemble des thématiques écologiques.

    Conclusion

    L’enseignement principal que je retire de la lecture de NGR, c’est que la bonne analogie pour l’économie doit être fait avec la thermodynamique et non avec la mécanique. L’erreur mécaniste vient probablement du fait que la plupart des concepts économiques ont été forgés en référence à l’agriculture, qui semble être une activité parfaitement cyclique sans irréversibilités majeures. Mais c’est oublier le flux d’énergie solaire qui fait de la Terre un système ouvert, système qui peut donc maintenir son niveau de basse entropie (par l’intermédiaire de la photosynthèse).

    La question essentielle de l’écologie aujourd’hui, c’est « Peut-on dématérialiser la croissance ? », c’est-à-dire peut-on éloigner petit à petit le processus économique de ses racines matérielles (ressources naturelles, pollution…). NGR montre que le processus économique se traduit principalement par le niveau de basse entropie disponible, ce qui implique la consommation de ressources énergétiques et matérielles, dont une partie au moins est irréversiblement perdue. C’est ce qui le conduit à opter pour le chemin de la décroissance.

    Il me semble qu’on peut adhérer à l’analyse de NGR sans le rejoindre dans cette conclusion. Plutôt que la dématérialisation de l’économie, il s’agit aujourd’hui de s’intéresser à sa décarbonisation, à la fois en raison des émissions de CO2 qu’en raison de l’épuisement des hydrocarbures. Les énergies renouvelables et les futures technologies nucléaires (4ème génération ou fusion) sont des alternatives durables pour procurer à l’humanité l’énergie dont elle aura besoin dans les siècles à venir. Il s’agit également d’être vigilant sur d’autres ressources épuisables non-énergétiques, comme le cuivre ou le lithium.

    Une voie me semble donc empruntable entre la naïveté mécaniste de l’économie orthodoxe et le pessimisme de la décroissance. Une voie dans laquelle les deux priorités sont la lutte contre les externalités dues à la pollution (au niveau global avec le CO2 comme au niveau local) et l’utilisation intelligente des ressources épuisables afin de transmettre aux générations suivantes un capital humain suffisant pour développer des solutions véritablement durables.

    04 octobre 2009

    Le "PIB réel" existe-t-il ?

    Cet article reprend certaine idées développées dans un précédent article "La croissance économique existe-t-elle ?", que la remise récente du rapport Stiglitz-Sen-Fitoussi invite à réexaminer.

    Le PIB et surtout la croissance du PIB sont des notions tellement utilisées en politique économique qu'elles semblent être des quantités objectives non ambigues. Quand le PIB est attaqué, c'est principalement parce qu'il ne tient correctement compte que de la production marchande ou parce que ce niveau de production qu'il mesure ne dit rien sur le bien-être de la société. Ces critiques sont fondées et font l'objet du récent rapport Stiglitz-Sen-Fitoussi sur la mesure des performances économiques et du progrès social (disponible ici). Mais avant de se demander si l'usage qui est fait du PIB par les responsables politiques et économiques est pertinent, il convient de s'interroger sur l'existence même du concept de PIB.

    Le problème du PIB, c'est qu'il agrège des quantités tout à fait différentes : des kWh d'électricité, des tonnes de carottes, des heures de classe dispensées par un professeur... Pour pouvoir agréger ces différentes grandeurs, on a recours, dans la sphère marchande, aux prix. En effet, si une carotte se vend deux fois plus cher qu'une tomate, alors il est légitime de pondérer deux fois plus la production de carottes que celle de tomates dans le calcul du PIB. Plus généralement, dans une économie à n biens produits en quantités X1, X2, ... Xn aux prix P1, P2, ... Pn, le PIB nominal s'exprime de la manière suivante : PIB=P1*X1+...+Pn*Xn. Le problème de ce PIB nominal, c'est qu'il considère que les prix absolus ont une existence propre, alors que seuls les prix relatifs en ont une. En effet, si l'on doublait la quantité de monnaie et que tous les prix étaient instantanément multipliés par deux, le PIB nominal serait également multiplié par deux alors que la production de chaque bien resterait inchangée. On sent bien qu'il faut corriger ce PIB nominal pour aboutir à un PIB réel.

    L'énoncé du problème

    Pour simplifier, nous considérons une économie à 2 biens : a et b, produits sur deux périodes de temps 1 et 2. La première année, 5 quantités de a et 4 quantités de b sont produits aux prix unitaires respectifs de 8€ et 6€. La deuxième année, 6 quantités de a et 3 quantités de b sont produits aux prix unitaires respectifs de 6€ et 8€. La question à se poser est simple : y'a-t-il eu augmentation du PIB réel entre l'année 1 et l'année 2 ?

    La réponse de la comptabilité nationale

    Pour calculer le PIB réel, la comptabilité nationale (l'INSEE) utilise comme convention de figer les prix en année 2 à leur valeur de l'année 1, afin de tenir compte de l'inflation. Si l'on applique cette règle à notre exemple, la variation du PIB entre 1 et 2 vaut : 8*(6-5)+6*(3-4)=2. Le PIB réel a donc augmenté entre les deux années.

    La réponse en figeant les prix de l'année 1 à leur valeur de l'année 2

    La convention de l'INSEE semble naturelle pour corriger le PIB nominal des effets de l'inflation, elle n'en demeure pas moins arbitraire. Pour s'en convaincre, on peut adopter une convention parfaitement symétrique. Au lieu de figer en 2 les prix à leur valeur en 1, on peut figer en 1 les prix à leur valeur en 2. Dans ce cas, la variation du PIB entre 1 et 2 vaut : 6*(6-5)+8*(3-4)=-2 ! Cette fois, le PIB réel a diminué entre les deux années. Une convention parfaitement symétrique, tout aussi légitime que celle de l'INSEE donne donc un résultat complétement opposé.

    La réponse en ramenant tout au bien a

    Une autre possiblité consiste à ne considérer que des rapports de prix et non des prix en valeur absolue. On peut par exemple tout ramener au bien a en lui assignant un prix de 1 à chaque période. Dans ce cas, le prix de b vaut 6/8 en période 1 et 8/6 en période 2. La variation du PIB entre 1 et 2 vaut donc : 1*6+8/6*3-(1*5+6/8*4)=2. Le PIB réel calculé en unités de bien a a donc augmenté entre les deux années.

    La réponse en ramenant tout au bien b

    Considérons maintenant que c'est le bien b qui est l'étalon de mesure, c'est-à-dire que son prix est fixé à 1 pour chaque période. Dans ce cas, le bien a vaut 8/6 en période 1 et 6/8 en période 2. La variation du PIB entre 1 et 2 vaut donc : 6/8*6+1*3-(8/6*5+1*4)=-19/6. Donc le PIB réel calculé en unités de bien b a reculé entre les deux années, ce qui est la conclusion inverse du calcul précédent !

    Conclusion

    Que dire au terme de cet exemple ? Le PIB réel a-t-il augmenté ou diminué ? En réalité, il n'y a pas de réponse à cette question, cela dépend essentiellement de la convention retenue. Le PIB réel est en fait une notion intrinséquement ambigue, qui n'a pas d'existence objective propre. Mesurer le PIB, c'est donc avant tout mesurer les conventions qui nous permettent de le calculer. La raison fondamentale à cela est que les seules quantités réelles de l'économie sont les quantités de biens et de services et les prix relatifs, et qu'aucune combinaison des deux ne permet de construire une grandeur extensive de la production. Une autre manière de voir, plus philosophique, c'est qu'on ne peut pas mesurer l'Univers (la production de tous les biens et services étant un peu l'Univers de l'économie) quand on se situe à l'intérieur même de cet Univers, qu'il y a un problème de jauge ou d'étalon absolument indépassable.

    Ajoutons que le cas étudié ici était volontairement simpliste, puisque les biens considérés entre les deux années étaient rigoureusement identiques. Il suffit de réaliser qu'en réalité certains biens apparaissent, que d'autres disparaissent et que certains évoluent en termes de qualité (passage du rasoir 1 lame au rasoir 4 lames) pour se convaincre que la notion de PIB appliquée à l'économie réelle pose un énorme problème conceptuel.

    Si vous avez des réponses à apporter à ces problèmes quasi-existentiels, n'hésitez pas à faire part de vos commentaires.

    23 septembre 2009

    Pouvoir(s) de marché


    En économie, on appelle pouvoir de marché l’influence excessive qu’un acteur économique peut acquérir en raison de sa taille. Un monopole qui contrôle 50% d’un marché a par exemple beaucoup plus d’influence sur le prix du bien qu’il vend que l’ensemble des entreprises morcelées qui contrôlent les autres 50%. En réalité, on peut étendre cette définition du pouvoir de marché à tous les domaines de l’action humaine (politique, art, spectacle, sciences…). Il s’agit de distinguer clairement le poids réel d’un individu ou d’une organisation dans un de ces domaines avec son influence.

    Pour donner un ordre d’idées, le poids réel d’un écrivain pourrait être le nombre de livres qu’il vend tandis que son influence s’apprécierait plutôt en fonction de ses passages dans les émissions littéraires ou la place qu’il occupe dans les conversations entre amis. Pour un parti politique, le poids réel correspond naturellement à son score électoral tandis que son influence sur le pays dépend avant tout de sa capacité à gouverner ou à influer sur les débats publics. Pour un scientifique enfin, le poids réel semble plus difficile à apprécier puisqu’il s’agit de mesurer son apport à la connaissance, dont le nombre d’articles qu’il publie ne donne qu’une vague idée. Son influence, en revanche, peut être plus facilement évaluée en fonction des citations dont il fait l’objet par d’autres scientifiques.

    Parler de pouvoir de marché, dans chacun de ces domaines de l’activité humaine, cela revient à dire que l’influence n’est pas proportionnelle au poids réel, mais qu’elle augmente plus rapidement. Mathématiquement, on dirait qu’il s’agit d’une fonction concave, mais il faut se méfier des analogies entre mathématiques et sciences humaines ou sociales : considérer influence et poids réel comme des fonctions peut être utile mais c’est forcément réducteur. L’action humaine ne se laisse pas facilement enfermer dans des définitions mathématiques, c’est pourquoi un raisonnement qualitatif s’impose.

    Ce qu’il fait le danger du pouvoir de marché, c’est qu’il peut s’emballer : l’influence grandissante peut entraîner une augmentation du poids réel, qui générera à son tour une influence encore plus forte. Pour être pédant, on peut parler de rétroaction positive. Ainsi, le risque est grand de voir les personnes ou les organisations qui exercent un pouvoir de marché l’accroître continument, à l’instar des riches qui deviennent de plus en plus riche.

    Cette dynamique propre au pouvoir de marché peut être vue de manières complètement différentes. La manière négative de voir les choses, c’est qu’on aboutit à une concentration : peu d’acteurs finissent par détenir le pouvoir (économique, culturel, artistique…). De façon plus positive, on peut voir cette dynamique comme un moyen de structurer les différents domaines de l’action humaine. En effet, pour être appréhendée par les individus, la réalité sociale a besoin d’être saisissable, intelligible et donc relativement simple. Tant et si bien qu’on peut se demander s’il y a vie sociale possible sans pouvoir de marché.

    Car une société, c’est un ensemble d’individus qui ont des repères en commun. Ces repères peuvent être une culture littéraire commune, un nombre limité de classique qu’on les a obligé à lire quand ils étaient à l’école ; ce peut-être un nombre limité de partis politiques qui permettent de se ranger grossièrement dans un camp ; ce peut-être un nombre limité de chaînes de télévision qui font que les gens peuvent discuter des mêmes programmes qu’ils ont vu la veille au soir ; ce peut-être un nombre limité d’entreprises qui se partagent un marché et que l’on retrouve dans chacune des villes où l’on se rend.

    Pour un prendre un exemple précis, j’ai toujours pensé qu’indépendamment de leur qualité intrinsèque, les « grandes messes » que constituent (ou constituaient) les journaux télévisés de 20h de TF1 et de France 2 étaient une bonne chose du point de vue de la cohésion de la société française. Ces rendez-vous, suivis par des millions de gens chaque soir donnent une unité aux conversations entre collègues, entre amis ou au sein de la famille qui donnent le sentiment d’appartenir à un même ensemble, à une même communauté.

    Contrairement à ce qu’affirme un certain libéralisme, qui voit la société comme un amas d’individus atomisés, la question du pouvoir de marché n’est donc pas celle d’un mal absolu à combattre, elle est celle d’un équilibre à trouver entre concentration et structuration des différents domaines de la vie sociale. Là où le libéral doit être vigilant en revanche, c’est à ce que le pouvoir de marché n’entraîne pas la disparition des petits acteurs qui constituent la diversité des domaines de l’action humaine. Car l’individu n’est pas qu’un être social, c’est aussi un être libre qui doit pouvoir suivre des chemins de traverses, non balisés par la société grégaire. C’est un mouton qui doit avoir le droit de quitter le troupeau de temps à autre pour vivre sa propre vie.

    Il faut donc trouver un système où l’on continue à enseigner une même culture commune à tous les élèves, faite de Balzac-Zola-Hugo, mais où l’on puisse trouver aisément des auteurs plus méconnus chez le libraire du coin. Un système où la vie politique est régie par un nombre limité de parti, donnant par conséquent une image imparfaite de la diversité des points de vue présents dans la société, mais où les courants composants ces partis ou les clubs de réflexions prospèrent et possèdent une grande liberté de ton. Un système où l’on trouve tous les morceaux de viande usuels au supermarché mais où l’on puisse commander des joues de cochon à son boucher-charcutier de quartier.

    Cette conciliation des contraires est nécessaire pour aboutir à une société digne de ce nom, c’est-à-dire à une communauté d’individus libres. La communauté exige la capacité d’initiative et donc d’un certain point de vue le pouvoir de marché. Un peuple composé d’individus atomisés ne peut pas bâtir de grand projet commun : la Révolution Française, c’est d’abord l’histoire d’un pouvoir de marché de Paris sur la France et celui d’un pouvoir de marché des clubs sur Paris. La liberté, quant à elle, exige la capacité de choisir et donc la diversité des offres (politiques, culturelles, économiques…). Cet équilibre entre pouvoir de marché et diversité est fragile avec d’un côté le ravin de la société totalitaire et de l’autre celui de l’hyperindividualisme.

    24 août 2009

    Probabilités et Hypothèses


    Article modifié en raison des ambiguités qu'il pouvait comporter et qui ont fait réagir bon nombre de personnes. Les ajouts figurent en gras.

    Dans La Science et l’Hypothèse, Henri Poincaré écrit cette phrase qui devrait être méditée par tous ceux qui produisent ou reçoivent des prévisions probabilistes : « Pour entreprendre un calcul quelconque de probabilité, et même pour que ce calcul ait un sens, il faut admettre, comme point de départ, une hypothèse ou une convention qui comporte toujours un certain degré d'arbitraire ». En d’autres termes, une probabilité est quelque chose d’éminemment subjectif, qui dépend des hypothèses retenues. Contrairement à ce que croient beaucoup de personnes, tout ce qui est construit à partir des probabilités (pronostic, risque,…) n’est qu’une reformulation de choses que l’on sait ou que l’on croit savoir et absolument pas un moyen de découvrir des choses que l’on ne sait pas.

    Pour le comprendre, prenons un exemple simple : je me rends chez un ami qui a deux enfants mais dont j’ignore s’il s’agit de filles ou de garçons. Je frappe à la porte, une petite fille m’ouvre. Quelle est la probabilité pour que l’autre enfant soit un garçon ? Un premier raisonnement consiste à dire que la seule chose que j’apprends quand j’ouvre la porte, c’est que mon ami n’a pas deux garçons. Parmi les quatre combinaisons équiprobables fille/fille, garçon/fille, fille/garçon et garçon/garçon, il ne reste plus que les trois premières. Par conséquent, ayant observé une fille, il y a deux chances sur trois que l’autre enfant soit un garçon. Ce faisant, on suppose a priori que si mon ami a une fille et un garçon, c'est systématiquement la fille qui va ouvrir la porte, sans quoi il n'y aurait plus équiprobabilité.

    Un deuxième raisonnement consiste à dire qu’il y a autant de chance que ce soit l’aîné qui ouvre la porte que le cadet. S’il s’agit de l’aîné alors les deux combinaisons possibles sont fille/fille et fille/garçon. S’il s’agit du cadet alors les deux combinaisons possibles sont fille/fille et garçon/fille. Dans les deux cas, la probabilité pour que l’autre enfant soit un garçon est 1/2.

    Les deux raisonnements font une hypothèse commune qui est que chaque naissance est un évènement indépendant qui a autant de chance de donner une fille qu’un garçon. Le premier raisonnement fait une hypothèse supplémentaire qui consiste à dire que voir une petite fille ouvrir la porte est strictement équivalent à dire qu’il y a au moins une fille parmi les deux enfants (ou que la fille ouvre systématiquement la porte en cas de configuration fille/garçon ou garçon/fille). Le second raisonnement, quant à lui, postule qu’aîné et cadet ouvrent la porte avec la même probabilité. Ainsi, deux hypothèses a priori différentes donnent des probabilités différentes. On ne peut pas dire que l’une soit vraie et que l’autre soit fausse, d’un point de vue mathématique, l’énoncé du problème est incomplet pour trancher.

    Les choses peuvent être assez subtiles. Par exemple, bon nombre de personnes n’ont pas l’impression de faire appel à une hypothèse supplémentaire dans le premier raisonnement, ce qui les conduit à affirmer que la probabilités EST 1/3 et que ceux qui disent le contraire se trompent, ils n'ont en fait pas conscience qu'en voyant une fille, les quatre configurations initiales ne sont plus équiprobables, sauf à évoquer l'hypothèse forte que les filles ouvrent toujours la porte. L’erreur peut également être faite pour l’autre raisonnement, pour peu qu’on le modifie quelque peu. Supposons que la probabilité pour que l’aîné ouvre la porte ne soit plus 1/2, mais P. Alors il y a P chances pour que la fille que j’observe soit l’aînée, dans lequel cas l’autre enfant est un garçon avec une probabilité 1/2 et il y a 1-P chances pour que la fille que j’observe soit la cadette, dans lequel cas l’autre enfant est un garçon avec une probabilité 1/2 également. En regroupant ces deux cas, la probabilité pour que l’autre enfant soit un garçon vaut P*1/2+(1-P)*1/2, c’est-à-dire 1/2, quelle que soit la valeur de P. On peut donc en conclure que dans tous les cas la probabilité est 1/2 et que ceux qui disent le contraire se trompent. Pourtant, le simple fait de postuler l’existence de cette probabilité P est une hypothèse, ce qui rend le résultat obtenu aussi subjectif que celui issu du premier raisonnement.

    Pour terminer sur cet exemple, si l’on part de l’hypothèse qu’il n’y a aucun moyen de savoir quelle est la façon dont les enfants vont ouvrir les portes chez mon ami, on ne peut pas vraiment trancher. Si l’on suppose un modèle à peu près réaliste de la façon dont les enfants vont ouvrir les portes chez mon ami, on dit 1/2. [les lecteurs intéressés pourront lire les commentaires où une autre hypothèse a priori naturelle donne 1-ln(3)/2 au lieu de 1/2]

    Ce long exemple paraîtra évident pour certains, inutile pour d’autres. Dès lors que l’on y réfléchit un petit peu, on comprend bien que les mathématiques (et donc les probabilités) ne sont que des reformulations d’énoncés en appliquant des règles élémentaires de logique. Un modèle mathématique, par lui-même, n’apporte aucun élément d’information supplémentaire et donc aucun moyen de prédire des choses dont on n’a aucune idée. Pourtant, dans la vie courante et en particulier dans la sphère économique, on a tendance à oublier qu’une probabilité est une fonction déterministe des hypothèses que l’on retient, ce qui fait qu’on les objectivise. Par exemple, on parle des chances et des risques comme s’ils existaient par eux-mêmes : quelle est la probabilité que la France batte la Nouvelle-Zélande en rugby ? Quel est le niveau de risque de tel produit financier ? Pire, dans les sondages on donne des résultats assortis d’une marge d’erreur (de plus ou moins 3% par exemple), oubliant de mentionner que ce calcul de marge d’erreur est également subjectif, qu’il dépend de la validité du modèle utilisé. Mais quelle est la probabilité que le modèle employé soit le bon ?

    Dès lors que l’on traite d’évènements en très grand nombre, une hypothèse semble plus naturelle que les autres, celle qui consiste à dire que la probabilité d’un évènement individuel peut être révélée par des statistiques sur les évènements réalisés. Imaginons que je lance un jeton 1000 fois en l’air, que 700 fois il retombe sur pile et 300 fois sur face, alors une hypothèse raisonnable consiste à dire que ce jeton est vraisemblablement pipé et que la probabilité d’obtenir pile vaut 7/10. Le même genre d’hypothèses peut être fait en sciences physiques, économiques ou sociales. Tous ces modèles consistent toutefois à dire qu’on peut lire l’avenir dans le passé, ce qui est une hypothèse questionnable.

    Nicholas Taleb, dans son livre Le Cygne Noir, fournit un bon contre-exemple à ce raisonnement basé sur le passé. Imaginons une dinde qui est nourrie pendant 1000 jours par ses propriétaires avant d’être mangée pour Thanksgiving. Du point de vue de la dinde, la probabilité de l’évènement « mes propriétaires vont me tuer » ne fait que diminuer au fil des 1000 premiers jours, si bien que c’est au moment où la dinde à le plus confiance en ses maîtres que ceux-ci la tue pour la manger. Dans ce cas, l’observation du passé, loin de rapprocher la dinde de la réalité, l’en éloigne. Dans le même ordre d’idée, Goldman Sachs a du fermer un de ses fonds monétaires en 2008 dont la probabilité de défaut avait été estimée à 1/100^138 avant la crise des subprimes. Accorder le moindre crédit à ce type de probabilité, c’est se comporter de façon plus stupide que la dinde : en effet, comme toute probabilité, celle-ci était basée sur des hypothèses, c’est-à-dire un modèle, et la probabilité que le modèle soit faux est incroyablement plus élevée que 1/10^138.

    Les approches statistiques sont très intéressantes et fiables pour estimer des probabilités d’évènements nombreux et réguliers, elles doivent être regardées avec beaucoup plus de circonspection pour les évènements individuels et irréguliers. Beaucoup des probabilités dont on parle quotidiennement font appel à tellement d’hypothèses que leur valeur explicative est quasiment nulle : demander à un économiste quelle est la probabilité pour que la crise soit terminée d’ici à la fin de l’année, comme le font tous les journalistes, cela revient à peu près au même que de demander son avis à un astrologue pour prédire ses problèmes sentimentaux.

    Le problème avec les probabilités, c’est qu’on les enseigne à travers les jeux de cartes ou les casinos, qui sont en fait les seuls endroits sur Terre où elles peuvent être précisément calculées car les lois y sont précisément connues. A force de ressasser les mêmes hypothèses (les cartes ou les dés ne sont pas pipés, les tirages ou les lancés sont équiprobables), on finit par les oublier et ne plus les écrire. Du coup, les probabilités semblent prendre une réalité propre, objective. Par assimilation, on se dit alors que toutes les probabilités ont une réalité propre, indépendamment des hypothèses qui les fondent.

    Au moment où l’on parle beaucoup de régulation de l’économie et de la finance, une bonne idée, très peu coûteuse, consisterait à offrir le livre d’Henri Poincaré à tous les traders, économistes et hommes politiques. Afin que chacun intègre bien qu'une probabilité n'a de sens qu'à travers un modèle théorique et que la validité de ce modèle théorique est elle-même soumise à l'incertitude.