Si l’urgence commande de consacrer l’essentiel de notre imagination et de nos moyens à vivre la situation actuelle dans les meilleures conditions possibles pour soi et les autres, il n’est, pour Hugues Clepkens, pas trop tôt pour réfléchir aux conséquences de cette crise, à moyen et long termes.
Déjà, les idées fleurissent1 même s’il ne faut pas écouter avec complaisance les docteurs Diafoirus dont les propos ne font qu’accroître la confusion et alimenter les réactions primaires les plus nocives. Le temps viendra vite où l’on pourra et l’on devra tirer des enseignements les plus objectifs possibles pour continuer à avancer dans la moins mauvaise direction et, sans doute, les réflexions et propositions que nous avons déjà présentées dans notre ouvrage « Citoyen !… » trouveront l’occasion d’être échangées, enrichies… sinon appliquées !
Il est évident que l’articulation des systèmes mondiaux, européens, nationaux et locaux a été et demeure défaillante. Que ce soit en matière de santé, de politique ou d’économie, les imperfections sont tellement flagrantes qu’il faudrait être aveugle, ou inconscient, pour ne pas les voir. Il faut notamment travailler à la nécessaire amélioration de l’articulation entre les trois niveaux européen-national-local.
Dans l’immédiat et parce que l’État occupe une place de premier plan dans cette perspective, comme dans l’action présente, il n’est pas non plus inutile de mettre l’accent sur l’un de ses plus pernicieux défauts : la perte de crédibilité de sa parole du fait des erreurs qu’on a commises depuis des lustres.
Or, si l’une des fonctions fondamentales de l’État, depuis plus de deux siècles, est de recueillir, analyser et diffuser les informations propres à permettre l’action publique, force est de constater que la manière dont cette fonction est remplie est loin d’être à l’abri des critiques. Cette défaillance concourt évidemment, au mieux, au développement du doute dans la population, surtout lorsqu’elle est à même de se faire sa propre opinion ; au pire, cela alimente les propos alarmistes.
Toute refonte de la légitimité de la parole publique devrait être précédée d’une remise en cause de pratiques condamnables parce que néfastes à la véracité des informations, donc à la sérénité du débat politique. Pour faire hommage au précieux ouvrage d’Alain Supiot, le titre du présent texte complète le sien par le qualificatif qui, hélas, trouve à s’appliquer dans de nombreux cas dont on trouvera ci-après quelques exemples significatifs.
1/ Tant dans maints textes officiels que dans l’esprit des élus locaux, représentant celui de la population, la référence en matière de mesure de l’évolution de l’inflation s’est peu à peu résumée – à tort – à celle de l’indice des prix à la consommation d’un couple. Rares furent ceux qui osèrent faire remarquer que la structure de cet indice n’avait que bien peu de choses à voir avec celle des coûts subits par les collectivités car, selon la présentation qu’en fait l’INSEE lui-même : « L’indice des prix à la consommation (IPC) est l’instrument de mesure de l’inflation. Il permet d’estimer, entre deux périodes données, la variation moyenne des prix des produits consommés par les ménages. Il est basé sur l’observation d’un panier fixe de biens et services, actualisé chaque année. Chaque produit est pondéré, dans l’indice global, proportionnellement à son poids dans la dépense de consommation des ménages. »
Or, quel ménage « moyen » enregistre des dépenses de personnel à hauteur de la moitié de son budget ? Quel ménage consomme en grande quantité du bitume ou des tuyaux en toutes sortes de matériaux ? La référence à l’IPC apparaît ainsi évidemment erronée ; encore fallait-il le démontrer. C’est ce que fit la ville de Nancy, au début des années 90 en calculant son propre indice, ce qui lui permis de constater que le coût de ses dépenses de fonctionnement progressait « naturellement » de 1 à 2 points plus vite que celui mesuré par l’IPC et donc, que le fait d’aligner l’évolution de ses recettes fiscales sur ce dernier, faisait diminuer mécaniquement sa capacité d’autofinancement. Il fallu encore plusieurs années avant qu’enfin l’Association des maires de France et Dexia, puis la Banque postale, se substituent à l’INSEE défaillant, pour calculer le même type d’indice pour les communes françaises.
Grâce à ce travail effectué sur une longue période, entre 1999 et 2016, l’écart entre les deux mesures de l’inflation, celle supportée par les communes et celle du panier des ménages, s’est révélée être de plus de 0,5 point par an, ce qui, en progression géométrique s’est traduit par un écart de… 20 points sur la même période !
Autrement dit, les collectivités qui s’échinent à calquer la progression de leur budget de fonctionnement sur celle de l’IPC estime la température extérieure en mettant le thermomètre à l’intérieur… Rien d’étonnant à ce qu’elles aient pris froid.
2/ Mais l’INSEE n’a pas limité ses carences au domaine de l’inflation : il en a été de même pour la réforme du recensement de la population. Un sénateur a utilement posé2 le problème créé par celle-ci en des termes très clairs en appelant « l’attention de Mme la ministre de l’Intérieur, de l’Outre-mer et des Collectivités territoriales sur les effets négatifs de la réforme du recensement, issue de la loi n° 2002-276 du 27 février 2002 relative à la démocratie de proximité. En effet, les communes de plus de 10 000 habitants, soumises à un recensement annuel par échantillon de la population, représentant environ 8 % de l’ensemble, peuvent s’en trouver fortement pénalisées dans le calcul de leur dotation globale de fonctionnement. Au bout de cinq ans, l’ensemble du territoire de ces communes aura été pris en compte, et 40 % des habitants recensés. La dotation globale de fonctionnement est calculée sur la base du nombre de logements, définie à travers les recensements de 2004 à 2006. Ainsi, le calcul pour déterminer le nombre d’habitants correspond à une application mathématique, dont le résultat ne reflète pas forcément la réalité de l’évolution de la population. De nombreuses communes souhaiteraient pouvoir rediscuter les éléments pris en compte pour le calcul de leur population. Il lui demande s’il ne serait pas possible de revoir les critères retenus par l’INSEE, afin de procéder à des recensements fidèles à la réalité de la population des communes. »
La réforme en question présentait de telles lacunes, dès son origine, que bien des observateurs avaient alors attiré aussi l’attention du Gouvernement sur ses conséquences néfastes. Certaines villes avaient même évalué l’évolution de leur population à partir de toute une série d’indicateurs très concrets (statistiques de l’état-civil, listes électorales, personnes à charges dans le calcul de la taxe d’habitation, enfants inscrits dans les écoles, volume d’eau potable consommé par la population, nombre de compteurs et quantité d’électricité ayant servi d’assiette à la taxe locale… etc).
Il était apparu évident que les données issues du nouveau recensement n’étaient pas cohérentes avec la tendance issue de toutes ces autres informations ; rien n’y fit et l’INSEE maintint son nouveau calcul… qu’il soit correct ou pas.
3/ Au fil des années, le prix et le délai de construction de l’EPR de Flamanville n’ont pas cessé de déraper au point qu’on ne sait plus trop bien si celui-ci entrera un jour en service et combien il aura coûté. Ce ne sont pourtant pas ces faits patents qui risquent d’être les plus lourds de conséquences.
En effet, dès le début des années 2000, lorsqu’on demandait, en privé, aux ingénieurs chargés de l’opération, sur quelles bases économiques avaient été établies les hypothèses de rentabilité de la centrale (au prix de construction estimé alors à 3,3 milliards d’euros), ils avouaient que l’équilibre serait réalisé dès lors que le prix d’un baril de pétrole atteindrait… 150 dollars, alors qu’il était à peine de 30 dollars, à l’époque. Certes, il a dépassé 100 dollars depuis 2011, mais le coût de l’EPR a, lui, été multiplié par quatre et l’espoir d’atteindre un jour l’équilibre économique de cette opération s’en éloigne d’autant. Ce n’est pas la parole d’EDF qui est ici en cause, mais bien celle de l’État, porteur et soutien du projet depuis l’origine et qui n’expose pas toutes les données utiles et fiables, à la population.
4/ Nous l’avons déjà signalé à plusieurs reprises, en vain, mais les conséquences financières de la réforme de la taxe professionnelle, à partir de 2010, ne cessent de peser sur le déficit du budget national sans que quiconque ne le reconnaisse et l’explique aux citoyens. Bien que la question avait été posée publiquement à la ministre de l’Economie et au Premier ministre, lors du congrès des maires de 2009, le montant de l’allègement fiscal consenti aux entreprises – sans aucune contrepartie de leur part, ni en terme d’investissements, ni de création d’emplois – a été officiellement annoncé dans un rapport sénatorial deux ans plus tard. La somme annuelle était conforme aux prévisions en se situant dans une fourchette allant de 7,5 milliards à 8,2, selon le ministère responsable du calcul… Comme le budget national a toujours été déficitaire, au moins depuis le début de la décennie 2010 et si l’on ne retient qu’une moyenne de 8 milliards dus à la réforme de la TP par an, nous en sommes donc arrivés à un cumul de 88 milliards dans un déficit du budget national prévu de 93,1 milliards ! Cela sans compter avec le nouveau déficit à prévoir, dû à la suppression de la taxe d’habitation, pour environ 20 à 25 milliards par an.
La présentation des relations financières entre le niveau local et le niveau national est profondément altérée par la dissimulation que l’on fait ainsi de la réalité et ce, au détriment une fois de plus, de la clarté du débat politique.
5/ Pour en venir à des préoccupations plus terre à terre, d’autres failles sont caractéristiques de la parole de l’État à l’encontre des habitants. Il en est allé ainsi avec la réduction de la vitesse à 80 km/h. Le discours de ses laudateurs, Premier ministre en tête, a consisté à « expliquer » que la mesure aurait forcément un effet bénéfique sur la mortalité constatée sur les routes. Autrement dit, le nombre des morts diminuerait puisque la vitesse serait moindre.
En admettant que ce raisonnement soit exact (ce que rien ne permet d’affirmer scientifiquement…), encore fallait-il disposer des données à l’origine, à savoir le nombre de morts enregistrés du fait d’accidents survenus à cause de la vitesse, entre 90 et 80 km/h. Ce n’était qu’à partir de cette information de base, comparée à son évolution une fois la vitesse limitée à 80 km/h, que l’on aurait pu savoir si, oui ou non, l’hypothèse formulée à l’origine de cette décision était valable. Or, malgré les démarches entreprises en ce sens auprès des autorités compétentes, ainsi que des organismes privés intéressés, aucune réponse ne fut fournie à ceux qui s’étaient posé la question.
Paradoxalement, ce fut l’association à l’origine de la mesure qui avoua (naïvement ?) que la donnée était indisponible mais qu’il suffisait de faire une règle de trois pour estimer que, dès lors qu’on réduirait la vitesse, le nombre de morts diminuerait d’autant !
6/ Aussi puéril qu’il fut, c’était le même raisonnement arithmétique que le Gouvernement avait appliqué quelques années auparavant, quand il avait imposé la réduction du nombre des régions. Pour ceux qui veulent bien s’en souvenir, l’un des arguments mis en avant fut alors de prédire une réduction drastique des dépenses des régions… puisqu’elles seraient moins nombreuses. Une pseudo évaluation de plusieurs dizaines de millions d’euros par an avait même été avancée par le secrétaire d’État chargé de la réforme. Comment le calcul avait-il été fait ? Comment l’extraordinaire complexité du problème avait-elle été prise en compte ? Grâce aussi à la fameuse règle de trois : soit x milliards de dépenses de fonctionnement pour y régions, si vous réduisez à z, cela donne la réduction annoncée…
L’extraordinaire faiblesse du raisonnement avait été pertinemment signalée à l’époque mais rien n’y fit. Il fallut attendre les constats dressés par la Cour des comptes depuis, pour établir que, bien évidemment, non seulement les dépenses n’avaient pas diminué mais qu’elles avaient logiquement augmenté, au moins à court et moyen terme.
Ainsi, l’appréhension de l’exactitude des enjeux de la réforme régionale avait été dissimulée à la population.
7/ Last but not least, la présente épidémie est aussi marquée par une présentation imparfaite des données à partir desquelles les citoyens devraient pouvoir se faire leur opinion. Chaque jour, les organes d’information ne cessent d’annoncer le nombre de décès constaté la veille, 200, 300… sans jamais compléter et pondérer l’« information » par le rappel du nombre moyen quotidien de morts en France, soit 1 671 ; pas plus ne rappelle-t-on que, d’après les données pourtant fournies par un organisme public, l’INED, « Chaque année en France, la grippe atteint 2 à 8 millions de personnes de tout âge. En moyenne il y a 2,5 millions de personnes grippées chaque année. » et que « Le nombre de décès annuels dus à la grippe saisonnière est de 1 500 à 2 000 selon les relevés de l’Institut Pasteur. En 2014, l’épisode de grippe était exceptionnel et génère une surmortalité hivernale de 18 300 décès, notamment du au virus H3N2. »
Il ne s’agit pas de nier la réalité de la crise actuelle, due essentiellement au fait qu’à la différence de l’épidémie annuelle de grippe, on ne dispose pas des remèdes vraiment efficients pour lutter contre. Il s’agit seulement de mettre l’accent sur le fait que, une fois de plus, la parole nationale n’est pas fiable et que ce défaut récurent, voire croissant, porte une atteinte majeure au respect dû aux institutions du pays, donc à l’État.
Toute réflexion de fond sur les réformes à entreprendre devrait intégrer cet état de fait afin d’y remédier, dans toute la mesure du possible…
Hugues Clepkens