fbpx

Le laboratoire d’idées de la reconstruction écologique et républicaine

Notes

Sept idées fausses sur l’électricité : petit guide de défense intellectuelle à destination des décideurs

La crise énergétique qui touche de plein fouet l’Union européenne depuis quasiment un an semble malheureusement vouloir s’inscrire dans la durée, avec pour conséquence une hausse généralisée des prix des biens et services. Face à cette situation, la protection des ménages précaires et des entreprises fortement consommatrices d’énergie constitue logiquement la priorité de l’État français sur le court terme. Cependant, seules des décisions politiques sur le long terme permettront véritablement d’améliorer la résilience des États face aux crises : sobriété et indépendance énergétique sont désormais les maîtres mots. En ce sens, la question de l’avenir du système électrique français sera tout particulièrement au cœur des travaux de la nouvelle Assemblée nationale : à l’automne 2022 tout d’abord via une loi simplifiant les procédures de développement des énergies renouvelables, puis en 2023 à travers la future loi de programmation sur l’énergie et le climat. Les parlementaires de tous bords devront ainsi fixer un mix électrique cible pour les prochaines décennies, en se positionnant à la fois sur le rythme de développement des énergies renouvelables et sur le lancement ou non d’un nouveau programme de construction de réacteurs nucléaires. De plus, au-delà du choix technique des moyens de production, la politique mise en place devra permettre d’assurer la fourniture d’une électricité bas-carbone, de qualité et à un prix juste pour tous, conditions nécessaires à l’atteinte de la neutralité carbone d’ici la moitié du siècle. Dans le but d’éclairer cette décision politique, plusieurs acteurs comme l’Agence de la transition écologique (Ademe) ou NégaWatt ont publié des rapports présentant les avantages et inconvénients de différents mix à horizon 2050. Le gestionnaire du réseau de transport d’électricité RTE a quant à lui rendu public six scénarios comparant différents mix électriques à cette échéance, chacun avec des proportions différentes de nucléaire et d’énergies renouvelables. Tous ces scénarios sont comparés prioritairement sous un angle technique, mais ils sont également analysés à travers les prismes climatique, économique, de besoin en ressources et même de résilience au changement climatique. Il paraît donc indispensable que l’ensemble des parlementaires lise avec attention ce qu’il ressort de la synthèse de ces études. Cependant, le fonctionnement du système électrique est complexe et ses impacts en termes climatique, économique ou sociétaux sont par conséquent souvent mal appréhendés par les citoyens, les journalistes et, malheureusement, par les personnalités politiques elles-mêmes qui, pourtant, devraient avoir en tête des arguments scientifiques et objectifs permettant de prendre les meilleures décisions possibles pour l’avenir de la France. Afin d’assainir le débat autour de la question du mix électrique français, la présente note détaille les raisons pour lesquelles les sept affirmations suivantes, pour bon nombre d’entre-elles véritablement prononcées par des personnalités politiques de premier plan, sont fausses. 1. « L’énergie consommée en France est majoritairement issue du nucléaire. » Lorsque la question énergétique est abordée, la formule « l’énergie de la France, c’est le nucléaire » paraît trop souvent définir le périmètre du débat. Malheureusement, le fait que la France fasse effectivement partie du groupe des pays les plus nucléarisés du monde[1] ouvre la porte à un mauvais réflexe national : à peine prononcé ou écrit, le mot « énergie » laisse rapidement sa place à la question du nucléaire et à l’analyse de son poids prédominant dans le mix électrique national. Bien que pouvant paraître anodin, ce raccourci n’en est pourtant pas moins grave car il participe à tromper (ou à tout le moins embrouiller) des citoyens de bonne foi qui souhaiteraient mieux comprendre le lien direct entre consommation d’énergie et émissions de gaz à effet de serre. En effet, rappelons que 60 % de l’énergie finale consommée en France est encore issue d’énergies fossiles (charbon, pétrole et gaz naturel[2]) tandis que la part de l’électricité ne s’élève qu’à 26 %[3]. Le nucléaire étant lui-même directement à l’origine d’environ 70 % de la production des électrons, il est ainsi plus exact d’affirmer que seulement 18 % de l’énergie que les Français consomment est issue du nucléaire[4]. De plus, afin d’atteindre la neutralité carbone à horizon 2050, il est indispensable de rappeler que la part de l’électricité (décarbonée) française dans la consommation d’énergie doit augmenter afin de remplacer les énergies fossiles dans de nombreux secteurs aujourd’hui très émetteurs de gaz à effet de serre comme les transports ou le chauffage des bâtiments[5]. La part qu’occupera le nucléaire à cet horizon est encore inconnue et nécessite d’être débattue de façon sérieuse, mais il est certain que l’urgente éducation populaire au changement climatique, à ses causes et à ses conséquences, souffre de la place disproportionnée accordée à cette source de production d’électricité. Le bon emploi des termes « énergie » et « électricité » est donc fondamental, aussi on comprendra aisément que se prononcer pour un mix énergétique 100 % renouvelable au lieu d’un mix électrique 100 % renouvelable, revienne à englober un spectre bien plus large en visant une totale indépendance de la France par rapport aux énergies fossiles et donc implique un changement bien plus profond de notre société. 2. « Le nucléaire émet plus de CO2 que l’éolien ou le solaire. » Contrairement aux énergies fossiles, ni le nucléaire, ni les énergies renouvelables n’émettent de gaz à effet de serre lors de la production d’électricité. Pourtant ces énergies « émettent » bien des gaz à effet de serre dès lors que l’on utilise une approche en cycle de vie, c’est-à-dire que l’on prend en compte les émissions dites « amont », générées lors de la fabrication des composants du système, de son installation, de son utilisation et de sa maintenance et, en « aval », de sa désinstallation et de son traitement en fin de vie. Cette approche en analyse de cycle de vie permet donc de déterminer la quantité de gaz à effet de serre (en équivalent CO2) émise par chaque type de centrale lors de la production d’un kilowattheure d’électricité : Figure 1 : Comparaison des facteurs d’émissions des principales sources de production d’électricité, en analyse de cycle de vie. Les valeurs françaises sont issues de la Base Carbone de l’ADEME[6], les valeurs mondiale proviennent des travaux du troisième groupe de travail du GIEC dans sa contribution au

Par Rougetet Y.

20 septembre 2022

2 % for 2° C! Memo for policy makers

“Climate disruption is a battle for our lives” – UN Secretary-General António Guterres “Money is the sinews of war” – Cicero Although Cicero and Napoleon stressed that “money is the sinews of war”, the country of the Paris accords until 2022 failed to have a trans-sector holistic plan to address the need for decarbonization. Our report “2% for 2 degrees” is the first ever country wide plan to integrate the measures, financial needs, and suggestions for financing required to reach carbon neutrality by 2050. After more than 10,000 years of relative stability, the earth’s climate is changing. As average temperatures rise, climate science finds that acute hazards such as heat waves and floods grow in frequency and severity, and chronic hazards, such as drought and rising sea levels, intensify. The Institut Rousseau leverages existing studies and national strategies to define the most relevant levers that would enable France to reduce its emissions to almost zero. Based on industry-validated figures and linked to political and social measures, our report identifies thirty-three levers to address climate change and reach carbon neutrality by 2050, across all sectors of the economy. The impact of the sector-specific «decarbonisation levers» proposed in this study would enable us to reduce greenhouse gas emissions by 87% in 2050 compared to today. The remaining 13% are covered by the development of a final negative emission sector, the carbon sinks. Reaching the objective requires to align existing finance schemes with the goal of decarbonation and unlock additional means across sectors. We show that a total investment of 182 billion euros per annum is needed to achieve the low-carbon transition of France by 2050, 125 billion of those already part of the existing schemes or their continuation. At the national level, the transition requires a thorough review of the current frameworks. At the European scale, we propose that climate-friendly investments be excluded from the calculation of the public deficit constraints, and monetary policy framework reformed as well as the introduction of moderate and targeted amount of debt-free money. The additional 57 billion per year represent 2.3% of France’s COVID-19-impacted GDP in 2021 and cover all the public and private expenditures necessary to achieve the objectives set, including investments but also subsidies, tax credits, tax breaks, incentives, and aids. The building sector benefits most (36%) from additional effort compared to the current efforts and is followed by energy production (28% of the additional efforts). Because ecological reconstruction must come with social justice, the transition requires financial and operational support for the poorest citizens and the least well-endowed companies. For this reason, we show that public authorities must bear a significant part of the additional investment of the transition (63% out of the 57 billion euros), with 36 billion euros per year. This amount is less than the first emergency budget plan put in place at the start of the pandemic in March 2020 (42 billion euros). We show that it can be financed easily over time if linked to budgetary and monetary reforms and furthermore if leveraging innovative sources of funding. We also reveal how it will prompt a virtuous circle of social and environmental impacts. The initial public funded trigger would generate considerable benefits on public finances, purchasing power of households, savings of social security and the healthcare system, as well as on the national trade balance. Besides its holistic nature, our report stands out by the vision it offers of what a multiannual framework for financing ecological reconstruction should contain, sector by sector. Every further delay activating the levers towards decarbonization will lead to an investment overload in future years. Delaying the investment in any sector will only make the ecological transition more difficult, it will also make it more expensive. The EU-wide goal of «Fit for 55» goal is already at risk. Download the executive summary (18 pages).

Par Institut Rousseau

18 septembre 2022

L’inflation par les profits, la dernière nouvelle béquille d’un capitalisme actionnarial écocidaire et moribond

Une lecture conjoncturelle de l’inflation qui permet d’occulter un problème structurel Sous l’effet du retour de l’inflation à l’échelle mondiale depuis ces derniers mois, la question de la défense du pouvoir d’achat redevient centrale dans les préoccupations des Français et le débat public. Pour l’heure, la communication des autorités officielles politiques et monétaires, ainsi que des services publics de statistiques, est très bien rodée, à l’image des derniers points conjoncturels de l’Institut national de la statistique et des études économiques (Insee)[1], qui fait état d’une hausse des prix à la consommation de 6,1 % sur un an en juillet dernier et prévoit une inflation à l’horizon de la fin de l’année à un niveau proche de 7 % en glissement annuel (5,5 % en moyenne annuelle en 2022 contre 1,6 % en 2021). Le discours officiel se limite en effet à une simple analyse descriptive des faits, à savoir qu’après une longue période de 35 ans de très grande « sagesse » des prix, l’inflation a fait son retour en 2021, déclenchée par une reprise économique synchrone sur tous les continents au sortir de la crise du Covid-19 face à une offre productive déstabilisée par la crise sanitaire ; et qu’elle connaît une nouvelle aggravation en 2022 du fait des conséquences de la guerre en Ukraine et des confinements répétés en Chine, décidés par les autorités chinoises dans le cadre de leur politique sanitaire « zéro Covid ». Même s’il n’y a rien à redire sur la véracité des faits explicatifs conjoncturels ainsi mis en avant, l’économiste et le sociologue à la tête bien faite et de bonne foi intellectuelle ont cependant de quoi rester sérieusement sur leur faim et objecteront bien volontiers, et à raison, que cette présentation officielle, faite par la doxa néolibérale, est un peu courte, et qu’elle ignore insidieusement toute l’importante dimension structurelle de l’inflation relevant du conflit dans la répartition des richesses créées (la valeur ajoutée dans le jargon de la comptabilité nationale) entre le travail et le capital, une conflictualité centrale dans la dynamique de la lutte des classes. Et pour cause ! La prise en compte de ce conflit dans la répartition de la valeur ajoutée entre les travailleurs et les capitalistes nous plonge inévitablement au cœur même des principales contradictions internes d’un capitalisme actionnarial climaticide. Par ailleurs, le silence radio en la matière permet aux gouvernants actuels de se limiter à ne proposer que des pansements ponctuels, bien éloignés des véritables enjeux posés par le regain inflationniste actuel, en laissant totalement de côté les indispensables transformations structurelles concernant un partage de la valeur ajoutée aujourd’hui historiquement défavorable aux salariés. Or, ce sont pourtant des mesures oeuvrant en faveur de ces mutations structurelles qui apparaissent indispensables pour répondre à la fois à la question de la protection du pouvoir d’achat des Français de façon durable et aux objectifs d’une transition écologique ambitieuse, ces deux aspects socio-économique et écologique étant inséparables. L’inflation actuelle n’est pas d’origine monétaire Tout d’abord, pour mieux appréhender tout l’enjeu qu’il y a du point de vue de la protection pérenne du pouvoir d’achat des ménages, d’une répartition plus partageuse de la richesse créée au sein des entreprises entre le travail et le capital, il convient de revenir sur un certain nombre de fausses explications du phénomène inflationniste actuel, que l’on peut parfois entendre sur certains médias ou réseaux sociaux. D’emblée, éliminons l’argumentaire selon lequel l’inflation actuelle aurait, au-delà de ses causes conjoncturelles économiques et géopolitiques, une origine monétaire. Cet argument, systématiquement avancé à la moindre occasion par les phobiques de la « planche à billets », trouve son ancrage théorique dans les thèses monétaristes du célèbre Milton Friedman. En reprenant la théorie quantitative de la monnaie, dont une première version avait été donnée par Jean Bodin sous forme de postulat en 1568[2], le monétarisme considère, en particulier, que tout déficit public financé par création monétaire ne génère à long terme qu’inflation sans augmenter le niveau de l’activité économique en volume. On retrouve là l’une des critiques traditionnelles des politiques budgétaires de relance d’inspiration keynésienne financées par création monétaire. Cela a d’ailleurs très largement inspiré la rédaction des traités européens, notamment quant à la définition même du statut de la Banque centrale européenne (BCE) et son impossibilité de prêter directement aux États. Certains observateurs constatent très justement que, ces dernières années, et en particulier dans le cadre du « quoi qu’il en coûte » pendant la pandémie du Covid-19, les banques centrales ont déversé sur les marchés financiers des torrents de liquidités en rachetant des titres obligataires pour faire baisser les taux d’intérêt à long terme – d’où l’explosion des bilans des banques centrales des deux côtés de l’Atlantique (multiplication par 9 des bilans respectifs de la BCE et de la Réserve fédérale américaine entre la veille de la crise financière de 2007-2008 et le début de 2022). Ils en déduisent alors que ces politiques monétaires non conventionnelles de détente quantitative, menées par les banques centrales, auraient une part de responsabilité importante dans la résurgence de l’inflation. Il est certes indéniable que le quantitative easing des banques centrales a alimenté, et continue à le faire, des bulles financières et immobilières pour le plus grand bonheur du patrimoine des plus riches, au risque de surcroît de favoriser le déclenchement d’une nouvelle crise financière d’envergure ; il ne faut toutefois pas pour autant confondre la hausse des prix des actifs financiers et immobiliers avec l’inflation, phénomène qui concerne quant à lui, tout du moins dans la mesure officielle qui en est faite, les prix à la consommation des ménages. Par ailleurs, ces commentateurs commettent également une confusion majeure entre les notions, pourtant différentes, de masse monétaire (l’ensemble des moyens de paiement possédés par les agents économiques non financiers résidents) et de base monétaire (le passif du bilan d’une banque centrale). Une demande toujours en berne Évacuons également, comme grille de lecture de l’inflation actuelle, une inflation par la demande. Ce type d’inflation intervient dans un contexte bien précis de forte croissance économique et d’une demande dynamique, alimentée par la croissance du pouvoir d’achat des

Par Besançon Y.

6 septembre 2022

Intégration des enjeux climatiques dans la politique monétaire de la Banque centrale européenne : après ces premiers pas, la route reste encore longue La BCE reconnait son rôle en matière de risque climatique : il était temps !

« La Banque centrale européenne prend de nouvelles mesures visant à intégrer le changement climatique à ses opérations de politique monétaire ». Tel est le titre du communiqué que la BCE vient de publier[1]. Les dispositions suivantes seront mises en œuvre : La BCE intégrera désormais des critères relatifs à la performance climatique des entreprises dans le cadre de son programme d’achat d’obligations d’entreprises (« Corporate Sector Purchase Program », CSPP). La BCE limite la part des titres liés à des entreprises polluantes admise comme garantie des emprunts des banques auprès des banques centrales des États européens, sous la forme d’une décote automatique de la valeur des titres les plus vulnérables aux risques climatiques[2]. La BCE contrôlera le respect par les entreprises de l’obligation de publier leurs informations climatiques (directive dite « Corporate Sustainability Reporting », CSRD), sous peine de les exclure de ses mécanismes de garantie de crédit. La BCE renforcera ses efforts d’évaluation et de gestion des risques climatiques, notamment par la mise en place d’un ensemble de normes communes pour intégrer les risques liés au climat dans les notations produites par les systèmes d’évaluation du crédit par les banques centrales nationales. L’Institut Rousseau se réjouit de constater que la BCE sort de son positionnement attentiste en matière de risque climatique. Pour la première fois, celle-ci reconnait explicitement la nécessité de prendre en compte le changement climatique dans ses opérations de politique monétaire, à rebours du ferme attachement au principe de neutralité des marchés qu’elle brandissait jusqu’alors pour justifier son manque de volontarisme à l’égard des enjeux climatiques. La BCE et ses dirigeants reconnaissent finalement le rôle primordial et moteur qu’ils doivent jouer dans l’indispensable transition que doit mener le système financier, au-delà des déclarations de principe. Ceci en particulier dans la juste appréciation des risques que constituent les actifs échoués, ces prêts mis en place à destination des filières dépendantes du charbon, du pétrole et gaz, et qui pâtiront de la transition écologique à venir (voir la note de l’Institut Rousseau qui traite du risque que représentent particulièrement les actifs fossiles : « Actifs fossiles, les nouveaux subprimes »[3]). Si les actions associées ne sont pas suffisamment ambitieuses, les déclarations de la BCE ne constitueront que les perles d’un très beau collier La BCE admet finalement la validité des arguments des économistes qui appelaient intégrer les risques climatiques au cadre de politique monétaire européen – comme l’Institut Rousseau l’a fait dans nombre de ses travaux. Les raisons énoncées par la BCE pour justifier ce changement, toutes pertinentes et justifiées, ne constituent toutefois à ce stade que les perles d’un très beau collier. Ainsi, la BCE reconnait que l’inclusion de critères liés aux risques climatiques permettra de « réduire le risque financier lié au changement climatique dans le bilan de l’Eurosystème ». Elle se dit prête à « soutenir la transition écologique de l’économie » pour permettre un « alignement sur les objectifs de l’Accord de Paris et les objectifs de neutralité climatique de l’UE » (voir à ce sujet le rapport de l’Institut Rousseau sur les investissements nécessaires pour atteindre les objectifs de neutralité carbone en 2050[4]). La BCE cite également la nécessité d’« intégrer les questions liées au changement climatique au cadre de politique monétaire de l’Eurosystème » et enfin d’« inciter les entreprises et les établissements financiers à faire preuve de davantage de transparence en ce qui concerne leurs émissions de carbone, et à les réduire » (voir à ce sujet la note de l’Institut Rousseau appelant à une réforme de la règlementation financière en matière de climat[5]). On pourrait croire, à la lecture de ce communiqué, qu’au-delà des grandes déclarations de principe, la BCE et ses dirigeants prennent enfin conscience du rôle moteur et primordial qui doit être le leur dans la réorientation des flux financiers vers des produits soutenables du point de vue écologique, et dans la meilleure appréciation des risques que constituent les actifs « échoués » mentionnés plus haut. Les premiers pas effectués par la BCE démontrent effectivement un revirement de doctrine bienvenu, qui était attendu depuis que la revue stratégique de politique monétaire[6] en juillet dernier avait posé les prémisses d’une modification du cadre d’intervention, sans pour autant que la BCE accepte de renoncer à la doctrine de la « neutralité de marché ». Cette notion désigne le principe selon lequel la BCE s’efforçait jusqu’à présent d’investir dans des actifs financiers qui représentent fidèlement la masse de titres financiers en circulation, afin de ne pas créer de distorsion sur les marchés. Cela l’a empêchée jusqu’ici d’imposer des critères écologiques dans ses stratégies d’investissement. Le communiqué du 4 juillet 2022 représente donc un tournant majeur, en ce que la BCE reconnait pour la première fois explicitement la nécessité de prendre en compte le changement climatique dans ses opérations de politique monétaire, à rebours, peut-on espérer, du ferme attachement au principe de neutralité de marché dont elle fait encore preuve. Cette modification traduit un changement profond dans la manière d’envisager les risques climatiques et environnementaux, et reflète un consensus concernant la légitimité de l’action de la BCE dans le cadre de son mandat actuel pour lutter contre les dérèglements climatiques et favoriser la transition. Toutefois, cette première avancée notable ne doit pas éclipser le fait que ces annonces demeurent pour l’heure largement insuffisantes au vu de l’ampleur considérable des changements à mener, et de l’urgence de la tâche. Le périmètre et les délais de mise en œuvre des mesures annoncées : limites majeures de l’initiative de la BCE Concernant les programmes d’achat, il faudra savoir ce que la BCE entend par « des émetteurs présentant de bons résultats climatiques » vers lesquelles elle veut orienter ses réinvestissements. La définition donnée, à savoir les entreprises ayant « une bonne performance climatique (qui) sera caractérisée par de faibles émissions de gaz à effet de serre, des objectifs ambitieux de réduction des émissions de carbone et des déclarations satisfaisantes en matière de climat », est très large et particulièrement floue. Elle devra notamment être précisée afin d’exclure les entreprises dont les plans d’alignement sont trop peu crédibles et relèvent avant tout d’une démarche de « greenwashing ». L’une des limites principales de la mesure

Par Dicale L., Saviuc A., Dufrêne N.

16 juillet 2022

Élections législatives de 2022 : entre approfondissement et contradictions, une nouvelle étape de la crise démocratique

Les élections législatives de 2022 se sont tenues les 12 et 19 juin 2022. Un mois et demi après la réélection par défaut d’Emmanuel Macron à la présidence de la République face à Marine Le Pen, elles se sont conclues par une campagne électorale assez insaisissable entre atonie/anomie en profondeur et emballement en surface. Dès le soir du premier tour, les résultats ont apporté plusieurs enseignements notables – de fortes évolutions et d’inquiétantes constantes – que nous proposons d’analyser en croisant les informations issues de l’observation à différentes échelles géographiques. Je décrypte la manière dont s’est traduite dans les urnes une forme inédite de rassemblement de la gauche sous une direction insoumise. Nous analyserons enfin les phénomènes qui ont joué au second tour pour aboutir à une Chambre basse sans majorité évidente, où l’extrême droite entre en masse sans que cela ait été perceptible à ce niveau au soir du 12 juin. Ces élections législatives ouvrent une période politique confuse et incertaine, traduisant comme jamais l’état de crise démocratique de nos institutions et plus largement du pays. Principal enseignement du premier tour : la consolidation d’une abstention massive L’abstention s’est établie le 12 juin 2022 à 52,49 % des inscrits, soit près de 25,7 millions d’électeurs. Le 11 juin 2017, l’abstention s’établissait à 51,3 % des inscrits, soit plus de 24,4 millions d’électeurs, c’est-à-dire que l’on compte en 2022 une progression de 1,2 points et 1,25 millions d’abstentionnistes supplémentaires. Cependant, comme le corps électoral a connu un accroissement, le premier tour de 2022 a compté près de 23,26 millions de votants, soit quelques 90 000 électeurs supplémentaires. La progression de l’abstention est un phénomène désormais structurel de notre démocratie électorale : elle atteint des niveaux importants à toutes les élections, à l’exception de l’élection présidentielle. Pour les élections législatives, cette situation politique est relativement récente à l’échelle de la Ve république : de 1967 à 1986, la participation côtoyait les 80 % (en-deçà ou au-delà), avec une exception en 1981 à 70,6 % (démobilisation de la droite). La réélection de François Mitterrand en 1988 a ouvert une phase de transition avec une participation plus faible aux élections législatives, qui a fluctué entre 65 et 69 % de 1988 à 1997. Une rupture importante est intervenue en 2002 avec l’adoption l’année précédente du quinquennat et l’inversion du calendrier électoral, plaçant désormais les législatives dans la foulée de l’élection présidentielle : cette situation induit que la majorité parlementaire issue des élections est redevable au président de la République qui vient d’être élu, les Français ne changeant pas d’idée comme de chemise en un mois et demi. Au-delà de la disparition d’une possibilité de cohabitation, elle induit des comportements parlementaires plus que jamais inféodés à l’exécutif ; le pouvoir parlementaire déjà largement bridé par le parlementarisme rationalisé de la Ve République n’en est que plus abaissé structurellement. En réaction, les électeurs se démobilisent face à un scrutin qui perd en politisation et donc en intérêt, l’élection apparaissant déjà jouée, entre futurs députés tenus par une obéissance à l’exécutif et opposants sans pouvoir. On remarquera que les raisonnements sont contradictoires mais qu’ils se conjuguent pour accroître l’abstention. La participation est passée dès 2002 à moins de 65 %, alors que l’électorat de gauche s’était remobilisé pour limiter la défaite de son camp et « se faire pardonner » de l’élimination de Lionel Jospin, pour chuter à près de 60 % en 2007, puis 57 % en 2012. Une chute désormais continue et accélérée. Le quinquennat de François Hollande explique une nouvelle rupture : il a été à la fois la démonstration de la trahison des élites – le président et ses soutiens parlementaires ont mené et soutenu une politique néolibérale contraire à leurs engagements de campagne et se plaçant finalement dans la continuité du quinquennat de droite précédent – et de l’impossibilité d’une révolte parlementaire qui rétablirait un cours exécutif plus conforme aux « promesses électorales ». Pourquoi donc, dans ces conditions, voter pour que les politiques publiques ne changent pas ou peu d’orientation ? Pourquoi voter pour des parlementaires qui n’ont aucun pouvoir sérieux sur l’exécutif ou qui le suivent servilement dans leur majorité ? La participation s’est effondrée de 8,5 points de 2012 à 2017, accompagnant l’élection d’une Chambre largement dominée par le parti du nouveau président de la République, Emmanuel Macron, renforçant la logique de soumission ou de servilité du législatif à l’exécutif. Le spectacle donné par la majorité parlementaire « Playmobil » mais sans doute aussi par une partie de l’opposition (ce n’est pas parce qu’on hurle dans l’hémicycle que l’on est plus apprécié par les abstentionnistes) n’a pas suscité un renversement de tendance en 2022 mais une confirmation à la baisse (cependant moins rapide). La carte de l’abstention de 2022 apparaît relativement classique, mais connaît quelques petites évolutions. On retrouve le schéma classique d’une abstention élevée – une constante des élections législatives des vingt dernières années – dans les territoires de l’ancienne France ouvrière désindustrialisée du nord et de l’est, de la vallée du Rhône et du pourtour méditerranéen, des zones péri-urbaines et les banlieues des grandes agglomérations (dont celles de la capitale), du bassin parisien et enfin de l’outre-mer. Le mauvais score de la majorité présidentielle d’Emmanuel Macron (Ensemble ! : LaREM, MoDem, Horizons, Agir) au soir du premier tour s’explique en partie par une poussée de l’abstention dans quelques régions hors des territoires précédemment énoncés. Si l’on regarde attentivement l’illustration n°3 de cette note, qui cartographie les évolutions de participation entre juin 2017 et juin 2022, on remarque une très forte progression de l’abstention dans l’ouest de la France, le nord-ouest de la région Centre Val-de-Loire, les Pays de la Loire, la Vienne et la Bretagne, territoires qui s’étaient donnés à Emmanuel Macron et à sa majorité parlementaire en 2017, et pour une large part à nouveau à Emmanuel Macron le 10 avril 2022. Dans ces territoires, cette progression de l’abstention au-delà de 2,5 points (avec des pointes au-delà de 5 points) a diminué d’autant les scores de la majorité présidentielle à 5 ans de distance. Cela explique également le recul en voix des

Par Faravel F.

15 juillet 2022

Renouvellement de la représentation politique : où sont les candidats citoyens ?

« Grand débat » national, Convention citoyenne pour le climat, consultations en ligne, e-pétitions… Nous assistons depuis plusieurs années à une multiplication des initiatives qui visent à associer davantage les citoyens à la prise de décision. C’était d’ailleurs l’une des promesses phares d’Emmanuel Macron, lors de sa campagne de 2017 : une « démocratie rénovée », grâce notamment à une participation accrue des citoyens et une meilleure représentation de ces derniers. La majorité a alors largement vanté l’arrivée d’un « nouveau monde », se targuant d’avoir fait entrer à l’Assemblée nationale de nombreux candidats sans expérience politique, issus de la société civile – et parmi lesquels de nombreuses femmes. Force est pourtant de constater que derrière le storytelling et les éléments de langage, la confiance des citoyens envers les responsables publics n’a pas été restaurée. Quand on les interroge au sujet de la politique, les Français affirment éprouver tout d’abord de la méfiance (39 % des sondés[1]), puis du dégoût (17 %). Le non-respect de la parole donnée, le caporalisme, le manque de transparence ont notamment fait que ce « boom de la participation et de la représentation citoyenne » – pourtant séduisant sur le papier – s’est révélé contre-productif. Le pouvoir de décision est resté entre les mains de quelques-uns, ce qui a d’ailleurs suscité davantage de frustration et de colère. Cette volonté de renouvellement politique demeure pourtant au cœur des préoccupations de réoxygénation de nos démocraties. À ce titre, certains exemples européens sont éclairants et montrent qu’au sein des démocraties les mieux installées, des initiatives peuvent permettre au citoyen de se refaire une place dans le jeu politique, à gauche comme à droite, à partir de projets progressistes comme à partir de projets d’exclusion. De Podemos à la Ligue du Nord, en passant par le mouvement des « cinq étoiles » et l’émergence de nouvelles ONG de promotion de la démocratie, les expériences ne manquent pas. Nous devons plus que jamais en tirer des enseignements, afin de « remettre les citoyens au cœur de la machine ». I – Changer de paradigme : de la participation citoyenne à la représentativité réelle de nos institutions a) Un essor des civic tech qui peine à passer à l’échelle Courant 2015, le gouvernement organise pour la première fois une consultation en ligne sur un pré-projet de loi – en l’occurrence le projet de loi pour une République numérique, porté par la secrétaire d’État au Numérique, Axelle Lemaire. À l’aune des votes, remarques et propositions des internautes, l’exécutif revoit sa copie avant son dépôt devant le Parlement, tout en justifiant ses principaux arbitrages auprès des participants. Cette initiative novatrice est suivie de multiples consultations en ligne, pétitions, budgets participatifs… En l’espace de quelques années seulement, les « civic tech », ces outils numériques destinés à améliorer le processus démocratique, font souffler un vent nouveau sur notre vie politique. La France adhère d’ailleurs au Partenariat pour un gouvernement ouvert, et multiplie ainsi les engagements en la matière. Pour autant, aucun « big bang démocratique » ne s’en est suivi. Plusieurs raisons à cela. D’une part, la sociologie des participants ne demeure guère représentative, y compris lorsqu’on fait appel à des civic tech. D’autre part, le format choisi pour ces initiatives s’est révélé insatisfaisant. Le recours récurrent à la plateforme de consultation de Cap Collectif, dont le code source n’était pas libre, s’est apparenté à une privatisation de la démocratie et a été fustigé[2] par des associations comme La Quadrature du Net, la Ligue des droits de l’homme ou Regards Citoyens. L’État a d’ailleurs échoué à institutionnaliser et faire passer à l’échelle ce type d’initiatives : elles ont finalement été sporadiques et ont cherché à éviter les « sujets qui fâchent ». b) Des expériences de participation citoyenne décevantes Les Français ont surtout trop souvent été sollicités ces dernières années, sans que leur avis n’ait été réellement pris en compte par la suite. L’expérience du « Grand débat national » l’a tristement démontré. Des semaines de consultations, l’instauration de « cahiers de doléances », l’organisation de très nombreuses conférences au niveau local… Tout cela pour que des ordinateurs analysent ensuite des restitutions en détectant des mots-clés[3] ? L’exercice fut – tout comme les annonces finales du chef de l’État – à des années-lumière de ce que l’on pouvait légitimement en attendre[4]. Les suites réservées aux travaux de la Convention citoyenne pour le climat (CCC) ont également démontré que ce « boom de la participation citoyenne » s’est surtout révélé être un outil de communication politique. Le président s’était engagé à reprendre « sans filtre » les mesures des « 150 ». Selon le bilan réalisé par certains membres de la CCC[5], seules 38 propositions ont été reprises, dont la plupart partiellement[6]. Tout cela a finalement donné lieu à une impression de consultations gadgets, organisées uniquement à des fins politiciennes. Loin de renouer la confiance entre citoyens et responsables publics, ces initiatives ont au contraire suscité déception, frustration et parfois même colère. c) Mettre les citoyens en position de pouvoir Face à ces désillusions et à l’essoufflement qui en a découlé, une évidence s’impose : faire participer les citoyens sporadiquement ne suffit pas. Il faut les intégrer véritablement aux processus décisionnels, les mettre en situation de pouvoir, en poste. Il faut pour cela favoriser l’émergence de candidatures citoyennes et réussir à les faire gagner. En France, quelques premières initiatives s’inscrivent dans cette logique. Elles sont pour l’instant expérimentales et doivent être structurées, multipliées, soutenues. En voici quelques exemples. Tout d’abord, l’initiative LaPrimaire.org. L’idée : permettre aux citoyens de se présenter et de désigner un candidat à la présidentielle, dans le cadre de primaires ouvertes. En 2017, ce processus a permis de faire émerger la candidature de Charlotte Marchandise (qui n’a finalement pu se présenter officiellement, faute d’avoir obtenu suffisamment de parrainages), ceci en expérimentant au passage le vote au jugement majoritaire[7]. Ensuite, attardons-nous sur la piste du tirage au sort. Dans une volonté de revenir aux sources de la démocratie athénienne, où de nombreuses responsabilités politiques étaient attribuées en se fondant sur le hasard, Cédric Villani a désigné, lors de sa campagne pour les élections municipales de 2020, 10 % de ses colistiers de cette manière[8]. 48 Parisiens et Parisiennes

Par Forteza P.

7 juin 2022

Rechercher la bonne densité en ville par la protection du patrimoine bâti et paysager

En matière d’aménagement urbain et de besoin en logement, le choix entre l’étalement de la ville dans les zones rurales et la densification des espaces déjà urbanisés est souvent présenté comme une alternative inévitable. Pour stopper l’artificialisation des sols, il faudrait nécessairement « faire la ville sur elle-même » en surélevant le bâti existant, en comblant les dents creuses, voire en démolissant pour reconstruire à plus grande hauteur. Mais ces solutions ne s’attaquent pas aux causes du phénomène : est-il besoin de construire toujours plus en masse au regard du taux élevé de logements vacants et de sa répartition géographique ? Nous faisons face, pour reprendre les termes du sociologue Yankel Fijalkow, à une « crise de répartition » et non à une « crise de pénurie ». Outre les dommages environnementaux inhérents à la construction à grande échelle par une consommation excessive de ressources naturelles, la surdensification des centres détériore le bien-être de ses habitants et fragilise la préservation du patrimoine architectural et paysager. Elle altère la conception française du patrimoine bâti, fondée non sur la protection individuelle d’un monument classé ou inscrit, mais sur la cohérence d’ensemble du site dans lequel il s’insère : « un chef d’œuvre isolé risque d’être un chef d’œuvre mort » déclara André Malraux à l’Assemblée nationale en 1962. En complément du zonage des espaces ruraux pour freiner l’urbanisation et préserver les ressources naturelles, la recherche de la bonne densité en ville réhabilite la méthode du « curetage d’îlot » pratiquée par l’architecte Albert Laprade : elle consiste à rénover le bâti ancien au lieu de le démolir, améliorer son hygiène et son confort tout en préservant son intégrité architecturale. I – Densifier les centres pour mettre un terme à l’artificialisation des sols : une fausse alternative ? 1 – Les conséquences environnementales et sociales de l’artificialisation des sols Depuis la fin des années 2010, la notion d’« artificialisation des sols » s’est imposée à l’agenda politique et médiatique pour décrire la dynamique d’urbanisation des espaces ruraux (principalement agricoles) en bordure des villes. Sur le plan technique, l’« artificialisation » consiste à imperméabiliser des sols naturels par une opération d’aménagement bâti, viaire ou équipementier : zones commerciales dotés de parkings, routes, lotissements pavillonnaires, etc[1]. Bien qu’un certain flou entoure encore sa définition (l’urbanisation résidentielle implique souvent une part de renaturation des parcelles loties grâce aux jardins privés), le Ministère de la transition écologique estime qu’entre 20 000 et 40 000 hectares sont artificialisés chaque année en France[2]. Les évaluations renvoient notamment aux données de la base Teruti-Lucas, faisant dire à certains observateurs que l’artificialisation engloutit l’équivalent d’un département français tous les dix ans[3]. L’artificialisation des sols est aujourd’hui vertement critiquée non seulement pour la perte de biodiversité qu’elle implique en rompant les continuités écologiques des milieux naturels, mais aussi pour l’uniformisation supposée des paysages et le caractère insoutenable des modes de vie périurbains, fondés sur la faible densité de l’habitat et la rareté d’implantation des petites infrastructures commerciales de proximité accessibles sans véhicule automobile. En motorisant l’accès aux équipements sur le territoire, le zonage périurbain augmente l’empreinte carbone. Comme la sociologie urbaine d’après-guerre, l’essayiste américain Lewis Mumford dénonçait déjà dans The City in history (1961) la désintégration individualiste provoquée par le lotissement en maisons individuelles, selon lui incapable de recréer les conditions spatiales de la vie en commun associée aux tissus urbains et ruraux anciens. C’est un enjeu aux implications à la fois sociales, environnementales et paysagères. Mais aujourd’hui, le problème n’est plus tant l’existence d’un habitat et d’un mode de vie périurbains – une réalité irrémédiable – que la poursuite d’un aménagement fondé sur des modèles résidentiels et commerciaux trop peu denses. C’est ainsi que la notion de densité s’invite en creux dans le débat sur l’artificialisation, car la dispersion spatiale de l’habitat est inhérente à la dynamique de l’étalement périurbain. La densification des centres urbains existants est-elle en miroir son contre-modèle écologique ? 2 – La densification comme contre-modèle de l’artificialisation Depuis les années 2000, les pouvoirs publics tentent d’enrayer le phénomène des extensions urbaines, avec un résultat mitigé. Promulguée le 22 août 2021, la loi Climat et résilience a institué la lutte contre l’artificialisation des sols par le mécanisme du Zéro artificialisation nette (ZAN), qui vise la « renaturation » (c’est-à-dire la reconquête d’un milieu naturel sur une surface donnée) de zones dont la superficie est équivalente aux espaces soumis à une future urbanisation. Bien qu’il soit trop tôt pour en dresser le premier bilan, cette mesure corrective semble faire un pas en avant, même si elle ne consiste pas à élaborer de véritables schémas nationaux et régionaux d’occupation des sols (comme les périmètres d’inconstructibilité décrétés dans les parcs naturels). Néanmoins, le ZAN consacre la prise de conscience par les pouvoirs publics de la crise environnementale déclenchée par l’étalement urbain et la nécessité d’une relocalisation économique et résidentielle dans les centralités urbaines existantes. Aujourd’hui, un nombre croissant d’architectes, d’urbanistes ou d’universitaires défendent à l’inverse la densification des villes comme contre-modèle écologique à l’artificialisation des sols : il faudrait « faire la ville sur la ville », voire préférer la verticalité à l’horizontalité pour mettre un terme à la périurbanisation. Les organismes d’État s’en sont fait une courroie de transmission privilégiée, comme l’Agence de la transition écologique (ex-ADEME) qui y a consacré un de ses Cahiers techniques pour l’approche environnementale de la ville en 2015[4]. En somme, il ne s’agit pas seulement de réoccuper des bâtiments désaffectés, mais aussi de surélever le bâti ancien, remplir les dents creuses (espace vide entre deux parcelles bâties), voire démolir de l’habitat à faible hauteur pour reconstruire à plus grande hauteur sur une même parcelle. Or l’idée de construire la ville sur elle-même pour résoudre le mal-logement des Français et résorber l’étalement périurbain engage trois grandes difficultés. En premier lieu, les centres-villes denses de plus de 5000 habitants/km2 courent un risque de surdensification qui dégrade significativement le bien-être de ses résidents (assombrissement des cours et des intérieurs, promiscuité, bruit, vis-à-vis), jusqu’à détériorer l’hygiène en créant

Par Bianco D.

24 mai 2022

Quand la politique d’austérité conduit à dégrader volontairement le contrôle fiscal et l’efficacité de la lutte contre la fraude

Introduction La politique économique d’un pays s’articule autour de quatre leviers : Le levier réglementaire permet d’agir sur ce que les acteurs publics et privés sont autorisés à faire ; Le levier monétaire permet de financer les acteurs publics et privés ; la disponibilité du crédit impacte l’inflation et le chômage ; Le levier budgétaire correspond aux dépenses de l’État, en volume global et en répartition ; Le levier fiscal correspond aux recettes de l’État, en volume et en répartition. Or, pour ce dernier levier, les politiques fiscales des dernières années se sont caractérisées par : Un parti-pris en faveur du patrimoine et de ses revenus, au détriment de ceux issus du travail, notamment : Réforme de l’imposition du patrimoine : transformation de l’impôt sur la fortune (ISF) en impôt sur la fortune immobilière (IFI) : diminution de 71 % des recettes passant en 2017 de 4,2 milliards d’euros à 1,2 milliards d’euros en 2018[1] ; Transformation d’une imposition des revenus mobiliers au barème progressif de l’impôt sur le revenu (IR) à une imposition à un taux proportionnel de 12,8 %, dite « flat tax » ; Diminution progressive du taux normal de l’impôt sur les sociétés (IS) de 33,33 % en 2017 à 25 % en 2022, Une progressivité déclinante (l’effort fiscal demandé à chacun est de moins en moins ajusté en fonction des ressources), Une stabilité en volume dans le temps (contrairement aux idées reçues, le taux de prélèvements obligatoires – à savoir l’ensemble des impôts, cotisations et taxes – n’a évolué que marginalement depuis 25 ans[2]). On peut donc légitimement les interroger sous l’angle de la justice fiscale. Ceci étant dit, cette note va s’intéresser non pas à l’(in)égalité de la charge fiscale entre les citoyens, mais à une autre source d’inégalité : celle qui existe entre les contribuables (citoyens et entreprises) qui respectent leurs obligations fiscales et ceux qui ne les respectent pas. En effet, payer ses impôts, c’est contribuer au financement de l’État, c’est-à-dire à ses missions régaliennes (celles qui sont attachées à la souveraineté de l’État : défense, diplomatie, police, justice, etc.), à ses missions de service public (missions d’intérêt général que le secteur privé ne peut assurer notamment en ce qui concerne la cohérence de la couverture, la continuité du service et l’accessibilité de son prix : éducation, santé, transports, énergie, etc.) et à la nécessaire redistribution des richesses dans un pays où les inégalités augmentent depuis le milieu des années 1990[3] et en particulier les inégalités de revenus primaires[4]. Or, la lutte contre la fraude fiscale est aujourd’hui mise en danger en France par une politique de long terme de contraction des effectifs de la fonction publique. En dégradant les moyens humains de la Direction générale des finances publiques (DGFiP), les gouvernements successifs sont en passe d’affaiblir significativement la capacité de l’État à recouvrer l’impôt. Car sans contrôle fiscal efficace, la probité fiscale des citoyens s’effondre. L’une des causes méconnues de la crise grecque de 2008 était ainsi l’incapacité du gouvernement grec à recouvrer efficacement l’impôt[5]. I – La dégradation progressive des moyens humains de la DGFiP… Qu’est-ce que la DGFiP ? La DGFiP résulte de la fusion en 2008 de la Direction générale des impôts et de la Direction générale de la comptabilité publique. Elle recouvre quatre métiers : La gestion fiscale : il s’agit de l’activité fiscale courante (renseignement et accueil des contribuables, établissement de l’assiette de l’impôt, envoi des avis d’imposition, recouvrement des créances fiscales, traitement des réclamations, etc.) ; Le contrôle fiscal : il s’agit de l’activité fiscale répressive. Le système fiscal français étant un système déclaratif (l’impôt est établi sur la base des données déclarées par les contribuables), il est nécessaire de vérifier si ces déclarations ont été sincères ; La comptabilité publique d’État : tenue des comptes de l’État, contrôle et paiement de ses dépenses, recouvrement de ses recettes non fiscales ; La comptabilité publique locale : les mêmes missions en faveur des collectivités territoriales. Les proportions des effectifs affectés à chaque métier sont très stables sur la période observée (2010-2020). À l’issue de celle-ci, elles étaient les suivantes[6] : Soit environ 42 % des agents sur la mission gestion fiscale[7], 9 % des agents sur la mission contrôle fiscal externe[8], 19 % des agents sur la mission comptabilité locale, 8 % sur la mission comptabilité d’État et les 22 % restants répartis dans des fonctions transversales. La cécité des politiques libérales La fonction publique française a été stigmatisée, depuis des décennies, comme étant hypertrophiée, inefficace et trop coûteuse pour l’État[9]. Ce discours dogmatique répond à une orthodoxie libérale dans la lecture de l’économie : depuis Thatcher et Reagan, le meilleur État, c’est l’État atrophié, qui se désengage au maximum de ses missions non régaliennes, privatise les services publics et encourage la déréglementation de la sphère économique et financière. Dans cette optique, l’État s’avère incapable d’apprécier la fonction publique comme le secteur économique présentant les plus fortes externalités positives, pour ne plus la percevoir qu’en termes de coûts. Ainsi, quand on calcule le PIB selon la méthode des valeurs ajoutées, l’administration retient le principe de valoriser les biens ou services qu’elle produit aux coûts des facteurs de production (ce qui est assez proche du montant des salaires versés). Le PIB produit par les enseignants est donc égal au salaire que l’État leur verse[10]. L’idée même de production de valeur disparaît. Cette logique, si elle transversale dans toute la fonction publique, est particulièrement prégnante à la DGFiP, ce qui conduit à cette absurdité : comme les agents de la fonction publique représentent un coût, il en faut le moins possible… y compris dans le ministère où leur rôle consiste à sécuriser le recouvrement des impôts, c’est-à-dire la majorité des recettes de l’État. Imaginez une entreprise qui, pour augmenter sa marge, opère des coupes dans son service de recouvrement. Cette stratégie vous paraît-elle viable ? Nous observons que sous l’impulsion de ces politiques, les effectifs de la DGFiP ont baissé en volume (1.1) et le que ministère a perdu en attractivité (1.2). 1 Des effectifs en contraction continue Comme on va le voir ci-après, les effectifs de la

Par Faïve S.

25 avril 2022

Un système de couverture santé qui organise dans les faits une inégalité financière d’accès aux soins

Le préambule de la Constitution, partie intégrante du bloc constitutionnel, pose le principe d’une « protection de la santé » garantie pour tous. L’Assurance Maladie confère à l’égalité d’accès aux soins la valeur de « principe fondateur » et considère qu’il s’agit de la « première de ses missions au quotidien ». Enfin le Code de la santé publique rappelle dans son article L1110-1-1 que « l’égal accès de chaque personne aux soins nécessités par son état de santé » doit être « garanti ». On peut en inférer l’idée que l’accès aux soins est reconnu par notre société comme un droit fondamental. Pourtant l’inégalité d’accès aux soins est une réalité en France. Elle recouvre plusieurs phénomènes dont les effets s’additionnent le plus souvent avec des conséquences importantes en matière de niveau de santé et d’espérance de vie. Celle d’un ouvrier est inférieure de plus de 6 ans à celle d’un cadre. L’évolution de la démographie médicale et l’organisation territoriale de l’offre de soins sont deux facteurs explicatifs assez bien identifiés, dont les médias commencent à s’emparer, contribuant pour une large part à la multiplication des « déserts médicaux » phénomène qui ne se limite pas aux seules zones rurales mais touche aussi les zones péri-urbaines. Les chiffres parlent d’eux-mêmes : le département de la Seine-Saint-Denis compte en moyenne 50 praticiens pour 100000 habitants (unité retenue pour la mesure de la densité médicale) contre 119 pour les Alpes-Maritimes[1]. Le nombre de généralistes en « activité régulière » a baissé de l’ordre de 10 % depuis 2010 (20 % pour les territoires les moins favorisés), évolution qui devrait, à court terme, s’accélérer, de nombreux praticiens arrivant à l’âge de la retraite[2]. Selon l’Assurance Maladie, plus de 6 millions de Français n’auraient pas de médecin traitant. Près de 1 médecin traitant sur 2 refuse de nouveaux patients[3]. Notre système de santé se caractérise par une liberté d’installation pour les professionnels de santé et par le libre choix pour le patient de son médecin avec comme conséquence une inégale répartition de l’offre de soins sur le territoire. 30 % de la population résident aujourd’hui dans une zone sous-dotée contre seulement 8 % en 2012[4]. La suppression du numerus clausus, la création de communautés professionnelles territoriales de santé et le recrutement d’assistants médicaux, mesures reprises par le projet de loi relatif à l’organisation et à la transformation du système de santé, adopté en dernière lecture par le Sénat en juillet 2019 constituent des éléments de réponse positifs mais très partiels au regard de l’ampleur du sujet qui exige une réponse systémique et globale et non au coup par coup. L’inégalité d’accès aux soins relève aussi de déterminants socio-économiques et en particulier financiers dont le périmètre et les effets sont, quant à eux, assez mal appréhendés, souvent sous-estimés voire méconnus. À la différence des facteurs démographiques et territoriaux qui touchent l’ensemble d’une population donnée, les causes de nature financière ciblent les plus démunis. On rétorquera que de nombreux dispositifs visent à la généralisation de la protection maladie. Mais, nous verrons que, dans les faits, ils ne corrigent qu’imparfaitement l’inégalité analysée sous l’angle de l’effort financier en proportion du revenu. Citons la Protection Universelle Maladie (PUMA) qui élargit l’ouverture de droits à tous les résidents réguliers ou stables, la généralisation de la couverture complémentaire santé d’entreprises au bénéfice des salariés du privé, la réforme dite du 100 % santé pour les prothèses dentaires, l’optique et les audioprothèses, enfin la Complémentaire Santé Solidaire (ex-CMU-C et ACS fusionnés en 2019), conditionnée à un plafond de ressources. Ils constituent autant de matériaux d’un édifice d’ensemble qui ne peut être que très protecteur pour tous les Français. Or, le coût cumulé d’une couverture complémentaire et du reste à charge pour les ménages les plus démunis pèse lourdement. Le renoncement aux soins pour des raisons financières concerne, selon l’enquête « Statistiques sur les ressources et conditions de vie » de l’Insee réalisée en 2017, plus de 1,6 million de personnes[5]. Si cette enquête mériterait sans doute d’être actualisée notamment pour tenir compte de l’effet des dernières mesures prises comme le 100 % santé qui vise en particulier des domaines concernés par le renoncement aux soins, ce dernier continue, pour des raisons d’ordre financier, d’être une réalité en France . Le choix a été fait de ne pas traiter l’ensemble des facteurs explicatifs de l’inégalité d’accès aux soins mais de se concentrer sur les seuls déterminants socio-économiques et plus précisément financiers, en particulier ceux liés : au modèle des complémentaires santé qui se distingue fortement de celui de l’assurance maladie obligatoire, modèle porté par des acteurs de marché appartenant de moins en moins à l’économie sociale et solidaire et répondant de plus en plus aux règles du monde de l’assurance, à l’existence d’un taux de reste à charge, en proportion des revenus, plus élevé pour les ménages les plus modestes et en particulier ceux appartenant au premier décile. Structurer un système fondé sur une privatisation progressive de la couverture complémentaire santé, assurant la prise en charge de plus de 37 milliards d’euros de dépenses, et sur un reste à charge de l’ordre de 20 milliards d’euros laissé aux assurés, est un choix de société et non une fatalité, avec pour conséquence une rupture dans l’égalité d’accès aux soins au détriment des ménages les plus modestes. L’évolution du financement et de la structure des recettes de la branche maladie sera aussi abordée dans le sens où elle rend compte d’une transformation dans la nature même des prélèvements sociaux au profit d’une imposition au profil de plus en plus dégressif. La première partie sera essentiellement consacrée à une présentation synthétique des données chiffrées les plus récentes pour une meilleure compréhension des grands types de mécanismes de prise en charge des dépenses de santé, de la place et du rôle des différents acteurs, notamment en termes de contribution à la couverture des dépenses de santé. Ensuite, un regard sera porté sur les évolutions de notre propre système, leurs sous-jacents politiques, en insistant sur les mesures et les tendances les plus récentes. Nous mettrons en évidence la dynamique de privatisation partielle du système de santé, qui s’est renforcée dans

Par Moutenet P.

14 avril 2022

    Partager

    EmailFacebookTwitterLinkedInTelegram