Le laboratoire d’idées de la reconstruction écologique et républicaine

Industrie et technologies

De la Bulle Internet (1999-2000) à la bulle Internaute (2020-2021) ? Une ouverture vers une autre économie

En janvier dernier, l’Institut Rousseau s’associait au réseau SDSN (Sustainable Development Solutions Network) et à l’Alliance PocFin (Post-Crisis Finance Research Network) pour lancer un appel à contributions, sous forme de « policy briefs », intitulé « Quelles réformes économiques et financières pour l’Agenda 2030 ? » Trois mois plus tard, nous avons reçu de nombreuses contributions très intéressantes incluant des propositions de réformes comptables, budgétaires, financières, monétaires ou relatives à la gouvernance des entreprises qui permettraient d’atteindre nos objectifs environnementaux et sociaux. Nous entreprenons désormais la publication de ces contributions, chaque lundi, en attendant l’organisation d’un grand événement, en juin 2021, qui permettra de mettre en valeur ces travaux et de donner la parole à leurs auteurs. La série de Policy Briefs Agenda 2030 mobilise économistes et praticiens pour identifier un agenda de réformes économiques et financières permettant d’atteindre l’Agenda 2030, aux échelons territoriaux, nationaux et supranationaux. Pour cette note, nous remercions Thomas Lagoarde-Segot et Roland Pérez pour leur relecture et commentaires. La série de Policy Briefs Agenda 2030 mobilise économistes et praticiens pour identifier un agenda de réformes économiques et financières permettant d’atteindre l’Agenda 2030, aux échelons territoriaux, nationaux et supranationaux. Contacts : thomas.lagoardesegot@kedgebs.com, david.bourghelle@iae.univ-lille1.fr et jacques.ninet@laposte.net Télécharger le policy brief en pdf Download the policy brief as a pdf Introduction Ce policy brief examine la dynamique des marchés boursiers depuis l’apparition de la pandémie Covid-19 et son possible rôle dans l’émergence d’un « après » radicalement renouvelé. Dans la première partie, rédigée mi-février, nous évaluons la probabilité que des bulles sectorielles se soient formées, principalement mais pas uniquement sur les marchés américains. Dans la seconde nous envisageons les conséquences que pourrait avoir une crise financière majeure sur la remise en cause du modèle de croissance carbonée et fortement inégalitaire qui régit le monde occidental. 1. Bulle or not bulle ? Depuis leur chute impressionnante de février-mars 2020, provoquée par l’irruption de la pandémie, tous les marchés boursiers ont réagi de manière positive mais avec des dynamiques de rebond diverses. Si les places européennes ont tout juste regagné le terrain perdu, certaines bourses asiatiques (Japon, Taiwan, Inde) et les marchés américains sont entrées dans une phase que l’on peut qualifier d’euphorique ou exubérante au point que la question de la formation de bulles peut légitimement se poser. D’autant plus légitimement que le NYSE et le Nasdaq qui viennent de terminer en fanfare leur douzième année de hausse depuis le trou consécutif à la crise des subprimes et qui ne semblent pas vouloir en rester là, sont les marchés directeurs de la planète. Source : https://www.reuters.com/markets/us Bien qu’il n’existe aucune définition d’une bulle financière –et que la théorie financière moderne et ce qu’il est convenu d’appeler la doctrine Greenspan se refusent à en dresser le constat avant son éclatement- on peut se risquer à en dessiner quelques aspects caractéristiques. Une bulle d’actif apparaît le plus souvent comme la phase terminale d’une longue séquence haussière, phase pendant laquelle les cours de bourse s’affranchissent nettement de leurs relations habituelles avec les données économiques, micro et macro, selon une métrique bien connue (ratios de capitalisation boursière sur profits, chiffre d’affaires ou actif net, d’une part et capitalisation boursière/PIB d’autre part). C’est aussi une période pendant laquelle les rendements attendus des actifs sont de plus en plus déterminés par la plus-value escomptée à la revente et de moins en moins par les revenus courants, loyers, dividendes et coupons, dont le taux de rendement diminue à mesure que les prix s’élèvent. 1.1 Une Survalorisation des cours boursiers aux plans micro et macro-économique ? Le tableau ci-dessous dresse le constat peu discutable de forte valorisation des cours boursiers actuels. Les achats à crédits restent en ligne avec la progression des cours, loin de leur record de 2008. Ils n’en n’ont pas moins explosé en 2020 (+42% soit 235 Md USD). Source : calcul des auteurs Ainsi, par exemple, peut-on observer l’accroissement significatif, et sans commune mesure avec les épisodes de 2000/2001 et 2007/2008, de la capitalisation boursière de l’indice Wilshire 5 000[1] rapportée au PIB US (+ de 3 écart-types au-dessus de sa moyenne de long terme). https://www.longtermtrends.net/market-cap-to-gdp-the-buffett-indicator/ Enfin, les traditionnels indicateurs de valorisation à base de Price Earning Ratio (P.E.R) , de rendement ou de dividendes indiquent également des niveaux de valorisation se rapprochant dangereusement des niveaux atteints à la veille de l’éclatement de la bulle internet. Ainsi, le Shiller P/E Ratio (ou CAPE pour cyclically adjusted price to earnings), calculé sur la base de la moyenne mobile sur dix ans des bénéfices nets par action (BPA) ajustés de l’inflation se situe à environ 35, bien au-delà de sa moyenne historique de 16,7 fois et de son niveau de 32,6 observé en septembre1929. Dans ces conditions, les rendements en bénéfices et en dividendes atteignent des niveaux très proches de leurs niveaux bas historiques. https://www.multpl.com/ 1.2 Les éléments récurrents présidant à la formation des bulles Il est généralement objecté à cette analyse que les conditions monétaires qui prévalent (taux zéro ; quantitative easing) rendent les comparaisons avec les moyennes /médianes historiques non significatives. Et, surtout, que les montants gigantesques apportées par la puissance publique à l’ensemble des Agents non-financiers à travers les plans de relance successifs expliquent à la fois la résilience surprenante de l’économie américaine (par effet retour de la richesse créée par la hausse du prix des actifs) et l’engouement des (nouveaux) épargnants pour les placements à risque dans une optique de recovery générale. Face à ces arguments avancés à chaque fois que l’on prétend que ‘‘this time is different’’ une brève revue des conditions de notre époque s’impose pour vérifier leur adéquation aux six caractéristiques communes à tous les cycles bull/krach de l’histoire, tels qu’identifiés par Minsky et décrits par Kindelberger (1978)[2]. -le changement d’état : l’achèvement de la globalisation et de la numérisation de l’économie ; le monopole des GAFAM -le progrès technique à portée universelle : l’IA, les biotechnologies, la voiture propre -la complaisance générale : elle aurait été plutôt remplacée par une dichotomie entre exubérance financière et scepticisme généralisé (le niveau de la volatilité implicite des options restant plus élevé

Par Ninet J., Bourghelle D.

10 mai 2021

L’hydrogène bas carbone au service de la transition

La France et l’Allemagne ont conjointement fait, dans le courant de l’été 2020, des annonces concernant leur stratégie hydrogène. Ces annonces signalent un nouvel horizon pour l’hydrogène. La France a ainsi annoncé un investissement de 7 milliards d’euros avec l’objectif d’une capacité de 6,5 GW d’électrolyseurs installée à horizon 2030. On rappelle qu’à l’été 2018 le Plan Hulot, pourtant défendu par un ministre très combatif pour les questions environnementales, ne prévoyait que 100 millions d’euros pour déployer l’hydrogène bas carbone dans l’industrie, les mobilités et l’énergie.

Par Mante F.

21 avril 2021

Pourquoi le low-code est-il le symptôme d’un numérique à outrance ?

Les services et produits numériques ont bouleversé notre manière de communiquer et de consommer. Dans un monde hyper connecté, la digitalisation s’est imposée comme une norme permettant de créer de nouvelles expériences répondant aux prétendus besoins de fluidité et d’immédiateté des utilisateurs, au point que le numérique a dépassé son statut de moyen et est devenu une fin en soi, comme en témoigne par exemple l’explosion du nombre de services et d’appareils connectés. Cette rhétorique développée par les géants du numérique tend d’une part à mettre un terme aux discussions internes[1] aux entreprises de cette industrie et d’autre part à occulter la dégradation dramatique de l’environnement[2] et celle des conditions de travail du nouveau prolétariat[3] sur lequel reposent ces « innovations ». Cet impératif d’innovation, qui impose une itération à haute cadence de la part des concepteurs et une mise sur le marché rapide, rend difficile la prise de recul et la réflexion sur les produits et services développés et sur les outils mêmes utilisés pour ces développements. Pourtant, si la répartition des impacts du numérique à l’échelle mondiale impute 45 % de la consommation énergétique à la production et à la fin de vie de nos terminaux, supports réseaux et centres informatiques, les 55 % restants sont dus à l’utilisation de ceux-ci[4]. Cette note vise à questionner la partie proprement immatérielle de notre environnement numérique : celle du code et en particulier du low-code, qui nous semble être un angle inexploré de l’étude des impacts environnementaux, économiques et sociaux du numérique. Compte tenu du rythme de pénétration des équipements numériques et des opportunités de marché associées, il est apparu nécessaire pour les entreprises (petites et grandes) de faciliter l’accès à des outils de développement informatique à l’extérieur de leurs services informatique et technologie (IT). Ainsi, dès le début des années 1990, Microsoft lance le mouvement « low-code » avec le Visual Basic. Il s’agit d’un langage de programmation qui ambitionne de développer plus rapidement des applications en disposant visuellement des composants, en définissant des propriétés et des actions associées à ces composants, et en ajoutant quelques lignes de code pour en préciser les fonctionnalités. Plus généralement, une plate-forme de développement low-code est un logiciel qui fournit un environnement visuel aux programmeur·euses et aux développeur·euses dits « citoyen·nes » pour créer une application mobile ou Web. Le terme « citoyen » est un faux ami qui provient de l’anglicisme consacré « Citizen Development ». Il désigne une approche du développement logiciel nécessitant peu, voire pas du tout, de connaissance en langage informatique. Grâce au low-code, cette nouvelle classe de développeurs peuvent ajouter et agencer des composants d’application préexistants par glisser-déposer et les connecter entre eux au moyen d’interfaces graphiques ; et ainsi se passer de programmation informatique traditionnelle. Finie, donc, l’écriture de code en tant que telle. Les champs d’opportunité du low-code sont aujourd’hui décuplés par l’explosion des offres de cloud computing qui offrent une puissance de calcul accrue et une possibilité de développement collaboratif, permettant aisément à des collaborateur·rices de travailler simultanément au développement d’une même application à partir de briques déjà conçues. Les environnements low-code permettent le développement, le déploiement, l’exécution et la gestion rapide d’applications reposant sur un paradigme de programmation déclaratif, c’est-à-dire qui décrit le résultat final souhaité plutôt que les étapes nécessaires pour y accéder. Ces étapes sont établies de manière automatique par des algorithmes. Dans un contexte où le marché du low-code s’agite et où cette technologie connaît un essor certain, avec en particulier le renforcement des positions des GAM (en effet, Apple et Facebook ne semblent pas, pour l’instant, désireux d’entrer dans le bal), cette note se veut initiatrice d’une réflexion autour, d’une part, des enjeux de sécurité, de gouvernance et de dépendance aux fournisseurs (souvenons-nous seulement de l’émoi suscité par la panne des services de Google survenue le 14 décembre dernier) et d’autre part son rôle dans l’alourdissement de la note écologique déjà salée du numérique mondial. NB : Il est important de relever qu’il existe une différence entre le low-code et le no-code, en particulier quant aux publics ciblés : si le no-code s’adresse à des auteurs plus novices (les développeur·euses citoyen·nes), n’ayant aucune connaissance en code et permet de développer des applications métier, le low-code reste plus complexe et s’adresse à des développeur·euses plus aguerri·es car il nécessite quand même la rédaction de code (jusqu’à 10 % du projet de développement, et souvent les parties les plus techniques). Cependant pour les problématiques discutées aujourd’hui, ces deux technologies sont assimilables. Nous pourrons tout de même noter que les questions soulevées sont d’autant plus préoccupantes pour la technologie no-code qu’elle ne nécessite aucun prérequis technique.   I. Un secteur prometteur   Le marché du low-code connaît depuis plusieurs semestres des taux de croissance impressionnants. Paul Vincent, directeur de recherche et d’analyse chez le géant du conseil américain Gartner, prévient : « Aujourd’hui, toutes les entreprises ont mis au point une stratégie cloud, demain elles auront aussi toutes une stratégie de développement low-code »[5]. a) Un produit attirant Selon les études de l’analyste ResearchAndMarkets en 2017, le marché du low-code pesait plus de 4 milliards de dollars dans le monde et dépassera les 27 milliards de dollars en 2022[6]. Ces chiffres sont confirmés par une deuxième étude plus récente, selon laquelle le marché des outils no-code/low-code atteindra les 45,5 milliards de dollars en 2025[7]. Gartner complète ces analyses en suggérant que la propagation du télétravail liée à la pandémie de Covid-19 favorise la poussée du développement à distance et renforce la nécessité d’outils de développement collaboratif. De nombreuses entreprises seront encore amenées à se tourner en 2021 vers des plate-formes de développement low-code pour déployer leurs programmes d’innovation et de transformation numérique[8]. Enfin, toujours selon Gartner, d’ici 2024 près de 65 % de toutes les applications développées le seront grâce à des plate-formes de développement low-code[9]. À plusieurs égards, ces produits présentent des avantages et offrent des perspectives de croissance pour les entreprises. La logique de compétitivité et de concurrence du marché dicte aux entreprises et aux organisations, d’une part, une

Par Leclercq V.

1 avril 2021

Câbles sous-marins : les nouveaux pouvoirs des géants du numérique

Début août, une grue sous-marine travaillant à la collecte de sable dans la baie de Kuakata a heurté un câble sous-marin de télécommunications, se traduisant par une perte de 40 % de la vitesse du réseau internet du Bangladesh. En juillet dernier, la Somalie a été totalement privée d’Internet pendant plusieurs heures en raison d’une opération de maintenance à distance du câble sous-marin dénommé « EASSy » qui relie la côte est-africaine au réseau. Ces événements ne sont pas anodins à l’échelle d’un pays : les banques, les compagnies aériennes, les entreprises, les médias et certains services gouvernementaux sont dépendants d’Internet pour fournir leurs services. Aujourd’hui, 98 % des données numériques mondiales circulent par les câbles sous-marins. C’est par exemple le cas du principal système d’échanges de la finance mondiale de la Society for Worldwide Interbank Financial Telecommunications (SWIFT) qui dépend de la vitesse de ces câbles à fibre optique. Le numérique repose ainsi sur une infrastructure bien réelle : on dénombre aujourd’hui 436 câbles sous-marins de télécommunication, dont 25 traversent l’océan Atlantique et 22 le Pacifique[1]. Passerelles intercontinentales entre les différents réseaux filaires nationaux, les câbles sous-marins débouchent sur des stations d’atterrissement situées en région côtière. La France compte, par exemple, 13 stations d’atterrissement sur son territoire côtier connectant les réseaux filaires nationaux à 23 câbles sous-marins. Ces “routes du fond des mers”, selon l’expression de Florence Smits et Tristan Lecoq en 2017[2], sont les héritiers des premiers câbles télégraphiques du XIXe siècle dont l’emploi permit, en 1858, l’envoi du premier message télégraphique officiel par la reine Victoria au président américain James Buchanan. Le message de 509 lettres avait alors mis 17 heures et 40 minutes à traverser l’océan Atlantique. Aujourd’hui, la fibre optique permet un acheminement de l’information en temps quasi-réel. L’importance qu’a prise l’activité numérique dans nos sociétés contemporaines fait inévitablement des câbles sous-marins des infrastructures vitales au niveau mondial. Pourtant, les chantiers de construction, le développement et l’égalité d’accès au réseau ne font l’objet d’aucune décision multilatérale. Ces infrastructures essentielles sont la propriété d’entreprises qui louent des capacités de bande passante aux acteurs gérant les réseaux télécoms nationaux. Soumis aux aléas du marché et à la loi du plus fort, les câbles sous-marins deviennent progressivement la propriété d’une minorité d’acteurs qui disposent ainsi d’un pouvoir et d’une influence grandissantes sur les États et les entreprises. L’émergence de nouveaux acteurs est d’ailleurs venue bouleverser les équilibres. Si les propriétaires historiques des câbles sous-marins étaient les entreprises privées ou publiques des télécoms, les géants du numérique ont, depuis 2016, massivement investi et possèdent ou louent aujourd’hui plus de la moitié de la capacité des câbles sous-marin. En outre, la stratégie de développement des géants du numérique diffèrent des collectifs traditionnels. Aux grands consortiums, ceux-ci préfèrent des regroupements plus réduits qui leur permettent de conserver le monopole décisionnel. Alors que le projet Africa Coast to Europe (ACE), ouvert en 2012, appartient à un consortium de 19 entreprises des télécoms, le câble MAREA reliant les États-Unis à l’Espagne n’appartient qu’à Facebook, Microsoft et Telxius. Le chantier colossal 2Africa de Facebook et déployé sur tout le pourtour du continent africain n’est porté que par huit acteurs. Google va encore plus loin : le géant a aujourd’hui les capacités financières et techniques de faire construire ses propres câbles. Ainsi, le câble Dunant qui relie depuis janvier 2020 les États-Unis et la France appartient en totalité à Google. L’entreprise déploie également le titanesque câble Equiano qui bordera toute la côte ouest du continent africain, faisant ainsi concurrence au projet 2Africa. Google possède ainsi le service et l’infrastructure qui le sous-tend, créant des situations de forte dépendance technologique pour les États, les entreprises et les usagers. Les géants américains ne sont d’ailleurs pas les seuls à user d’une stratégie de conquête sous-marine. Le chinois Hengtong a pu compter sur le soutien des banques et entreprises nationales chinoises, dont la China Construction Bank, pour lancer son projet Pakistan & East Africa Connecting Europe (PEACE) qui reliera le Pakistan, la côte est africaine à la rive sud de la Méditerranée par le canal de Suez, pour finalement atterrir à Marseille. PEACE permettra aux géants chinois Baidu, Alibaba, Tencent et Xiaomi de développer leurs activités en Afrique et en Europe. Ces stratégies de développement préfigurent un nouveau pouvoir pour les géants du numérique : ils acquièrent à la fois l’accès à un marché industriel gigantesque ainsi qu’une capacité d’influence importante sur les États et sur les entreprises des pays qui ont un accès précaire à ces infrastructures aujourd’hui. L’Afrique et le Moyen-Orient représentent dès lors pour les géants du numérique un potentiel de développement considérable. En effet, ces pays n’ont que très peu accès aux câbles, ce qui les rend vulnérables en cas de rupture de ceux-ci. En apportant sur le continent africain des infrastructures facilitant leur accès aux activités numériques, Equiano et 2Africa sont considérés comme d’importants leviers de développement économique. Mais dans le même temps, ils acquièrent la capacité d’influencer directement l’offre de services numériques dans ces pays. S’imposent ainsi des acteurs hégémoniques dotés d’un monopole technologique et infrastructurel inédit à l’échelle mondiale. Ce monopole sert les capacités de négociations et d’influence de ces entreprises dont les cabinets de lobbying sont déjà implantés dans tous les centres de pouvoirs politiques et économiques. À l’échelle de l’Union européenne, Microsoft (Havas, Com, Publics, Plead), Google (Commstrat, Image7) ou encore Facebook (Burson Marsteller I&E, Lighthouse Europe) sont en discussion constante avec le législateur en matière de droit du numérique[3]. Cette configuration de concurrence monopolistique s’inscrit en contre de la théorie libérale d’un marché qui s’équilibre par défaut, et accentue au contraire un phénomène de « capture » du régulateur. Ciblant d’abord les politiques en matière de numérique, leur influence s’étend progressivement vers d’autres secteurs clés où leurs technologies se développent : la sécurité, la défense ou encore le domaine de la santé[4]. Cette prédation doit nous alerter et nous amener à réduire, dans chaque domaine où cela est possible, le pouvoir d’influence de ces acteurs privés sur les États et

Par Ophélie Coelho

26 août 2020

L’urgence d’une indépendance numérique révélée par l’urgence sanitaire

Dans la gestion de la crise actuelle, la place accordée aux technologies du numérique a été au cœur de nombreux débats. En particulier, la question de l’accès aux données personnelles est devenue centrale dans les échanges autour du traçage des contacts et du partage des données de santé. Mais la crise a également révélé des fragilités majeures dans notre politique de gestion de ces données, en questionnant notamment l’attribution de la plateforme des données de santé à l’entreprise Microsoft. En outre, la crise a accéléré le recueil et l’exploitation de ces données, sans prendre en compte les conséquences futures de cette captation. Il devient ainsi impératif de se poser la question des répercussions à long terme des décisions prises aujourd’hui. Il faut également nous interroger sur les grands enjeux qui se cachent derrière nos choix numériques afin de mieux lancer les chantiers de long terme que nous impose ou que devrait nous imposer aujourd’hui la géopolitique du numérique.   Introduction   Nos données numériques apportent quantité d’informations sur nous-mêmes, mais aussi sur l’état de notre société, sur ses atouts et ses fragilités. Derrière des applications anodines circulent en effet des données sur l’état de santé de la population, des indices sur sa réalité sociale, sur l’état de ses infrastructures routières ou encore des informations, parfois sensibles, sur ses activités économiques et politiques. Selon l’usage que l’on fait de ces informations, l’impact sur la société peut être bénéfique ou néfaste. La mathématicienne Cathy O’Neil nous alerte par exemple sur l’usage des données dans l’éducation, la justice en passant par le commerce ou la santé, les organismes sociaux ou les assurances[1]. Les données de santé sont par exemple un trésor pour les compagnies d’assurance qui, si elles y accèdent, peuvent définir des profils de clients à risque pour adapter leur proposition commerciale, accentuant ainsi certaines inégalités face à la santé. C’est pourquoi il ne faut pas prendre à la légère les enjeux qui se cachent derrière le numérique et la circulation des données. Par ailleurs, ces données sont aussi la matière première des technologies d’apprentissage automatique, souvent regroupées autour du terme « intelligence artificielle », et sur lesquelles reposent de nombreuses innovations technologiques telles que la reconnaissance faciale ou la voiture autonome. Les entreprises et les États trouvent un intérêt évident dans la course à ces données massives qu’ils peuvent utiliser pour développer des technologies de pointe dédiées à des secteurs variés, tels que le contrôle aux frontières, la sécurité, la santé, la justice ou le militaire. Dans le domaine de la santé, au cœur de cette note, les données sont nécessaires si l’on souhaite développer les technologies de machine learning qui permettent d’accompagner la recherche médicale et d’améliorer les outils des praticiens. À ce titre, elles sont déterminantes dans le développement de ce tissu industriel. Mais elles sont aussi éminemment stratégiques : la surveillance des données de santé à l’échelle d’un pays donne une carte d’identité précieuse qui révèle les fragilités d’un système de santé, celles des individus, et permet d’orienter des décisions économiques, politiques voire militaires. La Direction générale de la sécurité intérieure (DGSI) alertait d’ailleurs, dès 2018, sur l’acquisition par les entreprises américaines de plusieurs sociétés françaises expertes dans le traitement de ce type d’informations, et notamment la branche dédiée à la gestion des données clients et stratégiques de Cegedim, acquise par IMS Health en 2015. L’administration s’inquiétait alors de la captation, par « des entités tant publiques que privées », d’informations stratégiques et orientant la politique économique des États-Unis vis-à-vis des industries françaises[2]. Un an plus tard, Microsoft Azure fut désigné, sans passage par un appel d’offre, comme prestataire principal de la Plateforme des données de santé des Français, baptisée Health data hub[3]. Cet hébergeur, qui propose également des services d’analyse, accélère sa captation de données dans l’urgence de la crise sanitaire. En matière de géopolitique des données, la gestion de la crise actuelle agit ainsi comme un formidable révélateur de notre dépendance extérieure dans le domaine du numérique appliqué à la santé. Face aux enjeux d’indépendance numérique et de protection des données qui se posent, de grands et longs chantiers seront nécessaires. Cette note propose d’apporter quelques pistes de réponses sur la manière de les engager.   1. Penser le numérique relève d’une approche transversale qui s’applique à l’analyse de la gestion des données numériques en santé   Penser le numérique, notamment dans un secteur aussi essentiel et structurant que la santé, nécessite une approche transversale qui prenne en compte plusieurs couches de l’activité numérique. En 2016, la politologue Frédérick Douzet proposait trois « couches du cyberespace » : la couche physique, logique et sémantique[3]. Le schéma ci-dessous s’inspire de ce modèle, mais propose un échelonnage à quatre niveaux des technologies, hiérarchisées selon leur rôle dans l’activité numérique : les socles matériels sans lesquels aucune activité numérique n’est possible, composés des infrastructures mais aussi du matériel informatique et mobile ; les applicatifs codés, c’est à dire les OS, les logiciels ou les algorithmes, les sites internet, les applications ; les données dont les flux circulent entre applicatifs et socles ; les usages, qui définissent les manières de vivre dans et avec le numérique. Cette approche transversale donne une place particulière à la dimension matérielle, dans un domaine où très souvent le virtuel et le vocabulaire qui l’accompagne, du cloud au data lake, fabrique un imaginaire qui donne l’impression d’un effacement des frontières physiques et géographiques. Comme l’énonce Amaël Cattaruzza, « les processus de datafication nous obligent à modifier nos approches et nos interprétations et à reconsidérer le concept clef de la géopolitique, à savoir le territoire »[4]. Ainsi, ce n’est pas parce que nos données sont numériques qu’elles ne suivent pas un parcours, qu’elles n’ont pas un lieu de production et de destination, et que les enjeux de leur captation ne renvoient pas à des réalités géopolitiques. Or, la stratégie numérique en matière de données de santé concerne chacune de ces couches. Elle pose d’abord la question des socles matériels, qui correspond à la « couche physique

Par Ophélie Coelho

20 mai 2020

Gérer les grandes infrastructures dans l’intérêt commun en période de crise

Essentielles dans le cadre du développement économique et social des sociétés industrialisées, les grandes infrastructures constituent un patrimoine collectif aujourd’hui invisible aux yeux des populations et dont les services délivrés sont devenus bien acquis. Pourtant, ces structures, points d’intérêt vital pour la nation française, le sont d’autant plus en période de crise car leur défaillance a souvent de tragiques conséquences et l’après-crise ne peut se faire sans elles. Cette dépendance accrue de nos sociétés pousse l’ensemble des acteurs de la chaîne à travailler sans cesse sur leur résilience, notamment en apprenant des différentes crises vécues. L’actuelle crise sanitaire ne déroge pas à la règle en portant son lot d’enseignements, notamment en neutralisant partiellement deux ressources critiques pour les grandes infrastructures que sont la disponibilité de ressources humaines et la pleine fonctionnalité du système d’informations. Ainsi, l’augmentation des investissements et une gestion publique de certaines infrastructures semblent apparaître comme des réponses évidentes et immédiates à l’après-crise. Néanmoins, elles ne dispensent pas les sociétés modernes de l’impératif de réfléchir plus globalement à la durabilité de leur modèle et la capacité des infrastructures à y répondre.   Les grandes infrastructures, notamment celles de réseaux (énergie, transports, téléphonie, eau, etc.), tiennent une place essentielle dans le développement économique de nos sociétés. Elles permettent la circulation des personnes, des marchandises, des capitaux, de l’information et constituent un levier de croissance dans de multiples secteurs. Depuis plusieurs années, la transition énergétique, le déploiement du très haut débit et la modernisation des réseaux de transport sont à ce titre au centre des politiques d’investissements de la plupart des pays européens. Elles ont également un rôle social déterminant, en assurant la fourniture de biens et de services contribuant à la qualité de vie des individus. En cela, elles représentent un patrimoine collectif au service de la vie de la nation et des activités humaines, pouvant être qualifiés de « biens communs ». « La France possède un des meilleurs réseaux d’infrastructures au monde » [1], affirmation corroborée par le rapport du World Economic Forum (WEF) de 2016 qui mesure la compétitivité globale de 144 pays à partir de 12 thématiques, et qui avait classé la France au dixième rang mondial pour la qualité de ses infrastructures et au deuxième rang des pays du G20. Héritière de grandes infrastructures de service public édifiées après-guerre grâce aux investissements massifs de l’État [2], la France a développé une forte capacité dans la conception, la gestion et l’entretien de ses infrastructures, se positionnant dans les « premiers pays exportateurs » en la matière [3]. Les infrastructures présentent aujourd’hui un niveau d’intégration tel, avec un fonctionnement régulier, qu’elles disparaissent aux yeux de la population, transformant le service délivré en bien acquis pour l’usager. Cette invisibilité, parfois opportune, véhicule pourtant de nombreux écueils, parmi lesquels l’absence de sensibilisation de la population aux différents enjeux (sécuritaires, financiers, environnementaux, techniques…) attachés à la gestion de ces équipements. Ces derniers réapparaissent à la défaveur d’événements exceptionnels, parfois tragiques [4], qui mettent en lumière la vulnérabilité voire la dangerosité de certaines infrastructures. Afin de se prémunir contre de nouvelles catastrophes, les pouvoirs publics ont conçu et déployé des politiques de prévention et gestion des risques visant à réduire les impacts : des risques d’origine naturelle (crues, séismes, mouvements de terrain, changement climatique sur le plus long terme) ; de la dépendance à d’autres infrastructures et réseaux ; des éléments intrinsèques à leur conception (matériaux, vieillissement, etc.) ; d’exploitation liée à la gestion de flux. Pourtant, il apparaît que le fonctionnement même des sociétés industrialisées rend les infrastructures de réseaux de plus en plus vulnérables aux différents risques : concurrence internationale accrue, méthodes de flux tendus (du « juste à temps » à la limitation des stocks), forte baisse des financements de l’État menée dans une logique d’économies budgétaires [5], etc. L’impératif de continuité d’activité en toutes circonstances interroge quant aux usages et à la dépendance des sociétés industrialisées aux grandes infrastructures.   Table des matières I – L’impérieuse nécessité d’assurer le fonctionnement des grandes infrastructures en période de crise Les infrastructures de réseaux reconnues comme « Point d’Importance Vitale » (PIV) Des vulnérabilités émergentes à la faveur d’une crise inédite II – Les enseignements à tirer de la crise pour un fonctionnement optimisé des grandes infrastructures de réseaux Une gouvernance publique à conforter économiquement dans la gestion des grandes infrastructures Une sobriété des usages à développer pour garantir la résilience des grandes infrastructures     I – L’impérieuse nécessité d’assurer le fonctionnement des grandes infrastructures en période de crise   Les différents types de risques ou catastrophes mettent en jeu de façon constante la résilience des infrastructures et de leurs réseaux.   1. Les infrastructures de réseaux reconnues comme « Point d’Importance Vitale » (PIV)   La définition de la résilience, donnée lors de la définition du cadre d’action de Sendaï [6], est « la capacité d’un système, d’une communauté ou d’une société exposée aux risques de résister, d’absorber, d’accueillir et de corriger les effets d’un danger, en temps opportun et de manière efficace, notamment par la préservation et la restauration de ses structures essentielles et de ses fonctions de base » [7]. C’est précisément parce que les infrastructures de réseaux sont reconnues comme des « structures essentielles » qui concourent aux « fonctions de base » (production, distribution de biens et services indispensables à l’exercice de l’autorité de l’État, fonctionnement de l’économie, maintien du potentiel de défense ou à la sécurité de la nation) qu’ils sont considérés comme « d’importance vitale » [8]. Le dispositif de sécurité des activités d’importance vitale (SAIV) constitue le cadre permettant d’analyser les risques et d’appliquer les mesures cohérentes avec les décisions des pouvoirs publics. Au sein de ce dispositif sont référencés les opérateurs d’importance vitale (OIV), lesquels détiennent des points d’importance vitale (PIV) tels que des établissements, des ouvrages ou des installations fournissant les services et les biens indispensables à la vie de la nation [9]. La délimitation du PIV permet une mise en œuvre plus efficiente du dispositif de SAIV entre l’opérateur et le préfet de département concernant des composants névralgiques indispensables au bon fonctionnement des infrastructures

Par Liguori L.

10 mai 2020

    Partager

    EmailFacebookTwitterLinkedInTelegram