Le laboratoire d’idées de la reconstruction écologique et républicaine

Think-Tank Technologies

L’Institut Rousseau aborde plusieurs domaines, dont un Think-Tank Technologie.
Ce sujet, autrefois réservé aux journaux de geek, devient un transformateur sociétal.
Les technologies façonnent la société, de la capture des données et des influences des réseaux sociaux, aux technologies industrielles disruptives qui peuvent déqualifier un pays économiquement, en passant par le sujet controversé des cryptomonnaies.

Il est urgent d’agir face au développement du marché des cryptoactifs et de séparer le bon grain de l’ivraie Tribune

Français 🇫🇷 | English 🇬🇧 | Deutsch 🇩🇪 | Italiano 🇮🇹 | Español 🇪🇸 Signée par plus de 170 économistes, informaticiens, experts et personnalités scientifiques, cette tribune a pour objectif d’alerter sur les risques croissants, en matière économique, financière, écologique et sociale, liés au développement anarchique des cryptoactifs. Face à l’inaction des États en cette matière, elle introduit également plusieurs principes de régulation pour maîtriser ces risques et poser les bases d’une utilisation saine et responsable des technologies innovantes sous-jacentes à ces cryptoactifs. Pour toute information supplémentaire au sujet de cette tribune et des travaux qui l’accompagnent, vous pouvez écrire à l’adresse : contact@institut-rousseau.fr. Vous souhaitez apporter votre soutien à notre démarche ? Vous pouvez remplir ce formulaire, vous serez ajouté aux signataires. Initiateurs : Nicolas Dufrêne, haut fonctionnaire, économiste et directeur de l’Institut Rousseau Jean-Michel Servet, professeur à l’Institut des hautes études internationales et du développement (Genève) Jean-Paul Delahaye, professeur à l’Université de Lille, informaticien et mathématicien Ont notamment soutenu la tribune : Gaël Giraud, directeur du programme de justice environnementale à l’Université de Georgetown et président d’honneur de l’Institut Rousseau Gérard Berry, Professeur émérite au Collège de France, médaille d’or du CNRS 2014 Michel Aglietta, professeur émérite université Paris Nanterre et conseiller scientifique au Cepii Jean-Louis Desvignes Président de l’Association des Réservistes du Chiffres et de la Sécurité de l’Information (ARCSI) Jean-Gabriel Ganascia, informaticien et philosophe, membre du comité national pilote d’éthique du numérique Alain Grandjean, économiste, entrepreneur et polytechnicien, membre du Haut Conseil pour le climat Serge Abiteboul, chercheur à l’Inria, Membre de l’Académie des Sciences Alain Supiot, juriste, professeur émérite au Collège de France Stéphane Ducasse, Directeur de recherche inria Rachid Guerraoui, professeur à l’École polytechnique fédérale de Lausanne (EPFL), directeur du laboratoire de calcul distribué. Professeur invité sur la chaire annuelle Informatique et sciences numériques du Collège de France. Paul de Grauwe, London School of Economics, John Paulson Chair in European Political Economy Alexandre Rambaud, maître de conférences en comptabilité financière et écologique à AgroParisTech Jacques Dubochet, prof. hon. Université de Lausanne, prix Nobel, chimie 2017 Dominique Plihon, professeur émérite à l’Université Sorbonne Paris Nord François Morin, professeur émérite à l’Université Capitole de Toulouse Pierre Dockès, Professeur émérite de sciences économiques, université Lumière Lyon 2 Didier Roux, Membre de l’Académie des Sciences, Membre de l’Académie des Technologies Découvrir tous les signataires.   La tribune en langue française : Il est urgent d’agir face au développement du marché des cryptoactifs et de séparer le bon grain de l’ivraie Le monde monétaire et financier est actuellement bousculé par l’émergence des cryptoactifs. Avec plus de 2 000 milliards de dollars de capitalisation, ce marché compte désormais plus de 16 000 cryptoactifs et connaît une progression fulgurante depuis quelques années. La capitalisation du seul bitcoin, du fait de l’accroissement de son cours, est aujourd’hui à peu près égale à la masse monétaire du franc suisse. Le phénomène ne doit donc pas être pris à la légère. Par son volume, il questionne aujourd’hui directement l’ordre public financier et l’intérêt général. Or, les autorités n’ont jusqu’à présent pas pris la mesure des risques et des dommages que ce développement pourrait engendrer. Cette inaction s’explique sans doute par la difficulté à saisir la diversité du phénomène. En effet, les milliers de cryptoactifs existants ne sont pas de même nature et n’ont pas le même objet. Certains prétendent constituer des alternatives monétaires globales (Bitcoin) ; d’autres ne servent qu’à faciliter des paiements transfrontaliers (Ripple) ; d’autres encore ne sont que des amusements (Dogecoin). Le développement des actifs numériques permet certes de bousculer certaines pratiques et introduit des innovations utiles comme la possibilité de conclure des « contrats intelligents » grâce à la technologie des chaînes de blocs [blockchain], de se passer d’intermédiaires en matière de transferts de propriétés ou d’accélérer les paiements internationaux. Or, des cryptoactifs bien employés et bien régulés pourraient jouer le même rôle sans le caractère négatif majeur qui entache aujourd’hui, plus qu’il ne sert, leur essor. Car certains cryptoactifs, dont le bitcoin qui en est l’étendard, font courir des risques grandissants à nos sociétés. À cause de l’énergie qu’elles requièrent (près de 131 TWh, soit davantage que la Belgique et la Suisse), les blockchains utilisant un protocole de type « preuve de travail » provoquent un désastre écologique, qui va empirer. La forte volatilité du bitcoin porte atteinte à la stabilité financière car elle est opérée par des acteurs à la capitalisation parfois fragile et sans garde-fous, dans des marchés par ailleurs largement manipulés par quelques grands détenteurs de cryptoactifs. Enfin, la cohésion sociale et monétaire peut être menacée par les prétentions de certains d’encourager le développement de systèmes de paiement parallèles. Certains cryptoactifs font par ailleurs peser une lourde menace sur la sécurité des personnes et des États puisqu’ils facilitent les demandes de rançon, l’évasion fiscale ou le financement d’activités criminelles voire terroristes. Des cryptoactifs comme Monero, Dash ou Zcash ont même été pensés pour qu’il soit absolument impossible de suivre leurs opérations. Répondre à ces craintes légitimes en affirmant que le système bancaire et financier traditionnel n’est lui aussi pas exempt de reproches est hors de propos : ce dernier a évidemment aussi permis l’évasion fiscale et le financement du terrorisme, tout comme le financement d’activités polluantes mais les solutions sont connues : elles passent notamment par l’arraisonnement des chambres internationales de compensation par la justice, le renforcement des administrations fiscales, la réglementation du shadow banking… Alors que des efforts sont faits pour sortir de ces errements, pour les corriger et pour les punir, faut-il laisser apparaître un nouveau Far West financier non réglementé ? Faut-il, en recréant de nouveaux actifs polluants, spéculatifs et inégalitaires, anéantir les maigres efforts entrepris pour faciliter le partage des informations bancaires ? Faut-il également laisser se détourner une part significative de l’épargne d’investissements plus productifs ? La crainte de brider l’innovation ne doit pas freiner le besoin, légitime et urgent, de réglementation. La période dite de « bac à sable », dans laquelle les cryptoactifs pouvaient se développer anarchiquement sans

Par Institut Rousseau

8 février 2022

Indépendance numérique : que nous apprend la Chine ?

« Si vous ouvrez la fenêtre, l’air frais entrera mais les mouches aussi. » Cette phrase a été prononcée dans les années 1980 par Deng Xiaoping, principal dirigeant de la République populaire de Chine de 1978 à 1989, lors d’un congrès présentant la nouvelle politique d’ouverture de la Chine à la mondialisation. À l’époque, celui-ci défend l’idée selon laquelle la Chine ne peut se développer économiquement qu’en adhérant à la mondialisation.

Par Ophélie Coelho

30 novembre 2021

Les États-Unis, les Big techs et le reste du monde… Saisir un moment historique pour bâtir une indépendance numérique

Introduction L’administration Biden a démarré son mandat en envoyant un message fort aux Big techs. Peu de temps après son élection, deux des postes clés de la politique anti-concurrentielle ont été pourvus par des juristes spécialistes des questions numériques : Tim Wu, professeur de droit à Columbia engagé pour la « neutralité du net[1] », au Conseil économique national sur les questions de politique antitrust ; et Lina Khan, juriste et auteure de l’étude Amazon’s Antitrust Paradox[2], à la tête de la Federal Trade Commission (FTC)[3]. Le département du Trésor a par ailleurs porté auprès de l’Organisation de coopération et de développement économique (OCDE) un projet de taxation des multinationales, qui concerne en particulier les géants du numérique[4]. En avril dernier, le président américain exprimait même son soutien, à peine masqué, aux travailleurs de l’entrepôt géant d’Amazon à Bessemer (Alabama) lors de négociations portant sur la création d’un syndicat[5]. Ces différents événements suivent la publication, en octobre 2020, d’un rapport important de la sous-commission antitrust de la Chambre des représentants, qui portait sur l’abus de position dominante des entreprises Amazon, Apple, Facebook et Google[6]. Ce document dresse un portrait sévère de l’action de la FTC et du ministère de la Justice, administrations clés de la politique antitrust, en les accusant d’avoir laissé les géants Amazon, Apple, Facebook et Google réaliser plus de 500 acquisitions d’entreprises depuis 1998[7]. L’enquête fait également le constat de l’influence des Big techs sur l’ensemble de l’écosystème numérique. Dans ses recommandations, la sous-commission tente de concevoir des outils fiables pour lutter contre la concentration des monopoles et les pratiques anti-concurrentielles de ces entreprises. Pour le sénateur démocrate David N. Cicilline, qui dirigeait cette enquête, les Big techs sont aujourd’hui les équivalents des conglomérats historiques de Rockefeller, Carnegie et Morgan, qui avaient poussé John Sherman à proposer une loi contre la formation des monopoles en 1890. Lors d’une allocution à la Chambre du Congrès en juillet 2020, le sénateur reprenait même à son compte les termes d’un célèbre discours de Sherman, dénonçant les Big techs et leur « capacité à dicter leurs conditions, à décider du jeu, à mettre à bas des secteurs entiers et à inspirer la peur, [ce qui] équivaut au pouvoir d’un gouvernement privé. Nos Pères Fondateurs ne se sont pas agenouillés devant un Roi, nous ne nous mettrons pas à genoux devant les Empereurs de l’économie immatérielle ! »[8].   Pour lutter contre ces « plateformes en ligne dominantes » (« Dominant Online Platforms » dans le rapport), la sous-commission a proposé trois grands chantiers en faveur d’une politique anti-concurrentielle. Le premier volet d’actions consiste à encourager une concurrence plus équilibrée sur les marchés numériques, notamment par la lutte contre les pratiques commerciales déloyales. Le second concerne le renforcement des lois relatives aux fusions et aux monopoles, et introduit des scénarios de séparations structurelles, c’est-à-dire le démantèlement des géants du numérique. Enfin, la sous-commission insiste sur le nécessaire rétablissement d’une surveillance et d’une application plus rigoureuses des lois antitrust.   Ces solutions sont-elles pertinentes aujourd’hui pour lutter contre les oligopoles que constituent les Big techs ? Sur certains aspects, ces mesures peuvent en effet affaiblir ces entreprises. Mais les solutions avancées au Congrès restent des réponses du marché aux problèmes du marché. Il est par exemple peu probable, comme certains l’ont affirmé à l’annonce de la nomination de Lina Khan, que la seule politique antitrust américaine soit à même de répondre aux phénomènes de dépendance aux Big techs que l’Europe a contribué à forger. Il nous semble donc nécessaire d’analyser la portée, l’intérêt et les limites des propositions actuellement discutées aux États-Unis, afin de soumettre au débat des propositions complémentaires visant à limiter le pouvoir des géants du numérique dans l’espace international. Ces propositions s’ajoutent à celles formulées dans la première note publiée par l’Institut Rousseau qui portait sur la dépendance de l’Europe aux Big techs[9], dans ce qui constitue un cycle de trois notes consacrées à la géopolitique du numérique. Alors que se tient à l’Assemblée nationale une mission d’information sur la souveraineté numérique, nous proposons dans cette note une analyse de la situation américaine et de la pertinence de la stratégie proposée par le Congrès (I, II). Nous verrons à quelles difficultés se confronte l’État américain aujourd’hui face à des entreprises devenues trop influentes (III). Cela nous amènera à préciser les actions concrètes, à court et à moyen termes, qui pourraient être mises en œuvre dans un cadre international pour limiter les pouvoirs des géants du numérique (IV, V).   I. Comment les dysfonctionnements de la politique antitrust des États-Unis ont-ils bénéficié aux Big techs ?   Dans une note publiée en 2017 dans le journal scientifique universitaire de Yale, Lina Khan, alors étudiante en droit, interrogeait la politique antitrust américaine et les conséquences sur le développement de l’entreprise Amazon[10]. Ce texte, baptisé Amazon’s antitrust paradox en réponse au Antitrust paradox de Robert H. Bork, a beaucoup inspiré l’analyse historique et juridique du congrès. Nous rappelons ici quelques grandes lignes de cette analyse des évolutions de la politique anti-concurrentielle américaine. 1. La lutte anti-monopole : point faible des lois antitrust au XXe siècle   À l’origine, les lois antitrust américaines ont été promulguées par le Congrès en 1890, puis en 1914, notamment au travers des lois Sherman et Clayton qui donnaient une place importante à la lutte contre les conglomérats et les positions monopolistiques de certains acteurs privés. Elles ont pris forme dans un contexte où les monopoles constitués autour des industries de l’acier, du cuivre, du pétrole (la fameuse Standard Oil Corporation), du fer, du sucre, de l’étain et du charbon avaient pris une place importante dans la vie politique. Dès le milieu du XIXe siècle, ces entreprises n’étaient plus de simples acteurs économiques, mais des influenceurs importants de la vie politique et sociale. Figure 1. The Bosses of the Senate, caricature satirique de Joseph Ferdinand Keppler. Publié dans la revue Puck le 23 janvier 1889. Dans ce dessin, une porte de la tribune, « l’entrée du

Par Ophélie Coelho

22 juin 2021

Quand le décideur européen joue le jeu des Big techs… Engager une transition technologique pour sortir des dépendances numériques

En 2013, le rapport d’information de la sénatrice Catherine Morin-Desailly intitulé « L'Union européenne, colonie du monde numérique ? » décrivait un contexte où l’Europe était « en passe de devenir une colonie du monde numérique, [...] dépendante de puissances étrangères ». Nous y sommes depuis déjà quelques années, et la période de crise sanitaire que nous connaissons n’a fait qu’affirmer nos dépendances à des acteurs techniques devenus aujourd’hui très puissants. Les Big techs, dont les plus connues sont Amazon, Microsoft et Google, ne sont plus de simples pourvoyeuses d’outils numériques, mais se rendent aujourd’hui indispensables aux technologies socles de télécommunication. Depuis 2016, elles construisent leurs propres câbles sous-marins entre les États-Unis et l’Europe, et tracent même de nouvelles routes sur le pourtour du continent africain.

Par Ophélie Coelho

8 juin 2021

Face au poids croissant du numérique : l’impératif de sobriété

À la croisée du débat entre technophiles et technophobes, le numérique apparaît, pour les premiers, comme un moyen d’achever le rêve transhumaniste d’arrachement à l'altérité et, pour les autres, comme l’un des symboles d’un consumérisme obscène sur le point d’épuiser les ressources (limitées) de la planète.

Par Moundib I., Jahier A., Bouilloud R.

20 mai 2021

De la Bulle Internet (1999-2000) à la bulle Internaute (2020-2021) ? Une ouverture vers une autre économie

En janvier dernier, l’Institut Rousseau s’associait au réseau SDSN (Sustainable Development Solutions Network) et à l’Alliance PocFin (Post-Crisis Finance Research Network) pour lancer un appel à contributions, sous forme de « policy briefs », intitulé « Quelles réformes économiques et financières pour l’Agenda 2030 ? » Trois mois plus tard, nous avons reçu de nombreuses contributions très intéressantes incluant des propositions de réformes comptables, budgétaires, financières, monétaires ou relatives à la gouvernance des entreprises qui permettraient d’atteindre nos objectifs environnementaux et sociaux. Nous entreprenons désormais la publication de ces contributions, chaque lundi, en attendant l’organisation d’un grand événement, en juin 2021, qui permettra de mettre en valeur ces travaux et de donner la parole à leurs auteurs. La série de Policy Briefs Agenda 2030 mobilise économistes et praticiens pour identifier un agenda de réformes économiques et financières permettant d’atteindre l’Agenda 2030, aux échelons territoriaux, nationaux et supranationaux. Pour cette note, nous remercions Thomas Lagoarde-Segot et Roland Pérez pour leur relecture et commentaires. La série de Policy Briefs Agenda 2030 mobilise économistes et praticiens pour identifier un agenda de réformes économiques et financières permettant d’atteindre l’Agenda 2030, aux échelons territoriaux, nationaux et supranationaux. Contacts : thomas.lagoardesegot@kedgebs.com, david.bourghelle@iae.univ-lille1.fr et jacques.ninet@laposte.net Télécharger le policy brief en pdf Download the policy brief as a pdf Introduction Ce policy brief examine la dynamique des marchés boursiers depuis l’apparition de la pandémie Covid-19 et son possible rôle dans l’émergence d’un « après » radicalement renouvelé. Dans la première partie, rédigée mi-février, nous évaluons la probabilité que des bulles sectorielles se soient formées, principalement mais pas uniquement sur les marchés américains. Dans la seconde nous envisageons les conséquences que pourrait avoir une crise financière majeure sur la remise en cause du modèle de croissance carbonée et fortement inégalitaire qui régit le monde occidental. 1. Bulle or not bulle ? Depuis leur chute impressionnante de février-mars 2020, provoquée par l’irruption de la pandémie, tous les marchés boursiers ont réagi de manière positive mais avec des dynamiques de rebond diverses. Si les places européennes ont tout juste regagné le terrain perdu, certaines bourses asiatiques (Japon, Taiwan, Inde) et les marchés américains sont entrées dans une phase que l’on peut qualifier d’euphorique ou exubérante au point que la question de la formation de bulles peut légitimement se poser. D’autant plus légitimement que le NYSE et le Nasdaq qui viennent de terminer en fanfare leur douzième année de hausse depuis le trou consécutif à la crise des subprimes et qui ne semblent pas vouloir en rester là, sont les marchés directeurs de la planète. Source : https://www.reuters.com/markets/us Bien qu’il n’existe aucune définition d’une bulle financière –et que la théorie financière moderne et ce qu’il est convenu d’appeler la doctrine Greenspan se refusent à en dresser le constat avant son éclatement- on peut se risquer à en dessiner quelques aspects caractéristiques. Une bulle d’actif apparaît le plus souvent comme la phase terminale d’une longue séquence haussière, phase pendant laquelle les cours de bourse s’affranchissent nettement de leurs relations habituelles avec les données économiques, micro et macro, selon une métrique bien connue (ratios de capitalisation boursière sur profits, chiffre d’affaires ou actif net, d’une part et capitalisation boursière/PIB d’autre part). C’est aussi une période pendant laquelle les rendements attendus des actifs sont de plus en plus déterminés par la plus-value escomptée à la revente et de moins en moins par les revenus courants, loyers, dividendes et coupons, dont le taux de rendement diminue à mesure que les prix s’élèvent. 1.1 Une Survalorisation des cours boursiers aux plans micro et macro-économique ? Le tableau ci-dessous dresse le constat peu discutable de forte valorisation des cours boursiers actuels. Les achats à crédits restent en ligne avec la progression des cours, loin de leur record de 2008. Ils n’en n’ont pas moins explosé en 2020 (+42% soit 235 Md USD). Source : calcul des auteurs Ainsi, par exemple, peut-on observer l’accroissement significatif, et sans commune mesure avec les épisodes de 2000/2001 et 2007/2008, de la capitalisation boursière de l’indice Wilshire 5 000[1] rapportée au PIB US (+ de 3 écart-types au-dessus de sa moyenne de long terme). https://www.longtermtrends.net/market-cap-to-gdp-the-buffett-indicator/ Enfin, les traditionnels indicateurs de valorisation à base de Price Earning Ratio (P.E.R) , de rendement ou de dividendes indiquent également des niveaux de valorisation se rapprochant dangereusement des niveaux atteints à la veille de l’éclatement de la bulle internet. Ainsi, le Shiller P/E Ratio (ou CAPE pour cyclically adjusted price to earnings), calculé sur la base de la moyenne mobile sur dix ans des bénéfices nets par action (BPA) ajustés de l’inflation se situe à environ 35, bien au-delà de sa moyenne historique de 16,7 fois et de son niveau de 32,6 observé en septembre1929. Dans ces conditions, les rendements en bénéfices et en dividendes atteignent des niveaux très proches de leurs niveaux bas historiques. https://www.multpl.com/ 1.2 Les éléments récurrents présidant à la formation des bulles Il est généralement objecté à cette analyse que les conditions monétaires qui prévalent (taux zéro ; quantitative easing) rendent les comparaisons avec les moyennes /médianes historiques non significatives. Et, surtout, que les montants gigantesques apportées par la puissance publique à l’ensemble des Agents non-financiers à travers les plans de relance successifs expliquent à la fois la résilience surprenante de l’économie américaine (par effet retour de la richesse créée par la hausse du prix des actifs) et l’engouement des (nouveaux) épargnants pour les placements à risque dans une optique de recovery générale. Face à ces arguments avancés à chaque fois que l’on prétend que ‘‘this time is different’’ une brève revue des conditions de notre époque s’impose pour vérifier leur adéquation aux six caractéristiques communes à tous les cycles bull/krach de l’histoire, tels qu’identifiés par Minsky et décrits par Kindelberger (1978)[2]. -le changement d’état : l’achèvement de la globalisation et de la numérisation de l’économie ; le monopole des GAFAM -le progrès technique à portée universelle : l’IA, les biotechnologies, la voiture propre -la complaisance générale : elle aurait été plutôt remplacée par une dichotomie entre exubérance financière et scepticisme généralisé (le niveau de la volatilité implicite des options restant plus élevé

Par Ninet J., Bourghelle D.

10 mai 2021

Pourquoi le low-code est-il le symptôme d’un numérique à outrance ?

Les services et produits numériques ont bouleversé notre manière de communiquer et de consommer. Dans un monde hyper connecté, la digitalisation s’est imposée comme une norme permettant de créer de nouvelles expériences répondant aux prétendus besoins de fluidité et d’immédiateté des utilisateurs, au point que le numérique a dépassé son statut de moyen et est devenu une fin en soi, comme en témoigne par exemple l’explosion du nombre de services et d’appareils connectés. Cette rhétorique développée par les géants du numérique tend d’une part à mettre un terme aux discussions internes[1] aux entreprises de cette industrie et d’autre part à occulter la dégradation dramatique de l’environnement[2] et celle des conditions de travail du nouveau prolétariat[3] sur lequel reposent ces « innovations ». Cet impératif d’innovation, qui impose une itération à haute cadence de la part des concepteurs et une mise sur le marché rapide, rend difficile la prise de recul et la réflexion sur les produits et services développés et sur les outils mêmes utilisés pour ces développements. Pourtant, si la répartition des impacts du numérique à l’échelle mondiale impute 45 % de la consommation énergétique à la production et à la fin de vie de nos terminaux, supports réseaux et centres informatiques, les 55 % restants sont dus à l’utilisation de ceux-ci[4]. Cette note vise à questionner la partie proprement immatérielle de notre environnement numérique : celle du code et en particulier du low-code, qui nous semble être un angle inexploré de l’étude des impacts environnementaux, économiques et sociaux du numérique. Compte tenu du rythme de pénétration des équipements numériques et des opportunités de marché associées, il est apparu nécessaire pour les entreprises (petites et grandes) de faciliter l’accès à des outils de développement informatique à l’extérieur de leurs services informatique et technologie (IT). Ainsi, dès le début des années 1990, Microsoft lance le mouvement « low-code » avec le Visual Basic. Il s’agit d’un langage de programmation qui ambitionne de développer plus rapidement des applications en disposant visuellement des composants, en définissant des propriétés et des actions associées à ces composants, et en ajoutant quelques lignes de code pour en préciser les fonctionnalités. Plus généralement, une plate-forme de développement low-code est un logiciel qui fournit un environnement visuel aux programmeur·euses et aux développeur·euses dits « citoyen·nes » pour créer une application mobile ou Web. Le terme « citoyen » est un faux ami qui provient de l’anglicisme consacré « Citizen Development ». Il désigne une approche du développement logiciel nécessitant peu, voire pas du tout, de connaissance en langage informatique. Grâce au low-code, cette nouvelle classe de développeurs peuvent ajouter et agencer des composants d’application préexistants par glisser-déposer et les connecter entre eux au moyen d’interfaces graphiques ; et ainsi se passer de programmation informatique traditionnelle. Finie, donc, l’écriture de code en tant que telle. Les champs d’opportunité du low-code sont aujourd’hui décuplés par l’explosion des offres de cloud computing qui offrent une puissance de calcul accrue et une possibilité de développement collaboratif, permettant aisément à des collaborateur·rices de travailler simultanément au développement d’une même application à partir de briques déjà conçues. Les environnements low-code permettent le développement, le déploiement, l’exécution et la gestion rapide d’applications reposant sur un paradigme de programmation déclaratif, c’est-à-dire qui décrit le résultat final souhaité plutôt que les étapes nécessaires pour y accéder. Ces étapes sont établies de manière automatique par des algorithmes. Dans un contexte où le marché du low-code s’agite et où cette technologie connaît un essor certain, avec en particulier le renforcement des positions des GAM (en effet, Apple et Facebook ne semblent pas, pour l’instant, désireux d’entrer dans le bal), cette note se veut initiatrice d’une réflexion autour, d’une part, des enjeux de sécurité, de gouvernance et de dépendance aux fournisseurs (souvenons-nous seulement de l’émoi suscité par la panne des services de Google survenue le 14 décembre dernier) et d’autre part son rôle dans l’alourdissement de la note écologique déjà salée du numérique mondial. NB : Il est important de relever qu’il existe une différence entre le low-code et le no-code, en particulier quant aux publics ciblés : si le no-code s’adresse à des auteurs plus novices (les développeur·euses citoyen·nes), n’ayant aucune connaissance en code et permet de développer des applications métier, le low-code reste plus complexe et s’adresse à des développeur·euses plus aguerri·es car il nécessite quand même la rédaction de code (jusqu’à 10 % du projet de développement, et souvent les parties les plus techniques). Cependant pour les problématiques discutées aujourd’hui, ces deux technologies sont assimilables. Nous pourrons tout de même noter que les questions soulevées sont d’autant plus préoccupantes pour la technologie no-code qu’elle ne nécessite aucun prérequis technique.   I. Un secteur prometteur   Le marché du low-code connaît depuis plusieurs semestres des taux de croissance impressionnants. Paul Vincent, directeur de recherche et d’analyse chez le géant du conseil américain Gartner, prévient : « Aujourd’hui, toutes les entreprises ont mis au point une stratégie cloud, demain elles auront aussi toutes une stratégie de développement low-code »[5]. a) Un produit attirant Selon les études de l’analyste ResearchAndMarkets en 2017, le marché du low-code pesait plus de 4 milliards de dollars dans le monde et dépassera les 27 milliards de dollars en 2022[6]. Ces chiffres sont confirmés par une deuxième étude plus récente, selon laquelle le marché des outils no-code/low-code atteindra les 45,5 milliards de dollars en 2025[7]. Gartner complète ces analyses en suggérant que la propagation du télétravail liée à la pandémie de Covid-19 favorise la poussée du développement à distance et renforce la nécessité d’outils de développement collaboratif. De nombreuses entreprises seront encore amenées à se tourner en 2021 vers des plate-formes de développement low-code pour déployer leurs programmes d’innovation et de transformation numérique[8]. Enfin, toujours selon Gartner, d’ici 2024 près de 65 % de toutes les applications développées le seront grâce à des plate-formes de développement low-code[9]. À plusieurs égards, ces produits présentent des avantages et offrent des perspectives de croissance pour les entreprises. La logique de compétitivité et de concurrence du marché dicte aux entreprises et aux organisations, d’une part, une

Par Leclercq V.

1 avril 2021

Câbles sous-marins : les nouveaux pouvoirs des géants du numérique

Début août, une grue sous-marine travaillant à la collecte de sable dans la baie de Kuakata a heurté un câble sous-marin de télécommunications, se traduisant par une perte de 40 % de la vitesse du réseau internet du Bangladesh. En juillet dernier, la Somalie a été totalement privée d’Internet pendant plusieurs heures en raison d’une opération de maintenance à distance du câble sous-marin dénommé « EASSy » qui relie la côte est-africaine au réseau. Ces événements ne sont pas anodins à l’échelle d’un pays : les banques, les compagnies aériennes, les entreprises, les médias et certains services gouvernementaux sont dépendants d’Internet pour fournir leurs services. Aujourd’hui, 98 % des données numériques mondiales circulent par les câbles sous-marins. C’est par exemple le cas du principal système d’échanges de la finance mondiale de la Society for Worldwide Interbank Financial Telecommunications (SWIFT) qui dépend de la vitesse de ces câbles à fibre optique. Le numérique repose ainsi sur une infrastructure bien réelle : on dénombre aujourd’hui 436 câbles sous-marins de télécommunication, dont 25 traversent l’océan Atlantique et 22 le Pacifique[1]. Passerelles intercontinentales entre les différents réseaux filaires nationaux, les câbles sous-marins débouchent sur des stations d’atterrissement situées en région côtière. La France compte, par exemple, 13 stations d’atterrissement sur son territoire côtier connectant les réseaux filaires nationaux à 23 câbles sous-marins. Ces “routes du fond des mers”, selon l’expression de Florence Smits et Tristan Lecoq en 2017[2], sont les héritiers des premiers câbles télégraphiques du XIXe siècle dont l’emploi permit, en 1858, l’envoi du premier message télégraphique officiel par la reine Victoria au président américain James Buchanan. Le message de 509 lettres avait alors mis 17 heures et 40 minutes à traverser l’océan Atlantique. Aujourd’hui, la fibre optique permet un acheminement de l’information en temps quasi-réel. L’importance qu’a prise l’activité numérique dans nos sociétés contemporaines fait inévitablement des câbles sous-marins des infrastructures vitales au niveau mondial. Pourtant, les chantiers de construction, le développement et l’égalité d’accès au réseau ne font l’objet d’aucune décision multilatérale. Ces infrastructures essentielles sont la propriété d’entreprises qui louent des capacités de bande passante aux acteurs gérant les réseaux télécoms nationaux. Soumis aux aléas du marché et à la loi du plus fort, les câbles sous-marins deviennent progressivement la propriété d’une minorité d’acteurs qui disposent ainsi d’un pouvoir et d’une influence grandissantes sur les États et les entreprises. L’émergence de nouveaux acteurs est d’ailleurs venue bouleverser les équilibres. Si les propriétaires historiques des câbles sous-marins étaient les entreprises privées ou publiques des télécoms, les géants du numérique ont, depuis 2016, massivement investi et possèdent ou louent aujourd’hui plus de la moitié de la capacité des câbles sous-marin. En outre, la stratégie de développement des géants du numérique diffèrent des collectifs traditionnels. Aux grands consortiums, ceux-ci préfèrent des regroupements plus réduits qui leur permettent de conserver le monopole décisionnel. Alors que le projet Africa Coast to Europe (ACE), ouvert en 2012, appartient à un consortium de 19 entreprises des télécoms, le câble MAREA reliant les États-Unis à l’Espagne n’appartient qu’à Facebook, Microsoft et Telxius. Le chantier colossal 2Africa de Facebook et déployé sur tout le pourtour du continent africain n’est porté que par huit acteurs. Google va encore plus loin : le géant a aujourd’hui les capacités financières et techniques de faire construire ses propres câbles. Ainsi, le câble Dunant qui relie depuis janvier 2020 les États-Unis et la France appartient en totalité à Google. L’entreprise déploie également le titanesque câble Equiano qui bordera toute la côte ouest du continent africain, faisant ainsi concurrence au projet 2Africa. Google possède ainsi le service et l’infrastructure qui le sous-tend, créant des situations de forte dépendance technologique pour les États, les entreprises et les usagers. Les géants américains ne sont d’ailleurs pas les seuls à user d’une stratégie de conquête sous-marine. Le chinois Hengtong a pu compter sur le soutien des banques et entreprises nationales chinoises, dont la China Construction Bank, pour lancer son projet Pakistan & East Africa Connecting Europe (PEACE) qui reliera le Pakistan, la côte est africaine à la rive sud de la Méditerranée par le canal de Suez, pour finalement atterrir à Marseille. PEACE permettra aux géants chinois Baidu, Alibaba, Tencent et Xiaomi de développer leurs activités en Afrique et en Europe. Ces stratégies de développement préfigurent un nouveau pouvoir pour les géants du numérique : ils acquièrent à la fois l’accès à un marché industriel gigantesque ainsi qu’une capacité d’influence importante sur les États et sur les entreprises des pays qui ont un accès précaire à ces infrastructures aujourd’hui. L’Afrique et le Moyen-Orient représentent dès lors pour les géants du numérique un potentiel de développement considérable. En effet, ces pays n’ont que très peu accès aux câbles, ce qui les rend vulnérables en cas de rupture de ceux-ci. En apportant sur le continent africain des infrastructures facilitant leur accès aux activités numériques, Equiano et 2Africa sont considérés comme d’importants leviers de développement économique. Mais dans le même temps, ils acquièrent la capacité d’influencer directement l’offre de services numériques dans ces pays. S’imposent ainsi des acteurs hégémoniques dotés d’un monopole technologique et infrastructurel inédit à l’échelle mondiale. Ce monopole sert les capacités de négociations et d’influence de ces entreprises dont les cabinets de lobbying sont déjà implantés dans tous les centres de pouvoirs politiques et économiques. À l’échelle de l’Union européenne, Microsoft (Havas, Com, Publics, Plead), Google (Commstrat, Image7) ou encore Facebook (Burson Marsteller I&E, Lighthouse Europe) sont en discussion constante avec le législateur en matière de droit du numérique[3]. Cette configuration de concurrence monopolistique s’inscrit en contre de la théorie libérale d’un marché qui s’équilibre par défaut, et accentue au contraire un phénomène de « capture » du régulateur. Ciblant d’abord les politiques en matière de numérique, leur influence s’étend progressivement vers d’autres secteurs clés où leurs technologies se développent : la sécurité, la défense ou encore le domaine de la santé[4]. Cette prédation doit nous alerter et nous amener à réduire, dans chaque domaine où cela est possible, le pouvoir d’influence de ces acteurs privés sur les États et

Par Ophélie Coelho

26 août 2020

L’urgence d’une indépendance numérique révélée par l’urgence sanitaire

Dans la gestion de la crise actuelle, la place accordée aux technologies du numérique a été au cœur de nombreux débats. En particulier, la question de l’accès aux données personnelles est devenue centrale dans les échanges autour du traçage des contacts et du partage des données de santé. Mais la crise a également révélé des fragilités majeures dans notre politique de gestion de ces données, en questionnant notamment l’attribution de la plateforme des données de santé à l’entreprise Microsoft. En outre, la crise a accéléré le recueil et l’exploitation de ces données, sans prendre en compte les conséquences futures de cette captation. Il devient ainsi impératif de se poser la question des répercussions à long terme des décisions prises aujourd’hui. Il faut également nous interroger sur les grands enjeux qui se cachent derrière nos choix numériques afin de mieux lancer les chantiers de long terme que nous impose ou que devrait nous imposer aujourd’hui la géopolitique du numérique.   Introduction   Nos données numériques apportent quantité d’informations sur nous-mêmes, mais aussi sur l’état de notre société, sur ses atouts et ses fragilités. Derrière des applications anodines circulent en effet des données sur l’état de santé de la population, des indices sur sa réalité sociale, sur l’état de ses infrastructures routières ou encore des informations, parfois sensibles, sur ses activités économiques et politiques. Selon l’usage que l’on fait de ces informations, l’impact sur la société peut être bénéfique ou néfaste. La mathématicienne Cathy O’Neil nous alerte par exemple sur l’usage des données dans l’éducation, la justice en passant par le commerce ou la santé, les organismes sociaux ou les assurances[1]. Les données de santé sont par exemple un trésor pour les compagnies d’assurance qui, si elles y accèdent, peuvent définir des profils de clients à risque pour adapter leur proposition commerciale, accentuant ainsi certaines inégalités face à la santé. C’est pourquoi il ne faut pas prendre à la légère les enjeux qui se cachent derrière le numérique et la circulation des données. Par ailleurs, ces données sont aussi la matière première des technologies d’apprentissage automatique, souvent regroupées autour du terme « intelligence artificielle », et sur lesquelles reposent de nombreuses innovations technologiques telles que la reconnaissance faciale ou la voiture autonome. Les entreprises et les États trouvent un intérêt évident dans la course à ces données massives qu’ils peuvent utiliser pour développer des technologies de pointe dédiées à des secteurs variés, tels que le contrôle aux frontières, la sécurité, la santé, la justice ou le militaire. Dans le domaine de la santé, au cœur de cette note, les données sont nécessaires si l’on souhaite développer les technologies de machine learning qui permettent d’accompagner la recherche médicale et d’améliorer les outils des praticiens. À ce titre, elles sont déterminantes dans le développement de ce tissu industriel. Mais elles sont aussi éminemment stratégiques : la surveillance des données de santé à l’échelle d’un pays donne une carte d’identité précieuse qui révèle les fragilités d’un système de santé, celles des individus, et permet d’orienter des décisions économiques, politiques voire militaires. La Direction générale de la sécurité intérieure (DGSI) alertait d’ailleurs, dès 2018, sur l’acquisition par les entreprises américaines de plusieurs sociétés françaises expertes dans le traitement de ce type d’informations, et notamment la branche dédiée à la gestion des données clients et stratégiques de Cegedim, acquise par IMS Health en 2015. L’administration s’inquiétait alors de la captation, par « des entités tant publiques que privées », d’informations stratégiques et orientant la politique économique des États-Unis vis-à-vis des industries françaises[2]. Un an plus tard, Microsoft Azure fut désigné, sans passage par un appel d’offre, comme prestataire principal de la Plateforme des données de santé des Français, baptisée Health data hub[3]. Cet hébergeur, qui propose également des services d’analyse, accélère sa captation de données dans l’urgence de la crise sanitaire. En matière de géopolitique des données, la gestion de la crise actuelle agit ainsi comme un formidable révélateur de notre dépendance extérieure dans le domaine du numérique appliqué à la santé. Face aux enjeux d’indépendance numérique et de protection des données qui se posent, de grands et longs chantiers seront nécessaires. Cette note propose d’apporter quelques pistes de réponses sur la manière de les engager.   1. Penser le numérique relève d’une approche transversale qui s’applique à l’analyse de la gestion des données numériques en santé   Penser le numérique, notamment dans un secteur aussi essentiel et structurant que la santé, nécessite une approche transversale qui prenne en compte plusieurs couches de l’activité numérique. En 2016, la politologue Frédérick Douzet proposait trois « couches du cyberespace » : la couche physique, logique et sémantique[3]. Le schéma ci-dessous s’inspire de ce modèle, mais propose un échelonnage à quatre niveaux des technologies, hiérarchisées selon leur rôle dans l’activité numérique : les socles matériels sans lesquels aucune activité numérique n’est possible, composés des infrastructures mais aussi du matériel informatique et mobile ; les applicatifs codés, c’est à dire les OS, les logiciels ou les algorithmes, les sites internet, les applications ; les données dont les flux circulent entre applicatifs et socles ; les usages, qui définissent les manières de vivre dans et avec le numérique. Cette approche transversale donne une place particulière à la dimension matérielle, dans un domaine où très souvent le virtuel et le vocabulaire qui l’accompagne, du cloud au data lake, fabrique un imaginaire qui donne l’impression d’un effacement des frontières physiques et géographiques. Comme l’énonce Amaël Cattaruzza, « les processus de datafication nous obligent à modifier nos approches et nos interprétations et à reconsidérer le concept clef de la géopolitique, à savoir le territoire »[4]. Ainsi, ce n’est pas parce que nos données sont numériques qu’elles ne suivent pas un parcours, qu’elles n’ont pas un lieu de production et de destination, et que les enjeux de leur captation ne renvoient pas à des réalités géopolitiques. Or, la stratégie numérique en matière de données de santé concerne chacune de ces couches. Elle pose d’abord la question des socles matériels, qui correspond à la « couche physique

Par Ophélie Coelho

20 mai 2020

    Partager

    EmailFacebookTwitterLinkedInTelegram