fbpx

Le laboratoire d’idées de la reconstruction écologique et républicaine

gafam

Sommaire

    gafam

    Géopolitique du numérique – L’impérialisme à pas de géants

    Il y a à peine une trentaine d’années, les technologies numériques étaient absentes de nos vies. La mondialisation progressive des échanges posait néanmoins les fondations d’un mode de vie où le numérique allait prendre une place importante, poussant les États à investir dans le développement des réseaux et des technologies utiles au marché et au militaire. Aujourd’hui, les propriétaires de ces technologies sont des acteurs privés souvent utilisés comme leviers de pouvoir par leurs États d’origine. L’approche géopolitique du numérique permet d’explorer la toile complexe des relations de pouvoir qui se tissent entre les puissances étatiques, le citoyen, et les multinationales du numérique. Ces Géants, Gafam et autres Big Tech, qui détiennent des réseaux de câbles sous-marins, des plateformes de services mondialement utilisées et une masse importante de données, développent aujourd’hui de véritables stratégies d’expansion territoriale. Leur omniprésence a engendré des rapports de dépendance inquiétants qui, avec le temps, risquent même de devenir un moyen de pression ou de négociation auprès des États. Voyage à la fois historique et géographique, ce livre nous donne à voir un nouveau théâtre d’opérations où, loin de l’utopie d’un internet sans frontières, l’impérialisme technologique avance à pas de Géants. Télécharger la table des matières

    Par Ophélie Coelho

    28 août 2023

    Les États-Unis, les Big techs et le reste du monde… Saisir un moment historique pour bâtir une indépendance numérique

    Introduction L’administration Biden a démarré son mandat en envoyant un message fort aux Big techs. Peu de temps après son élection, deux des postes clés de la politique anti-concurrentielle ont été pourvus par des juristes spécialistes des questions numériques : Tim Wu, professeur de droit à Columbia engagé pour la « neutralité du net[1] », au Conseil économique national sur les questions de politique antitrust ; et Lina Khan, juriste et auteure de l’étude Amazon’s Antitrust Paradox[2], à la tête de la Federal Trade Commission (FTC)[3]. Le département du Trésor a par ailleurs porté auprès de l’Organisation de coopération et de développement économique (OCDE) un projet de taxation des multinationales, qui concerne en particulier les géants du numérique[4]. En avril dernier, le président américain exprimait même son soutien, à peine masqué, aux travailleurs de l’entrepôt géant d’Amazon à Bessemer (Alabama) lors de négociations portant sur la création d’un syndicat[5]. Ces différents événements suivent la publication, en octobre 2020, d’un rapport important de la sous-commission antitrust de la Chambre des représentants, qui portait sur l’abus de position dominante des entreprises Amazon, Apple, Facebook et Google[6]. Ce document dresse un portrait sévère de l’action de la FTC et du ministère de la Justice, administrations clés de la politique antitrust, en les accusant d’avoir laissé les géants Amazon, Apple, Facebook et Google réaliser plus de 500 acquisitions d’entreprises depuis 1998[7]. L’enquête fait également le constat de l’influence des Big techs sur l’ensemble de l’écosystème numérique. Dans ses recommandations, la sous-commission tente de concevoir des outils fiables pour lutter contre la concentration des monopoles et les pratiques anti-concurrentielles de ces entreprises. Pour le sénateur démocrate David N. Cicilline, qui dirigeait cette enquête, les Big techs sont aujourd’hui les équivalents des conglomérats historiques de Rockefeller, Carnegie et Morgan, qui avaient poussé John Sherman à proposer une loi contre la formation des monopoles en 1890. Lors d’une allocution à la Chambre du Congrès en juillet 2020, le sénateur reprenait même à son compte les termes d’un célèbre discours de Sherman, dénonçant les Big techs et leur « capacité à dicter leurs conditions, à décider du jeu, à mettre à bas des secteurs entiers et à inspirer la peur, [ce qui] équivaut au pouvoir d’un gouvernement privé. Nos Pères Fondateurs ne se sont pas agenouillés devant un Roi, nous ne nous mettrons pas à genoux devant les Empereurs de l’économie immatérielle ! »[8].   Pour lutter contre ces « plateformes en ligne dominantes » (« Dominant Online Platforms » dans le rapport), la sous-commission a proposé trois grands chantiers en faveur d’une politique anti-concurrentielle. Le premier volet d’actions consiste à encourager une concurrence plus équilibrée sur les marchés numériques, notamment par la lutte contre les pratiques commerciales déloyales. Le second concerne le renforcement des lois relatives aux fusions et aux monopoles, et introduit des scénarios de séparations structurelles, c’est-à-dire le démantèlement des géants du numérique. Enfin, la sous-commission insiste sur le nécessaire rétablissement d’une surveillance et d’une application plus rigoureuses des lois antitrust.   Ces solutions sont-elles pertinentes aujourd’hui pour lutter contre les oligopoles que constituent les Big techs ? Sur certains aspects, ces mesures peuvent en effet affaiblir ces entreprises. Mais les solutions avancées au Congrès restent des réponses du marché aux problèmes du marché. Il est par exemple peu probable, comme certains l’ont affirmé à l’annonce de la nomination de Lina Khan, que la seule politique antitrust américaine soit à même de répondre aux phénomènes de dépendance aux Big techs que l’Europe a contribué à forger. Il nous semble donc nécessaire d’analyser la portée, l’intérêt et les limites des propositions actuellement discutées aux États-Unis, afin de soumettre au débat des propositions complémentaires visant à limiter le pouvoir des géants du numérique dans l’espace international. Ces propositions s’ajoutent à celles formulées dans la première note publiée par l’Institut Rousseau qui portait sur la dépendance de l’Europe aux Big techs[9], dans ce qui constitue un cycle de trois notes consacrées à la géopolitique du numérique. Alors que se tient à l’Assemblée nationale une mission d’information sur la souveraineté numérique, nous proposons dans cette note une analyse de la situation américaine et de la pertinence de la stratégie proposée par le Congrès (I, II). Nous verrons à quelles difficultés se confronte l’État américain aujourd’hui face à des entreprises devenues trop influentes (III). Cela nous amènera à préciser les actions concrètes, à court et à moyen termes, qui pourraient être mises en œuvre dans un cadre international pour limiter les pouvoirs des géants du numérique (IV, V).   I. Comment les dysfonctionnements de la politique antitrust des États-Unis ont-ils bénéficié aux Big techs ?   Dans une note publiée en 2017 dans le journal scientifique universitaire de Yale, Lina Khan, alors étudiante en droit, interrogeait la politique antitrust américaine et les conséquences sur le développement de l’entreprise Amazon[10]. Ce texte, baptisé Amazon’s antitrust paradox en réponse au Antitrust paradox de Robert H. Bork, a beaucoup inspiré l’analyse historique et juridique du congrès. Nous rappelons ici quelques grandes lignes de cette analyse des évolutions de la politique anti-concurrentielle américaine. 1. La lutte anti-monopole : point faible des lois antitrust au XXe siècle   À l’origine, les lois antitrust américaines ont été promulguées par le Congrès en 1890, puis en 1914, notamment au travers des lois Sherman et Clayton qui donnaient une place importante à la lutte contre les conglomérats et les positions monopolistiques de certains acteurs privés. Elles ont pris forme dans un contexte où les monopoles constitués autour des industries de l’acier, du cuivre, du pétrole (la fameuse Standard Oil Corporation), du fer, du sucre, de l’étain et du charbon avaient pris une place importante dans la vie politique. Dès le milieu du XIXe siècle, ces entreprises n’étaient plus de simples acteurs économiques, mais des influenceurs importants de la vie politique et sociale. Figure 1. The Bosses of the Senate, caricature satirique de Joseph Ferdinand Keppler. Publié dans la revue Puck le 23 janvier 1889. Dans ce dessin, une porte de la tribune, « l’entrée du

    Par Ophélie Coelho

    22 juin 2021

    Quand le décideur européen joue le jeu des Big techs… Engager une transition technologique pour sortir des dépendances numériques

    En 2013, le rapport d’information de la sénatrice Catherine Morin-Desailly intitulé « L'Union européenne, colonie du monde numérique ? » décrivait un contexte où l’Europe était « en passe de devenir une colonie du monde numérique, [...] dépendante de puissances étrangères ». Nous y sommes depuis déjà quelques années, et la période de crise sanitaire que nous connaissons n’a fait qu’affirmer nos dépendances à des acteurs techniques devenus aujourd’hui très puissants. Les Big techs, dont les plus connues sont Amazon, Microsoft et Google, ne sont plus de simples pourvoyeuses d’outils numériques, mais se rendent aujourd’hui indispensables aux technologies socles de télécommunication. Depuis 2016, elles construisent leurs propres câbles sous-marins entre les États-Unis et l’Europe, et tracent même de nouvelles routes sur le pourtour du continent africain.

    Par Ophélie Coelho

    8 juin 2021

    De la Bulle Internet (1999-2000) à la bulle Internaute (2020-2021) ? Une ouverture vers une autre économie

    En janvier dernier, l’Institut Rousseau s’associait au réseau SDSN (Sustainable Development Solutions Network) et à l’Alliance PocFin (Post-Crisis Finance Research Network) pour lancer un appel à contributions, sous forme de « policy briefs », intitulé « Quelles réformes économiques et financières pour l’Agenda 2030 ? » Trois mois plus tard, nous avons reçu de nombreuses contributions très intéressantes incluant des propositions de réformes comptables, budgétaires, financières, monétaires ou relatives à la gouvernance des entreprises qui permettraient d’atteindre nos objectifs environnementaux et sociaux. Nous entreprenons désormais la publication de ces contributions, chaque lundi, en attendant l’organisation d’un grand événement, en juin 2021, qui permettra de mettre en valeur ces travaux et de donner la parole à leurs auteurs. La série de Policy Briefs Agenda 2030 mobilise économistes et praticiens pour identifier un agenda de réformes économiques et financières permettant d’atteindre l’Agenda 2030, aux échelons territoriaux, nationaux et supranationaux. Pour cette note, nous remercions Thomas Lagoarde-Segot et Roland Pérez pour leur relecture et commentaires. La série de Policy Briefs Agenda 2030 mobilise économistes et praticiens pour identifier un agenda de réformes économiques et financières permettant d’atteindre l’Agenda 2030, aux échelons territoriaux, nationaux et supranationaux. Contacts : thomas.lagoardesegot@kedgebs.com, david.bourghelle@iae.univ-lille1.fr et jacques.ninet@laposte.net Télécharger le policy brief en pdf Download the policy brief as a pdf Introduction Ce policy brief examine la dynamique des marchés boursiers depuis l’apparition de la pandémie Covid-19 et son possible rôle dans l’émergence d’un « après » radicalement renouvelé. Dans la première partie, rédigée mi-février, nous évaluons la probabilité que des bulles sectorielles se soient formées, principalement mais pas uniquement sur les marchés américains. Dans la seconde nous envisageons les conséquences que pourrait avoir une crise financière majeure sur la remise en cause du modèle de croissance carbonée et fortement inégalitaire qui régit le monde occidental. 1. Bulle or not bulle ? Depuis leur chute impressionnante de février-mars 2020, provoquée par l’irruption de la pandémie, tous les marchés boursiers ont réagi de manière positive mais avec des dynamiques de rebond diverses. Si les places européennes ont tout juste regagné le terrain perdu, certaines bourses asiatiques (Japon, Taiwan, Inde) et les marchés américains sont entrées dans une phase que l’on peut qualifier d’euphorique ou exubérante au point que la question de la formation de bulles peut légitimement se poser. D’autant plus légitimement que le NYSE et le Nasdaq qui viennent de terminer en fanfare leur douzième année de hausse depuis le trou consécutif à la crise des subprimes et qui ne semblent pas vouloir en rester là, sont les marchés directeurs de la planète. Source : https://www.reuters.com/markets/us Bien qu’il n’existe aucune définition d’une bulle financière –et que la théorie financière moderne et ce qu’il est convenu d’appeler la doctrine Greenspan se refusent à en dresser le constat avant son éclatement- on peut se risquer à en dessiner quelques aspects caractéristiques. Une bulle d’actif apparaît le plus souvent comme la phase terminale d’une longue séquence haussière, phase pendant laquelle les cours de bourse s’affranchissent nettement de leurs relations habituelles avec les données économiques, micro et macro, selon une métrique bien connue (ratios de capitalisation boursière sur profits, chiffre d’affaires ou actif net, d’une part et capitalisation boursière/PIB d’autre part). C’est aussi une période pendant laquelle les rendements attendus des actifs sont de plus en plus déterminés par la plus-value escomptée à la revente et de moins en moins par les revenus courants, loyers, dividendes et coupons, dont le taux de rendement diminue à mesure que les prix s’élèvent. 1.1 Une Survalorisation des cours boursiers aux plans micro et macro-économique ? Le tableau ci-dessous dresse le constat peu discutable de forte valorisation des cours boursiers actuels. Les achats à crédits restent en ligne avec la progression des cours, loin de leur record de 2008. Ils n’en n’ont pas moins explosé en 2020 (+42% soit 235 Md USD). Source : calcul des auteurs Ainsi, par exemple, peut-on observer l’accroissement significatif, et sans commune mesure avec les épisodes de 2000/2001 et 2007/2008, de la capitalisation boursière de l’indice Wilshire 5 000[1] rapportée au PIB US (+ de 3 écart-types au-dessus de sa moyenne de long terme). https://www.longtermtrends.net/market-cap-to-gdp-the-buffett-indicator/ Enfin, les traditionnels indicateurs de valorisation à base de Price Earning Ratio (P.E.R) , de rendement ou de dividendes indiquent également des niveaux de valorisation se rapprochant dangereusement des niveaux atteints à la veille de l’éclatement de la bulle internet. Ainsi, le Shiller P/E Ratio (ou CAPE pour cyclically adjusted price to earnings), calculé sur la base de la moyenne mobile sur dix ans des bénéfices nets par action (BPA) ajustés de l’inflation se situe à environ 35, bien au-delà de sa moyenne historique de 16,7 fois et de son niveau de 32,6 observé en septembre1929. Dans ces conditions, les rendements en bénéfices et en dividendes atteignent des niveaux très proches de leurs niveaux bas historiques. https://www.multpl.com/ 1.2 Les éléments récurrents présidant à la formation des bulles Il est généralement objecté à cette analyse que les conditions monétaires qui prévalent (taux zéro ; quantitative easing) rendent les comparaisons avec les moyennes /médianes historiques non significatives. Et, surtout, que les montants gigantesques apportées par la puissance publique à l’ensemble des Agents non-financiers à travers les plans de relance successifs expliquent à la fois la résilience surprenante de l’économie américaine (par effet retour de la richesse créée par la hausse du prix des actifs) et l’engouement des (nouveaux) épargnants pour les placements à risque dans une optique de recovery générale. Face à ces arguments avancés à chaque fois que l’on prétend que ‘‘this time is different’’ une brève revue des conditions de notre époque s’impose pour vérifier leur adéquation aux six caractéristiques communes à tous les cycles bull/krach de l’histoire, tels qu’identifiés par Minsky et décrits par Kindelberger (1978)[2]. -le changement d’état : l’achèvement de la globalisation et de la numérisation de l’économie ; le monopole des GAFAM -le progrès technique à portée universelle : l’IA, les biotechnologies, la voiture propre -la complaisance générale : elle aurait été plutôt remplacée par une dichotomie entre exubérance financière et scepticisme généralisé (le niveau de la volatilité implicite des options restant plus élevé

    Par Ninet J., Bourghelle D.

    10 mai 2021

    Câbles sous-marins : les nouveaux pouvoirs des géants du numérique

    Début août, une grue sous-marine travaillant à la collecte de sable dans la baie de Kuakata a heurté un câble sous-marin de télécommunications, se traduisant par une perte de 40 % de la vitesse du réseau internet du Bangladesh. En juillet dernier, la Somalie a été totalement privée d’Internet pendant plusieurs heures en raison d’une opération de maintenance à distance du câble sous-marin dénommé « EASSy » qui relie la côte est-africaine au réseau. Ces événements ne sont pas anodins à l’échelle d’un pays : les banques, les compagnies aériennes, les entreprises, les médias et certains services gouvernementaux sont dépendants d’Internet pour fournir leurs services. Aujourd’hui, 98 % des données numériques mondiales circulent par les câbles sous-marins. C’est par exemple le cas du principal système d’échanges de la finance mondiale de la Society for Worldwide Interbank Financial Telecommunications (SWIFT) qui dépend de la vitesse de ces câbles à fibre optique. Le numérique repose ainsi sur une infrastructure bien réelle : on dénombre aujourd’hui 436 câbles sous-marins de télécommunication, dont 25 traversent l’océan Atlantique et 22 le Pacifique[1]. Passerelles intercontinentales entre les différents réseaux filaires nationaux, les câbles sous-marins débouchent sur des stations d’atterrissement situées en région côtière. La France compte, par exemple, 13 stations d’atterrissement sur son territoire côtier connectant les réseaux filaires nationaux à 23 câbles sous-marins. Ces “routes du fond des mers”, selon l’expression de Florence Smits et Tristan Lecoq en 2017[2], sont les héritiers des premiers câbles télégraphiques du XIXe siècle dont l’emploi permit, en 1858, l’envoi du premier message télégraphique officiel par la reine Victoria au président américain James Buchanan. Le message de 509 lettres avait alors mis 17 heures et 40 minutes à traverser l’océan Atlantique. Aujourd’hui, la fibre optique permet un acheminement de l’information en temps quasi-réel. L’importance qu’a prise l’activité numérique dans nos sociétés contemporaines fait inévitablement des câbles sous-marins des infrastructures vitales au niveau mondial. Pourtant, les chantiers de construction, le développement et l’égalité d’accès au réseau ne font l’objet d’aucune décision multilatérale. Ces infrastructures essentielles sont la propriété d’entreprises qui louent des capacités de bande passante aux acteurs gérant les réseaux télécoms nationaux. Soumis aux aléas du marché et à la loi du plus fort, les câbles sous-marins deviennent progressivement la propriété d’une minorité d’acteurs qui disposent ainsi d’un pouvoir et d’une influence grandissantes sur les États et les entreprises. L’émergence de nouveaux acteurs est d’ailleurs venue bouleverser les équilibres. Si les propriétaires historiques des câbles sous-marins étaient les entreprises privées ou publiques des télécoms, les géants du numérique ont, depuis 2016, massivement investi et possèdent ou louent aujourd’hui plus de la moitié de la capacité des câbles sous-marin. En outre, la stratégie de développement des géants du numérique diffèrent des collectifs traditionnels. Aux grands consortiums, ceux-ci préfèrent des regroupements plus réduits qui leur permettent de conserver le monopole décisionnel. Alors que le projet Africa Coast to Europe (ACE), ouvert en 2012, appartient à un consortium de 19 entreprises des télécoms, le câble MAREA reliant les États-Unis à l’Espagne n’appartient qu’à Facebook, Microsoft et Telxius. Le chantier colossal 2Africa de Facebook et déployé sur tout le pourtour du continent africain n’est porté que par huit acteurs. Google va encore plus loin : le géant a aujourd’hui les capacités financières et techniques de faire construire ses propres câbles. Ainsi, le câble Dunant qui relie depuis janvier 2020 les États-Unis et la France appartient en totalité à Google. L’entreprise déploie également le titanesque câble Equiano qui bordera toute la côte ouest du continent africain, faisant ainsi concurrence au projet 2Africa. Google possède ainsi le service et l’infrastructure qui le sous-tend, créant des situations de forte dépendance technologique pour les États, les entreprises et les usagers. Les géants américains ne sont d’ailleurs pas les seuls à user d’une stratégie de conquête sous-marine. Le chinois Hengtong a pu compter sur le soutien des banques et entreprises nationales chinoises, dont la China Construction Bank, pour lancer son projet Pakistan & East Africa Connecting Europe (PEACE) qui reliera le Pakistan, la côte est africaine à la rive sud de la Méditerranée par le canal de Suez, pour finalement atterrir à Marseille. PEACE permettra aux géants chinois Baidu, Alibaba, Tencent et Xiaomi de développer leurs activités en Afrique et en Europe. Ces stratégies de développement préfigurent un nouveau pouvoir pour les géants du numérique : ils acquièrent à la fois l’accès à un marché industriel gigantesque ainsi qu’une capacité d’influence importante sur les États et sur les entreprises des pays qui ont un accès précaire à ces infrastructures aujourd’hui. L’Afrique et le Moyen-Orient représentent dès lors pour les géants du numérique un potentiel de développement considérable. En effet, ces pays n’ont que très peu accès aux câbles, ce qui les rend vulnérables en cas de rupture de ceux-ci. En apportant sur le continent africain des infrastructures facilitant leur accès aux activités numériques, Equiano et 2Africa sont considérés comme d’importants leviers de développement économique. Mais dans le même temps, ils acquièrent la capacité d’influencer directement l’offre de services numériques dans ces pays. S’imposent ainsi des acteurs hégémoniques dotés d’un monopole technologique et infrastructurel inédit à l’échelle mondiale. Ce monopole sert les capacités de négociations et d’influence de ces entreprises dont les cabinets de lobbying sont déjà implantés dans tous les centres de pouvoirs politiques et économiques. À l’échelle de l’Union européenne, Microsoft (Havas, Com, Publics, Plead), Google (Commstrat, Image7) ou encore Facebook (Burson Marsteller I&E, Lighthouse Europe) sont en discussion constante avec le législateur en matière de droit du numérique[3]. Cette configuration de concurrence monopolistique s’inscrit en contre de la théorie libérale d’un marché qui s’équilibre par défaut, et accentue au contraire un phénomène de « capture » du régulateur. Ciblant d’abord les politiques en matière de numérique, leur influence s’étend progressivement vers d’autres secteurs clés où leurs technologies se développent : la sécurité, la défense ou encore le domaine de la santé[4]. Cette prédation doit nous alerter et nous amener à réduire, dans chaque domaine où cela est possible, le pouvoir d’influence de ces acteurs privés sur les États et

    Par Ophélie Coelho

    26 août 2020

    L’urgence d’une indépendance numérique révélée par l’urgence sanitaire

    Dans la gestion de la crise actuelle, la place accordée aux technologies du numérique a été au cœur de nombreux débats. En particulier, la question de l’accès aux données personnelles est devenue centrale dans les échanges autour du traçage des contacts et du partage des données de santé. Mais la crise a également révélé des fragilités majeures dans notre politique de gestion de ces données, en questionnant notamment l’attribution de la plateforme des données de santé à l’entreprise Microsoft. En outre, la crise a accéléré le recueil et l’exploitation de ces données, sans prendre en compte les conséquences futures de cette captation. Il devient ainsi impératif de se poser la question des répercussions à long terme des décisions prises aujourd’hui. Il faut également nous interroger sur les grands enjeux qui se cachent derrière nos choix numériques afin de mieux lancer les chantiers de long terme que nous impose ou que devrait nous imposer aujourd’hui la géopolitique du numérique.   Introduction   Nos données numériques apportent quantité d’informations sur nous-mêmes, mais aussi sur l’état de notre société, sur ses atouts et ses fragilités. Derrière des applications anodines circulent en effet des données sur l’état de santé de la population, des indices sur sa réalité sociale, sur l’état de ses infrastructures routières ou encore des informations, parfois sensibles, sur ses activités économiques et politiques. Selon l’usage que l’on fait de ces informations, l’impact sur la société peut être bénéfique ou néfaste. La mathématicienne Cathy O’Neil nous alerte par exemple sur l’usage des données dans l’éducation, la justice en passant par le commerce ou la santé, les organismes sociaux ou les assurances[1]. Les données de santé sont par exemple un trésor pour les compagnies d’assurance qui, si elles y accèdent, peuvent définir des profils de clients à risque pour adapter leur proposition commerciale, accentuant ainsi certaines inégalités face à la santé. C’est pourquoi il ne faut pas prendre à la légère les enjeux qui se cachent derrière le numérique et la circulation des données. Par ailleurs, ces données sont aussi la matière première des technologies d’apprentissage automatique, souvent regroupées autour du terme « intelligence artificielle », et sur lesquelles reposent de nombreuses innovations technologiques telles que la reconnaissance faciale ou la voiture autonome. Les entreprises et les États trouvent un intérêt évident dans la course à ces données massives qu’ils peuvent utiliser pour développer des technologies de pointe dédiées à des secteurs variés, tels que le contrôle aux frontières, la sécurité, la santé, la justice ou le militaire. Dans le domaine de la santé, au cœur de cette note, les données sont nécessaires si l’on souhaite développer les technologies de machine learning qui permettent d’accompagner la recherche médicale et d’améliorer les outils des praticiens. À ce titre, elles sont déterminantes dans le développement de ce tissu industriel. Mais elles sont aussi éminemment stratégiques : la surveillance des données de santé à l’échelle d’un pays donne une carte d’identité précieuse qui révèle les fragilités d’un système de santé, celles des individus, et permet d’orienter des décisions économiques, politiques voire militaires. La Direction générale de la sécurité intérieure (DGSI) alertait d’ailleurs, dès 2018, sur l’acquisition par les entreprises américaines de plusieurs sociétés françaises expertes dans le traitement de ce type d’informations, et notamment la branche dédiée à la gestion des données clients et stratégiques de Cegedim, acquise par IMS Health en 2015. L’administration s’inquiétait alors de la captation, par « des entités tant publiques que privées », d’informations stratégiques et orientant la politique économique des États-Unis vis-à-vis des industries françaises[2]. Un an plus tard, Microsoft Azure fut désigné, sans passage par un appel d’offre, comme prestataire principal de la Plateforme des données de santé des Français, baptisée Health data hub[3]. Cet hébergeur, qui propose également des services d’analyse, accélère sa captation de données dans l’urgence de la crise sanitaire. En matière de géopolitique des données, la gestion de la crise actuelle agit ainsi comme un formidable révélateur de notre dépendance extérieure dans le domaine du numérique appliqué à la santé. Face aux enjeux d’indépendance numérique et de protection des données qui se posent, de grands et longs chantiers seront nécessaires. Cette note propose d’apporter quelques pistes de réponses sur la manière de les engager.   1. Penser le numérique relève d’une approche transversale qui s’applique à l’analyse de la gestion des données numériques en santé   Penser le numérique, notamment dans un secteur aussi essentiel et structurant que la santé, nécessite une approche transversale qui prenne en compte plusieurs couches de l’activité numérique. En 2016, la politologue Frédérick Douzet proposait trois « couches du cyberespace » : la couche physique, logique et sémantique[3]. Le schéma ci-dessous s’inspire de ce modèle, mais propose un échelonnage à quatre niveaux des technologies, hiérarchisées selon leur rôle dans l’activité numérique : les socles matériels sans lesquels aucune activité numérique n’est possible, composés des infrastructures mais aussi du matériel informatique et mobile ; les applicatifs codés, c’est à dire les OS, les logiciels ou les algorithmes, les sites internet, les applications ; les données dont les flux circulent entre applicatifs et socles ; les usages, qui définissent les manières de vivre dans et avec le numérique. Cette approche transversale donne une place particulière à la dimension matérielle, dans un domaine où très souvent le virtuel et le vocabulaire qui l’accompagne, du cloud au data lake, fabrique un imaginaire qui donne l’impression d’un effacement des frontières physiques et géographiques. Comme l’énonce Amaël Cattaruzza, « les processus de datafication nous obligent à modifier nos approches et nos interprétations et à reconsidérer le concept clef de la géopolitique, à savoir le territoire »[4]. Ainsi, ce n’est pas parce que nos données sont numériques qu’elles ne suivent pas un parcours, qu’elles n’ont pas un lieu de production et de destination, et que les enjeux de leur captation ne renvoient pas à des réalités géopolitiques. Or, la stratégie numérique en matière de données de santé concerne chacune de ces couches. Elle pose d’abord la question des socles matériels, qui correspond à la « couche physique

    Par Ophélie Coelho

    20 mai 2020

      Partager

      EmailFacebookTwitterLinkedInTelegram