fbpx

Le laboratoire d’idées de la reconstruction écologique et républicaine

Notes

Notes

Indépendance numérique : que nous apprend la Chine ?

« Si vous ouvrez la fenêtre, l’air frais entrera mais les mouches aussi. » Cette phrase a été prononcée dans les années 1980 par Deng Xiaoping, principal dirigeant de la République populaire de Chine de 1978 à 1989, lors d’un congrès présentant la nouvelle politique d’ouverture de la Chine à la mondialisation. À l’époque, celui-ci défend l’idée selon laquelle la Chine ne peut se développer économiquement qu’en adhérant à la mondialisation.

Par Ophélie Coelho

30 novembre 2021

Les États-Unis, les Big techs et le reste du monde… Saisir un moment historique pour bâtir une indépendance numérique

Introduction L’administration Biden a démarré son mandat en envoyant un message fort aux Big techs. Peu de temps après son élection, deux des postes clés de la politique anti-concurrentielle ont été pourvus par des juristes spécialistes des questions numériques : Tim Wu, professeur de droit à Columbia engagé pour la « neutralité du net[1] », au Conseil économique national sur les questions de politique antitrust ; et Lina Khan, juriste et auteure de l’étude Amazon’s Antitrust Paradox[2], à la tête de la Federal Trade Commission (FTC)[3]. Le département du Trésor a par ailleurs porté auprès de l’Organisation de coopération et de développement économique (OCDE) un projet de taxation des multinationales, qui concerne en particulier les géants du numérique[4]. En avril dernier, le président américain exprimait même son soutien, à peine masqué, aux travailleurs de l’entrepôt géant d’Amazon à Bessemer (Alabama) lors de négociations portant sur la création d’un syndicat[5]. Ces différents événements suivent la publication, en octobre 2020, d’un rapport important de la sous-commission antitrust de la Chambre des représentants, qui portait sur l’abus de position dominante des entreprises Amazon, Apple, Facebook et Google[6]. Ce document dresse un portrait sévère de l’action de la FTC et du ministère de la Justice, administrations clés de la politique antitrust, en les accusant d’avoir laissé les géants Amazon, Apple, Facebook et Google réaliser plus de 500 acquisitions d’entreprises depuis 1998[7]. L’enquête fait également le constat de l’influence des Big techs sur l’ensemble de l’écosystème numérique. Dans ses recommandations, la sous-commission tente de concevoir des outils fiables pour lutter contre la concentration des monopoles et les pratiques anti-concurrentielles de ces entreprises. Pour le sénateur démocrate David N. Cicilline, qui dirigeait cette enquête, les Big techs sont aujourd’hui les équivalents des conglomérats historiques de Rockefeller, Carnegie et Morgan, qui avaient poussé John Sherman à proposer une loi contre la formation des monopoles en 1890. Lors d’une allocution à la Chambre du Congrès en juillet 2020, le sénateur reprenait même à son compte les termes d’un célèbre discours de Sherman, dénonçant les Big techs et leur « capacité à dicter leurs conditions, à décider du jeu, à mettre à bas des secteurs entiers et à inspirer la peur, [ce qui] équivaut au pouvoir d’un gouvernement privé. Nos Pères Fondateurs ne se sont pas agenouillés devant un Roi, nous ne nous mettrons pas à genoux devant les Empereurs de l’économie immatérielle ! »[8].   Pour lutter contre ces « plateformes en ligne dominantes » (« Dominant Online Platforms » dans le rapport), la sous-commission a proposé trois grands chantiers en faveur d’une politique anti-concurrentielle. Le premier volet d’actions consiste à encourager une concurrence plus équilibrée sur les marchés numériques, notamment par la lutte contre les pratiques commerciales déloyales. Le second concerne le renforcement des lois relatives aux fusions et aux monopoles, et introduit des scénarios de séparations structurelles, c’est-à-dire le démantèlement des géants du numérique. Enfin, la sous-commission insiste sur le nécessaire rétablissement d’une surveillance et d’une application plus rigoureuses des lois antitrust.   Ces solutions sont-elles pertinentes aujourd’hui pour lutter contre les oligopoles que constituent les Big techs ? Sur certains aspects, ces mesures peuvent en effet affaiblir ces entreprises. Mais les solutions avancées au Congrès restent des réponses du marché aux problèmes du marché. Il est par exemple peu probable, comme certains l’ont affirmé à l’annonce de la nomination de Lina Khan, que la seule politique antitrust américaine soit à même de répondre aux phénomènes de dépendance aux Big techs que l’Europe a contribué à forger. Il nous semble donc nécessaire d’analyser la portée, l’intérêt et les limites des propositions actuellement discutées aux États-Unis, afin de soumettre au débat des propositions complémentaires visant à limiter le pouvoir des géants du numérique dans l’espace international. Ces propositions s’ajoutent à celles formulées dans la première note publiée par l’Institut Rousseau qui portait sur la dépendance de l’Europe aux Big techs[9], dans ce qui constitue un cycle de trois notes consacrées à la géopolitique du numérique. Alors que se tient à l’Assemblée nationale une mission d’information sur la souveraineté numérique, nous proposons dans cette note une analyse de la situation américaine et de la pertinence de la stratégie proposée par le Congrès (I, II). Nous verrons à quelles difficultés se confronte l’État américain aujourd’hui face à des entreprises devenues trop influentes (III). Cela nous amènera à préciser les actions concrètes, à court et à moyen termes, qui pourraient être mises en œuvre dans un cadre international pour limiter les pouvoirs des géants du numérique (IV, V).   I. Comment les dysfonctionnements de la politique antitrust des États-Unis ont-ils bénéficié aux Big techs ?   Dans une note publiée en 2017 dans le journal scientifique universitaire de Yale, Lina Khan, alors étudiante en droit, interrogeait la politique antitrust américaine et les conséquences sur le développement de l’entreprise Amazon[10]. Ce texte, baptisé Amazon’s antitrust paradox en réponse au Antitrust paradox de Robert H. Bork, a beaucoup inspiré l’analyse historique et juridique du congrès. Nous rappelons ici quelques grandes lignes de cette analyse des évolutions de la politique anti-concurrentielle américaine. 1. La lutte anti-monopole : point faible des lois antitrust au XXe siècle   À l’origine, les lois antitrust américaines ont été promulguées par le Congrès en 1890, puis en 1914, notamment au travers des lois Sherman et Clayton qui donnaient une place importante à la lutte contre les conglomérats et les positions monopolistiques de certains acteurs privés. Elles ont pris forme dans un contexte où les monopoles constitués autour des industries de l’acier, du cuivre, du pétrole (la fameuse Standard Oil Corporation), du fer, du sucre, de l’étain et du charbon avaient pris une place importante dans la vie politique. Dès le milieu du XIXe siècle, ces entreprises n’étaient plus de simples acteurs économiques, mais des influenceurs importants de la vie politique et sociale. Figure 1. The Bosses of the Senate, caricature satirique de Joseph Ferdinand Keppler. Publié dans la revue Puck le 23 janvier 1889. Dans ce dessin, une porte de la tribune, « l’entrée du

Par Ophélie Coelho

22 juin 2021

Quand le décideur européen joue le jeu des Big techs… Engager une transition technologique pour sortir des dépendances numériques

En 2013, le rapport d’information de la sénatrice Catherine Morin-Desailly intitulé « L'Union européenne, colonie du monde numérique ? » décrivait un contexte où l’Europe était « en passe de devenir une colonie du monde numérique, [...] dépendante de puissances étrangères ». Nous y sommes depuis déjà quelques années, et la période de crise sanitaire que nous connaissons n’a fait qu’affirmer nos dépendances à des acteurs techniques devenus aujourd’hui très puissants. Les Big techs, dont les plus connues sont Amazon, Microsoft et Google, ne sont plus de simples pourvoyeuses d’outils numériques, mais se rendent aujourd’hui indispensables aux technologies socles de télécommunication. Depuis 2016, elles construisent leurs propres câbles sous-marins entre les États-Unis et l’Europe, et tracent même de nouvelles routes sur le pourtour du continent africain.

Par Ophélie Coelho

8 juin 2021

Câbles sous-marins : les nouveaux pouvoirs des géants du numérique

Début août, une grue sous-marine travaillant à la collecte de sable dans la baie de Kuakata a heurté un câble sous-marin de télécommunications, se traduisant par une perte de 40 % de la vitesse du réseau internet du Bangladesh. En juillet dernier, la Somalie a été totalement privée d’Internet pendant plusieurs heures en raison d’une opération de maintenance à distance du câble sous-marin dénommé « EASSy » qui relie la côte est-africaine au réseau. Ces événements ne sont pas anodins à l’échelle d’un pays : les banques, les compagnies aériennes, les entreprises, les médias et certains services gouvernementaux sont dépendants d’Internet pour fournir leurs services. Aujourd’hui, 98 % des données numériques mondiales circulent par les câbles sous-marins. C’est par exemple le cas du principal système d’échanges de la finance mondiale de la Society for Worldwide Interbank Financial Telecommunications (SWIFT) qui dépend de la vitesse de ces câbles à fibre optique. Le numérique repose ainsi sur une infrastructure bien réelle : on dénombre aujourd’hui 436 câbles sous-marins de télécommunication, dont 25 traversent l’océan Atlantique et 22 le Pacifique[1]. Passerelles intercontinentales entre les différents réseaux filaires nationaux, les câbles sous-marins débouchent sur des stations d’atterrissement situées en région côtière. La France compte, par exemple, 13 stations d’atterrissement sur son territoire côtier connectant les réseaux filaires nationaux à 23 câbles sous-marins. Ces “routes du fond des mers”, selon l’expression de Florence Smits et Tristan Lecoq en 2017[2], sont les héritiers des premiers câbles télégraphiques du XIXe siècle dont l’emploi permit, en 1858, l’envoi du premier message télégraphique officiel par la reine Victoria au président américain James Buchanan. Le message de 509 lettres avait alors mis 17 heures et 40 minutes à traverser l’océan Atlantique. Aujourd’hui, la fibre optique permet un acheminement de l’information en temps quasi-réel. L’importance qu’a prise l’activité numérique dans nos sociétés contemporaines fait inévitablement des câbles sous-marins des infrastructures vitales au niveau mondial. Pourtant, les chantiers de construction, le développement et l’égalité d’accès au réseau ne font l’objet d’aucune décision multilatérale. Ces infrastructures essentielles sont la propriété d’entreprises qui louent des capacités de bande passante aux acteurs gérant les réseaux télécoms nationaux. Soumis aux aléas du marché et à la loi du plus fort, les câbles sous-marins deviennent progressivement la propriété d’une minorité d’acteurs qui disposent ainsi d’un pouvoir et d’une influence grandissantes sur les États et les entreprises. L’émergence de nouveaux acteurs est d’ailleurs venue bouleverser les équilibres. Si les propriétaires historiques des câbles sous-marins étaient les entreprises privées ou publiques des télécoms, les géants du numérique ont, depuis 2016, massivement investi et possèdent ou louent aujourd’hui plus de la moitié de la capacité des câbles sous-marin. En outre, la stratégie de développement des géants du numérique diffèrent des collectifs traditionnels. Aux grands consortiums, ceux-ci préfèrent des regroupements plus réduits qui leur permettent de conserver le monopole décisionnel. Alors que le projet Africa Coast to Europe (ACE), ouvert en 2012, appartient à un consortium de 19 entreprises des télécoms, le câble MAREA reliant les États-Unis à l’Espagne n’appartient qu’à Facebook, Microsoft et Telxius. Le chantier colossal 2Africa de Facebook et déployé sur tout le pourtour du continent africain n’est porté que par huit acteurs. Google va encore plus loin : le géant a aujourd’hui les capacités financières et techniques de faire construire ses propres câbles. Ainsi, le câble Dunant qui relie depuis janvier 2020 les États-Unis et la France appartient en totalité à Google. L’entreprise déploie également le titanesque câble Equiano qui bordera toute la côte ouest du continent africain, faisant ainsi concurrence au projet 2Africa. Google possède ainsi le service et l’infrastructure qui le sous-tend, créant des situations de forte dépendance technologique pour les États, les entreprises et les usagers. Les géants américains ne sont d’ailleurs pas les seuls à user d’une stratégie de conquête sous-marine. Le chinois Hengtong a pu compter sur le soutien des banques et entreprises nationales chinoises, dont la China Construction Bank, pour lancer son projet Pakistan & East Africa Connecting Europe (PEACE) qui reliera le Pakistan, la côte est africaine à la rive sud de la Méditerranée par le canal de Suez, pour finalement atterrir à Marseille. PEACE permettra aux géants chinois Baidu, Alibaba, Tencent et Xiaomi de développer leurs activités en Afrique et en Europe. Ces stratégies de développement préfigurent un nouveau pouvoir pour les géants du numérique : ils acquièrent à la fois l’accès à un marché industriel gigantesque ainsi qu’une capacité d’influence importante sur les États et sur les entreprises des pays qui ont un accès précaire à ces infrastructures aujourd’hui. L’Afrique et le Moyen-Orient représentent dès lors pour les géants du numérique un potentiel de développement considérable. En effet, ces pays n’ont que très peu accès aux câbles, ce qui les rend vulnérables en cas de rupture de ceux-ci. En apportant sur le continent africain des infrastructures facilitant leur accès aux activités numériques, Equiano et 2Africa sont considérés comme d’importants leviers de développement économique. Mais dans le même temps, ils acquièrent la capacité d’influencer directement l’offre de services numériques dans ces pays. S’imposent ainsi des acteurs hégémoniques dotés d’un monopole technologique et infrastructurel inédit à l’échelle mondiale. Ce monopole sert les capacités de négociations et d’influence de ces entreprises dont les cabinets de lobbying sont déjà implantés dans tous les centres de pouvoirs politiques et économiques. À l’échelle de l’Union européenne, Microsoft (Havas, Com, Publics, Plead), Google (Commstrat, Image7) ou encore Facebook (Burson Marsteller I&E, Lighthouse Europe) sont en discussion constante avec le législateur en matière de droit du numérique[3]. Cette configuration de concurrence monopolistique s’inscrit en contre de la théorie libérale d’un marché qui s’équilibre par défaut, et accentue au contraire un phénomène de « capture » du régulateur. Ciblant d’abord les politiques en matière de numérique, leur influence s’étend progressivement vers d’autres secteurs clés où leurs technologies se développent : la sécurité, la défense ou encore le domaine de la santé[4]. Cette prédation doit nous alerter et nous amener à réduire, dans chaque domaine où cela est possible, le pouvoir d’influence de ces acteurs privés sur les États et

Par Ophélie Coelho

26 août 2020

L’urgence d’une indépendance numérique révélée par l’urgence sanitaire

Dans la gestion de la crise actuelle, la place accordée aux technologies du numérique a été au cœur de nombreux débats. En particulier, la question de l’accès aux données personnelles est devenue centrale dans les échanges autour du traçage des contacts et du partage des données de santé. Mais la crise a également révélé des fragilités majeures dans notre politique de gestion de ces données, en questionnant notamment l’attribution de la plateforme des données de santé à l’entreprise Microsoft. En outre, la crise a accéléré le recueil et l’exploitation de ces données, sans prendre en compte les conséquences futures de cette captation. Il devient ainsi impératif de se poser la question des répercussions à long terme des décisions prises aujourd’hui. Il faut également nous interroger sur les grands enjeux qui se cachent derrière nos choix numériques afin de mieux lancer les chantiers de long terme que nous impose ou que devrait nous imposer aujourd’hui la géopolitique du numérique.   Introduction   Nos données numériques apportent quantité d’informations sur nous-mêmes, mais aussi sur l’état de notre société, sur ses atouts et ses fragilités. Derrière des applications anodines circulent en effet des données sur l’état de santé de la population, des indices sur sa réalité sociale, sur l’état de ses infrastructures routières ou encore des informations, parfois sensibles, sur ses activités économiques et politiques. Selon l’usage que l’on fait de ces informations, l’impact sur la société peut être bénéfique ou néfaste. La mathématicienne Cathy O’Neil nous alerte par exemple sur l’usage des données dans l’éducation, la justice en passant par le commerce ou la santé, les organismes sociaux ou les assurances[1]. Les données de santé sont par exemple un trésor pour les compagnies d’assurance qui, si elles y accèdent, peuvent définir des profils de clients à risque pour adapter leur proposition commerciale, accentuant ainsi certaines inégalités face à la santé. C’est pourquoi il ne faut pas prendre à la légère les enjeux qui se cachent derrière le numérique et la circulation des données. Par ailleurs, ces données sont aussi la matière première des technologies d’apprentissage automatique, souvent regroupées autour du terme « intelligence artificielle », et sur lesquelles reposent de nombreuses innovations technologiques telles que la reconnaissance faciale ou la voiture autonome. Les entreprises et les États trouvent un intérêt évident dans la course à ces données massives qu’ils peuvent utiliser pour développer des technologies de pointe dédiées à des secteurs variés, tels que le contrôle aux frontières, la sécurité, la santé, la justice ou le militaire. Dans le domaine de la santé, au cœur de cette note, les données sont nécessaires si l’on souhaite développer les technologies de machine learning qui permettent d’accompagner la recherche médicale et d’améliorer les outils des praticiens. À ce titre, elles sont déterminantes dans le développement de ce tissu industriel. Mais elles sont aussi éminemment stratégiques : la surveillance des données de santé à l’échelle d’un pays donne une carte d’identité précieuse qui révèle les fragilités d’un système de santé, celles des individus, et permet d’orienter des décisions économiques, politiques voire militaires. La Direction générale de la sécurité intérieure (DGSI) alertait d’ailleurs, dès 2018, sur l’acquisition par les entreprises américaines de plusieurs sociétés françaises expertes dans le traitement de ce type d’informations, et notamment la branche dédiée à la gestion des données clients et stratégiques de Cegedim, acquise par IMS Health en 2015. L’administration s’inquiétait alors de la captation, par « des entités tant publiques que privées », d’informations stratégiques et orientant la politique économique des États-Unis vis-à-vis des industries françaises[2]. Un an plus tard, Microsoft Azure fut désigné, sans passage par un appel d’offre, comme prestataire principal de la Plateforme des données de santé des Français, baptisée Health data hub[3]. Cet hébergeur, qui propose également des services d’analyse, accélère sa captation de données dans l’urgence de la crise sanitaire. En matière de géopolitique des données, la gestion de la crise actuelle agit ainsi comme un formidable révélateur de notre dépendance extérieure dans le domaine du numérique appliqué à la santé. Face aux enjeux d’indépendance numérique et de protection des données qui se posent, de grands et longs chantiers seront nécessaires. Cette note propose d’apporter quelques pistes de réponses sur la manière de les engager.   1. Penser le numérique relève d’une approche transversale qui s’applique à l’analyse de la gestion des données numériques en santé   Penser le numérique, notamment dans un secteur aussi essentiel et structurant que la santé, nécessite une approche transversale qui prenne en compte plusieurs couches de l’activité numérique. En 2016, la politologue Frédérick Douzet proposait trois « couches du cyberespace » : la couche physique, logique et sémantique[3]. Le schéma ci-dessous s’inspire de ce modèle, mais propose un échelonnage à quatre niveaux des technologies, hiérarchisées selon leur rôle dans l’activité numérique : les socles matériels sans lesquels aucune activité numérique n’est possible, composés des infrastructures mais aussi du matériel informatique et mobile ; les applicatifs codés, c’est à dire les OS, les logiciels ou les algorithmes, les sites internet, les applications ; les données dont les flux circulent entre applicatifs et socles ; les usages, qui définissent les manières de vivre dans et avec le numérique. Cette approche transversale donne une place particulière à la dimension matérielle, dans un domaine où très souvent le virtuel et le vocabulaire qui l’accompagne, du cloud au data lake, fabrique un imaginaire qui donne l’impression d’un effacement des frontières physiques et géographiques. Comme l’énonce Amaël Cattaruzza, « les processus de datafication nous obligent à modifier nos approches et nos interprétations et à reconsidérer le concept clef de la géopolitique, à savoir le territoire »[4]. Ainsi, ce n’est pas parce que nos données sont numériques qu’elles ne suivent pas un parcours, qu’elles n’ont pas un lieu de production et de destination, et que les enjeux de leur captation ne renvoient pas à des réalités géopolitiques. Or, la stratégie numérique en matière de données de santé concerne chacune de ces couches. Elle pose d’abord la question des socles matériels, qui correspond à la « couche physique

Par Ophélie Coelho

20 mai 2020

    Partager

    EmailFacebookTwitterLinkedInTelegram