Souveraineté numérique : l'Europe marche dans les chaînes qu'elle s'est forgées
Revue de presse du 9 avril 2026
Dernière mise à jour : 00:37
---
Le mot « souveraineté » revient dans chaque discours tech depuis trois ans. Il orne les communiqués de Bruxelles, les plans stratégiques, les lois sur les données. Ce mercredi, trois actualités distinctes racontent la même chose : cette souveraineté est largement cosmétique.
Le wallet européen, ou comment déléguer la clef de sa propre maison
D'ici fin 2026, chaque État membre de l'Union européenne devra fournir à ses citoyens un portefeuille d'identité numérique. L'idée est séduisante sur le papier : stocker sa carte d'identité, ses diplômes, son permis de conduire sur son téléphone, sans partager plus que nécessaire. Bruxelles a mis des années à négocier ce cadre, baptisé eIDAS 2.
Le problème : ce wallet sera une application. Et sur iOS comme sur Android, c'est Apple et Google qui dictent leurs règles — accès aux composants NFC, validation en boutique, conditions générales d'utilisation. Les États ne pourront pas déployer leur outil souverain sans passer par les magasins d'applications des deux géants américains. Autrement dit, l'Europe construit sa maison de l'identité numérique, mais remet les clefs au propriétaire du terrain.
Ce n'est pas un bug, c'est une architecture. Tant que l'UE ne contrôle pas la couche OS des terminaux mobiles — et elle ne la contrôle pas — toute souveraineté applicative reste conditionnelle. Le Digital Markets Act peut imposer des garde-fous, mais il ne change pas la structure fondamentale : deux entreprises américaines gèrent les accès à 95 % des smartphones européens.
Une génération qui achète ce que l'IA lui conseille
Pendant ce temps, une mutation silencieuse transforme les comportements d'achat. Selon une étude OpinionWay relayée ce matin par Le Figaro, un tiers des Français de 15 à 25 ans achètent régulièrement des produits recommandés par des assistants conversationnels comme ChatGPT. Les réseaux sociaux et l'IA sont devenus le premier réflexe shopping de cette tranche d'âge — devant Google, devant les comparateurs de prix, devant les avis clients traditionnels.
Ce chiffre mérite qu'on s'y arrête. Ce n'est pas seulement une histoire de marketing. C'est le signe que des millions de jeunes adultes ont délégué leur jugement d'achat à un système entraîné sur des données dont ils ignorent la composition, optimisé selon des objectifs qu'ils ne connaissent pas, et qui n'a aucune obligation de transparence sur ses éventuels partenariats commerciaux.
Les marques l'ont compris avant les régulateurs. Elles investissent massivement dans l'optimisation pour les moteurs de réponse IA — ce que les spécialistes appellent désormais l'AEO, Answer Engine Optimization, pendant de l'ancien SEO. La question de qui contrôle ces réponses, et dans quel intérêt, n'a pas encore trouvé de réponse satisfaisante côté législatif.
Chez Meta, la confiance a un périmètre interne
Le troisième signal vient de Facebook. Un employé de Meta a réussi à télécharger plus de 30 000 photos privées d'utilisateurs avant d'être repéré. L'incident a été confirmé — sans enthousiasme — par l'entreprise.
Ce type d'affaire est toujours plus révélateur que les grandes failles techniques médiatisées. Elle rappelle que le risque sur les données personnelles ne vient pas uniquement de hackers externes ou de gouvernements hostiles. Il vient aussi de l'intérieur : des employés qui ont accès, par définition, à ce que des centaines de millions de personnes croient confidentiel. Les certifications RGPD, les politiques de confidentialité en 47 pages, les promesses de chiffrement — tout cela ne pèse rien face à un accès interne mal encadré.
Meta n'est pas seul dans ce cas. Ce qui distingue cette affaire, c'est que l'entreprise l'a reconnu, signe que les mécanismes de détection interne fonctionnent. Ce qui devrait inquiéter, c'est tout ce qui ne déclenche aucune alerte.
OpenAI : quand le capitaine prend l'eau
À San Francisco, la tension monte autour de Sam Altman. Des témoignages internes convergent : le patron d'OpenAI serait brillant en communication, mais réputé pour contourner la vérité avec ses propres équipes. La formule circule en interne — « le problème, c'est Sam Altman lui-même » — et elle ne vient pas de détracteurs externes, mais de collaborateurs proches.
Ce n'est pas une anecdote de couloir. OpenAI est aujourd'hui l'entreprise qui pèse le plus lourd dans la définition pratique de l'intelligence artificielle mondiale. Sa gouvernance interne a déjà vacillé spectaculairement fin 2023 avec l'éviction temporaire d'Altman par son propre conseil. Ce qui se passe à l'intérieur de cette organisation a des effets directs sur les outils que des centaines de millions de personnes utilisent chaque jour — y compris ce tiers de jeunes Français qui laissent ChatGPT choisir leurs achats.
---
Ce que ces quatre histoires partagent : la distance croissante entre la rhétorique de contrôle — souveraineté, vie privée, transparence — et les structures réelles de pouvoir qui, elles, n'ont pas bougé. Le wallet européen restera sous Android. L'IA recommandera ce qu'elle voudra. Les données resteront accessibles à ceux qui ont les accréditations. Et les décisions stratégiques de l'IA la plus influente du monde dépendront d'un homme dont la fiabilité est questionnée par ses propres équipes.
La prochaine étape à suivre de près : comment la Commission européenne réagira aux conclusions de l'audit eIDAS 2 sur la dépendance aux stores d'applications, attendues avant l'été.