Quand la confiance numérique devient un acte de foi

Quand la confiance numérique devient un acte de foi
Photo: Annie Spratt / Unsplash

Revue de presse du 9 avril 2026
Dernière mise à jour : 01:17

Un tiers des jeunes Français achètent ce que ChatGPT leur recommande. Un employé de Meta télécharge 30 000 photos privées sans que personne ne s'en aperçoive à temps. Et chez OpenAI, les témoignages internes dressent le portrait d'un patron qui aurait du mal avec la vérité. Trois histoires distinctes, un même fil rouge : nous confions aux géants de la tech un pouvoir immense sur nos choix, nos données, nos récits — et les garde-fous restent artisanaux.

L'IA, nouveau prescripteur d'achat

L'étude OpinionWay rapportée par Le Figaro pose un chiffre qui devrait faire réfléchir bien au-delà du marketing : 33 % des 15-25 ans font confiance aux produits recommandés par un assistant conversationnel. Pas une publicité identifiée comme telle. Pas un avis client vérifiable. Une réponse générée par une machine dont ils ignorent les mécanismes de sélection.

Le glissement est profond. Quand Google affichait des résultats sponsorisés, le cadre publicitaire restait lisible — un bandeau « Annonce », un réflexe de méfiance possible. Avec ChatGPT ou ses équivalents, la recommandation arrive dans le flux d'une conversation. Elle emprunte le ton du conseil désintéressé. Le jeune consommateur ne distingue plus la suggestion éditoriale du placement de produit, parce que la frontière n'existe tout simplement pas dans l'interface.

Pour les marques, c'est un eldorado opaque. Pour le régulateur, un angle mort. Le Digital Markets Act européen encadre les plateformes de distribution, pas les moteurs conversationnels qui orientent la décision d'achat en amont. La DGCCRF surveille les influenceurs, pas encore les algorithmes qui les remplacent.

Chez Meta, les murs sont en carton

L'affaire révélée par Clubic semble presque caricaturale : un employé de Facebook a pu télécharger 30 000 photos privées d'utilisateurs avant d'être repéré. Pas une faille zero-day sophistiquée. Pas un groupe de hackers étatique. Un salarié, avec ses accès internes, qui se sert.

Ce type d'incident rappelle une vérité que l'industrie préfère minimiser : la menace interne reste l'un des vecteurs d'atteinte à la vie privée les plus redoutables. Meta emploie plus de 70 000 personnes. Chacune d'entre elles, selon son niveau d'accès, dispose d'une fenêtre potentielle sur les données de trois milliards d'utilisateurs. Les contrôles existent, mais ils sont réactifs — on attrape le salarié après qu'il a aspiré les données, pas avant.

Pour les utilisateurs français, la question n'est pas abstraite. Le RGPD impose aux entreprises de garantir la sécurité des données par conception. Quand un seul employé peut exfiltrer des dizaines de milliers de clichés personnels, c'est le principe même de « privacy by design » qui s'effondre. La Cnil, déjà mobilisée sur le ciblage politique des municipales qu'elle vient d'épingler, aura un dossier de plus à surveiller.

OpenAI, la confiance par le haut

Autre registre, même enjeu de confiance. Les témoignages internes relayés par Clubic décrivent Sam Altman comme un « brillant communicant, incapable de dire la vérité ». Le portrait n'est pas nouveau — les turbulences de novembre 2023 autour de son éviction temporaire avaient déjà fissuré l'image — mais la récurrence des critiques internes change la donne.

OpenAI n'est plus une start-up expérimentale. C'est l'entreprise qui façonne les habitudes d'achat d'un tiers de la jeunesse française. Qui fournit des briques d'IA à des milliers d'entreprises européennes. Qui négocie avec les gouvernements sur la régulation de l'intelligence artificielle. Quand le leadership d'une telle organisation est décrit comme structurellement opaque par ses propres équipes, ce n'est plus un problème de gouvernance interne — c'est un risque systémique pour tout l'écosystème qui en dépend.

La fracture silencieuse du 2G-3G

Pendant que la tech d'en haut débat de gouvernance et d'IA, une autre réalité s'impose au ras du sol. L'extinction programmée des réseaux 2G et 3G en France — 1,36 milliard d'euros de surcoûts estimés, 200 000 tonnes de CO₂ — menace directement les populations les plus fragiles. Personnes âgées équipées de téléphones basiques, objets connectés industriels calibrés sur ces fréquences, zones rurales où la 4G reste un mirage.

L'alerte lancée par un collectif d'associations met le doigt sur un impensé : la modernisation forcée des réseaux ne prévoit ni aide à l'équipement, ni compensation pour ceux qui seront déconnectés. La France pousse vers le tout-numérique — identité digitale, services publics dématérialisés — tout en sciant la branche sur laquelle les plus précaires sont encore assis.

---

Ce qu'il faut retenir. La confiance numérique fonctionne aujourd'hui comme un crédit à découvert : on l'accorde d'abord, on vérifie ensuite — quand on vérifie. Entre l'IA qui oriente nos achats sans cadre publicitaire, les plateformes qui peinent à protéger nos données de leurs propres employés, et les infrastructures qu'on démonte avant d'avoir sécurisé la transition, le décalage entre la promesse technologique et sa réalité quotidienne n'a jamais été aussi net.