IA et pouvoir : quand les géants tech jouent avec le feu
OpenAI en procès, Google au Pentagone, Musk convoqué à Paris : l’IA n’est plus une révolution technologique, mais un bras de fer géopolitique et juridique. Analyse des lignes rouges franchies.
L’IA n’est plus une promesse, c’est un champ de bataille
L’intelligence artificielle a quitté les laboratoires pour investir les prétoires, les ministères et les salles de marché. En 24 heures, trois événements ont dessiné les contours d’un nouveau rapport de force : les géants tech ne se contentent plus de vendre des outils, ils redéfinissent les règles du jeu – et les États peinent à suivre. Entre course aux armements numériques, justice à géométrie variable et régulation en retard d’une guerre, l’innovation a cessé d’être un sujet technique. Elle est devenue un enjeu de souveraineté, où chaque acteur joue sa partition sans partition.
OpenAI vs Musk : le procès qui révèle la face cachée de l’IA "éthique"
Elon Musk a choisi son camp. Devant le tribunal d’Oakland, mardi, l’homme qui se présente comme un "bienfaiteur de l’humanité" a accusé Sam Altman d’avoir trahi la mission initiale d’OpenAI. La fondation à but non lucratif, créée en 2015 pour "bénéficier à l’humanité", serait devenue une machine à profits aux mains d’un seul homme. Derrière les grands principes, le procès expose une vérité crue : l’IA n’a jamais été neutre. Elle est le reflet des ambitions – et des contradictions – de ceux qui la contrôlent.
Musk, qui a quitté le conseil d’administration d’OpenAI en 2018 après des désaccords sur sa stratégie, pointe aujourd’hui du doigt ce qu’il considère comme une dérive. "L’IA peut guérir toutes les maladies et rendre tout le monde prospère, mais elle peut aussi nous tuer tous", a-t-il déclaré, résumant en une phrase l’ambivalence d’une technologie dont les promesses égalitaires masquent mal les logiques de pouvoir. Le problème ? Personne ne sait qui, exactement, doit en fixer les limites. Pas même Musk, dont les propres entreprises (Tesla, X, Neuralink) naviguent entre innovation et controverses éthiques.
Le procès d’Oakland n’est pas qu’un règlement de comptes entre milliardaires. Il interroge la capacité des États à encadrer une technologie qui évolue plus vite que les lois. Aux États-Unis, où le Congrès peine à adopter une régulation fédérale, les tribunaux deviennent le dernier rempart. En Europe, le DMA et l’AI Act tentent de poser des garde-fous, mais leur application reste un casse-tête. Pendant ce temps, OpenAI continue de lever des milliards, tandis que Musk, lui, mise sur xAI pour concurrencer son ancien protégé. L’ironie ? Les deux camps brandissent l’étendard de l’"IA sûre"… tout en se livrant une guerre sans merci pour le contrôle du marché.
Google et le Pentagone : quand l’IA devient une arme – malgré ses salariés
600 employés de Google ont signé une pétition lundi pour demander à leur direction de renoncer à un contrat avec le Pentagone. Trop tard. L’accord, révélé le même jour, permet au ministère américain de la Défense d’utiliser Gemini, le modèle d’IA générative de Google, pour des "opérations classifiées". La formulation est volontairement floue : personne ne sait exactement comment le Pentagone compte exploiter cette technologie, ni quelles données seront traitées. Une opacité qui a de quoi inquiéter, surtout quand on connaît les antécédents de Google en matière de surveillance.
Les signataires de la pétition craignent que Gemini ne serve à des fins de ciblage militaire ou de surveillance de masse, deux usages qui entreraient en contradiction frontale avec les principes éthiques affichés par l’entreprise. En 2018, Google avait renoncé à un projet similaire (Maven) après une mobilisation interne, promettant de ne plus travailler sur des technologies "destinées à nuire". Huit ans plus tard, la promesse a volé en éclats. La raison ? L’argent. Avec des dépenses d’infrastructure qui se chiffrent en dizaines de milliards de dollars, les géants de la tech ont besoin de contrats juteux pour rentabiliser leurs investissements. Le Pentagone, lui, a les poches profondes.
Cette alliance entre Silicon Valley et l’armée américaine pose une question cruciale : jusqu’où les États sont-ils prêts à déléguer leur pouvoir à des acteurs privés ? En Europe, la Commission tente de reprendre la main avec l’AI Act, qui classe les usages militaires de l’IA comme "à haut risque". Mais les États-Unis, eux, misent sur une approche plus libérale, où les entreprises fixent elles-mêmes les limites. Résultat : Google peut vendre Gemini au Pentagone tout en promettant à ses utilisateurs que son IA est "responsable". Une schizophrénie assumée, qui rappelle que dans la course à l’IA, l’éthique est souvent le premier dommage collatéral.
Elon Musk convoqué à Paris : X dans le collimateur de la justice française
La France a décidé de ne plus laisser Musk jouer les francs-tireurs. Convoqué par le parquet de Paris dans le cadre d’une enquête sur de "possibles dérives" de X (ex-Twitter), le patron de Tesla et SpaceX a snobé l’invitation. Une provocation de plus, après des mois de bras de fer avec les autorités européennes. Le réseau social, déjà sous le feu des critiques pour sa modération défaillante, est désormais dans le viseur de la justice pour des raisons qui restent floues – mais qui pourraient concerner la diffusion de contenus haineux, la désinformation, ou encore le non-respect des obligations légales en matière de transparence.
Musk, qui se présente comme un champion de la "liberté d’expression absolue", a transformé X en un laboratoire des excès du numérique. Algorithmes opaques, vérifications d’identité payantes, amplification des discours extrêmes : le réseau social est devenu un cas d’école de ce qu’il ne faut pas faire. En France, où la loi Avia et le Digital Services Act (DSA) imposent des obligations strictes aux plateformes, X est dans le collimateur depuis des mois. La convocation de Musk marque une escalade : pour la première fois, un dirigeant de cette envergure est directement visé par la justice française.
Le message est clair : l’Europe ne compte plus laisser les géants tech dicter leurs propres règles. Après des années de régulation molle, Bruxelles et les États membres durcissent le ton. Le DSA, entré en vigueur en 2024, prévoit des amendes pouvant atteindre 6 % du chiffre d’affaires mondial pour les plateformes qui ne respectent pas leurs obligations. Pour X, qui perd des millions chaque trimestre, la menace est existentielle. Mais Musk, jamais à court d’audace, a déjà prévenu : il préférera quitter l’Europe plutôt que de se plier à ses règles. Un bluff ? Peut-être. Mais une chose est sûre : la bataille pour le contrôle du numérique ne fait que commencer.
Ce qu’il faut retenir : l’IA est entrée dans l’ère des comptes
L’innovation n’est plus une question de technologie, mais de pouvoir. En 2026, l’IA n’est plus un sujet de geeks ou de futurologues : elle est au cœur des rapports de force entre États, entreprises et citoyens. Les procès, les contrats militaires et les convocations judiciaires ne sont pas des incidents de parcours, mais les symptômes d’un système qui a perdu le contrôle.
Trois leçons se dégagent de ces derniers jours :
- Les géants tech sont devenus des États dans l’État – Ils négocient des contrats avec le Pentagone, défient les régulateurs, et fixent leurs propres règles. Leur pouvoir dépasse celui de nombreux pays.
- L’Europe tente de reprendre la main – Avec le DSA et l’AI Act, Bruxelles veut imposer un cadre. Mais face à des entreprises qui jouent la montre (ou menacent de partir), l’efficacité de ces lois reste à prouver.
- Les promesses éthiques sont un leurre – OpenAI, Google, Musk : tous brandissent l’étendard de l’"IA responsable". Mais derrière les discours, les logiques économiques et géopolitiques priment. L’éthique ? Un argument marketing de plus.
Reste une question : qui, demain, aura le dernier mot ? Les États, avec leurs lois ? Les entreprises, avec leurs milliards ? Ou les citoyens, dont les données alimentent cette machine ? Une chose est sûre : le débat n’est plus technique. Il est politique. Et il est urgent.