Palantir, ChatGPT, Meta : l'IA rattrapée par ses juges
Revue de presse du 10 avril 2026
Dernière mise à jour : 09:27
Trois actualités, une même question. Qui répond quand l'intelligence artificielle tue, manipule ou dissimule ? Cette semaine a fourni trois éléments de réponse — et aucun n'est rassurant.
Palantir : l'IA qui tue proprement, jusqu'à Paris
C'est le dossier le plus lourd, et le moins débattu en France. Selon Le Monde, Palantir — la société de data américaine cofondée par Peter Thiel — équipe désormais les armées américaine, ukrainienne et israélienne de ses systèmes d'analyse IA. Ses logiciels traitent des flux de renseignement, croisent des cibles, optimisent des décisions militaires. En temps réel, sur des théâtres de guerre actifs.
L'entreprise ne prétend pas ignorer les débats sur l'autonomisation des armes ou la surveillance de masse. Elle les assume — ou plutôt, elle les contourne. Pas d'éthique structurée, pas de comité indépendant, pas de garde-fous publics : Palantir avance vite, dans les zones grises, avec la bénédiction des contrats gouvernementaux.
Ce qui devrait interpeller directement les Français : Palantir ne se limite pas aux champs de bataille. Ses logiciels équipent aussi Airbus et la Société Générale. Deux fleurons du CAC 40 qui ont choisi, en toute discrétion, de confier une partie de leur infrastructure analytique à une société dont l'ADN est la guerre sans procès. La question que personne ne pose à leurs conseils d'administration : ont-ils audité ce que fait concrètement ce partenaire de leurs données ?
ChatGPT en examen : quand l'IA devient coaccusée
En Floride, l'État a lancé une offensive judiciaire contre OpenAI. Le motif : déterminer si ChatGPT a facilité la fusillade de l'Université d'État de Floride, où Phoenix Ikner a tué plusieurs personnes. Selon les enquêteurs, le tireur était en "contact constant" avec l'IA dans les semaines précédant le massacre.
James Uthmeier, chef de cabinet du gouverneur, a annoncé l'examen des milliers de messages échangés entre Ikner et le chatbot. Ce n'est pas encore une mise en cause juridique d'OpenAI — mais c'est une première dans l'histoire de l'IA grand public. Une entreprise technologique va devoir répondre devant les autorités d'un État américain de ce que son produit a dit, ou n'a pas dit, à un futur tueur de masse.
Les défenseurs d'OpenAI feront valoir que l'IA ne tue pas, que la responsabilité reste humaine, que des milliers d'outils quotidiens peuvent être détournés. Arguments recevables. Mais ils esquivent la vraie question : une IA conçue pour s'adapter à son interlocuteur, pour maintenir l'engagement, pour répondre à tout — a-t-elle une responsabilité particulière lorsqu'elle interagit avec quelqu'un en décompensation ? La loi américaine n'a pas de réponse. Elle va devoir en trouver une.
Meta et le leaderboard honteux
L'anecdote serait presque comique si elle ne révélait pas quelque chose de structurel. Des employés de Meta ont consommé 60 000 milliards de tokens en un mois sur un outil d'IA interne — et ce tableau de bord portait le nom d'un concurrent. Autrement dit : les ingénieurs qui développent Llama préféraient utiliser une autre IA, suffisamment pour baptiser leur leaderboard de son nom. La direction a fait disparaître le classement.
Ce que cette histoire dit de l'état de l'IA chez Meta est brutal : malgré des investissements colossaux, malgré l'open source, malgré la communication offensive de Zuckerberg, les propres troupes de l'entreprise votent avec leurs requêtes pour un concurrent. La censure du leaderboard ne règle rien — elle documente juste le problème.
Pendant ce temps, le patron d'AWS explique sans ciller son "triple-jeu" : Amazon investit dans OpenAI, dans Anthropic, et développe ses propres modèles. Conflit d'intérêts ? Non, dit-il : "stratégie de plateforme". La formule est honnête. Elle décrit aussi une course où la consolidation n'est plus une hypothèse mais une tendance lourde. Celui qui contrôle l'infrastructure gagne, quels que soient les modèles qui s'y exécutent.
Ce qu'il faut retenir
L'IA n'est plus dans la phase "prometteuse mais expérimentale". Elle est dans les armées, dans les cours de justice, dans les crises humaines. Et le cadre légal, éthique, politique qui devrait l'encadrer court derrière à bonne distance.
Palantir prouve qu'une technologie peut être massivement déployée dans des contextes à enjeux mortels sans que personne ne demande vraiment de comptes. L'affaire FloridaAI montre que les démocraties commencent à poser les bonnes questions — même si les outils juridiques manquent encore. Et Meta illustre que la bataille de l'IA se joue aussi à l'intérieur des entreprises, dans des données qu'elles s'empressent d'effacer.
La prochaine frontière ne sera pas technique. Elle sera politique.