3 min de lecture
Anthropic attaque le Pentagone en justice : l'IA face aux limites militaires
Désigné "risque pour la chaîne d'approvisionnement" par le Pentagone, Anthropic a saisi deux tribunaux fédéraux. OpenAI a décroché le contrat... avec les mêmes conditions refusées.
Anthropic attaque le Pentagone en justice : l'IA face aux limites militaires
En quelques jours de fin février et début mars 2026, une dispute commerciale entre Anthropic et le Département de la Défense américain s'est transformée en bataille judiciaire. Le gouvernement Trump a désigné l'entreprise créatrice de Claude comme un "risque pour la chaîne d'approvisionnement". Anthropic a répondu en saisissant deux tribunaux fédéraux. L'affaire pose une question que tout le secteur de l'IA devra affronter : jusqu'où une entreprise privée peut-elle fixer des limites à l'usage militaire de ses technologies ?
Les deux lignes rouges qui ont tout déclenché
Les négociations entre Anthropic et le Pentagone achoppaient sur deux points précis. Anthropic refusait que son modèle Claude soit utilisé pour la surveillance de masse des citoyens américains et pour des systèmes d'armement autonomes. Le Département de la Défense voulait un accès "à toutes fins légales", sans contrainte imposée par un prestataire privé.
Face à cette impasse, le Pentagone a dégainé un outil inhabituel : la désignation "supply chain risk", normalement réservée aux entités présentant une menace pour la sécurité nationale, comme des fournisseurs liés à des gouvernements étrangers hostiles. Son application contre une entreprise américaine, au motif de désaccord contractuel, est sans précédent selon les observateurs juridiques.
Anthropic a saisi le district nord de Californie et la cour d'appel fédérale de Washington D.C. le 9 mars 2026. La plainte invoque une violation du premier amendement et un dépassement des pouvoirs conférés par la loi sur les risques de chaîne d'approvisionnement. Le PDG Dario Amodei a qualifié ces actions d'"illégales et sans précédent".
Le retournement d'OpenAI
Le même jour où le Pentagone désignait Anthropic comme risque, OpenAI annonçait avoir décroché un contrat de déploiement classifié avec le Département de la Défense. En apparence, un bénéficiaire direct de la mise à l'écart de son concurrent.
Ce qui suit complique le tableau. Dans sa communication entourant le contrat, OpenAI a précisé que son accord contenait les mêmes trois restrictions : pas de surveillance domestique de masse, pas d'armement autonome, pas de décisions automatisées à forts enjeux sans supervision humaine. Autrement dit : les conditions qu'Anthropic exigeait et que le Pentagone avait refusées se retrouvent dans l'accord conclu avec OpenAI quelques heures plus tard.
Cette séquence a alimenté des accusations croisées. Dario Amodei a qualifié la communication de Sam Altman de "mensonges purs". Plus de trente chercheurs et ingénieurs d'OpenAI et de Google DeepMind, dont Jeff Dean, directeur scientifique de DeepMind, ont signé à titre personnel un mémoire d'amicus curiae soutenant la position d'Anthropic devant les tribunaux.
Ce que ça signifie pour vous
Pour les développeurs et entreprises utilisant des API d'IA, l'affaire illustre que les conditions d'usage ne sont pas seulement un sujet de conformité interne : elles peuvent devenir un enjeu juridique majeur, y compris face à des États. Pour les créateurs et professionnels adoptant ces outils, le précédent posé par cette affaire fixera jusqu'où les éditeurs d'IA peuvent aller dans la définition de limites contractuelles avec leurs clients institutionnels, gouvernementaux ou militaires. L'issue du procès pourrait remodeler les relations entre l'industrie technologique et les administrations publiques à l'échelle mondiale.
Sources : NPR · Fortune · TechCrunch · CNN Business
