Anthropic attaque le gouvernement américain en justice (update)
Anthropic est engagé dans un bras de fer avec les autorités US autour des conditions d’utilisation de son IA. Anthropic vient de déposer plainte contre le Pentagone. L’entreprise conteste juridiquement sa désignation comme «risque pour la chaîne d’approvisionnement en matière de sécurité nationale», qui l’exclut de contrats gouvernementaux importants.
Mise à jour du 10 mars 2016: Le conflit entre Anthropic et le Département américain de la Défense (renommé Département de la Guerre par Donald Trump) s’intensifie. Anthropic a demandé que ses modèles d’IA ne doivent être utilisés ni pour la surveillance de masse aux États-Unis ni dans des systèmes d’armes autonomes. Le Pentagone, de son côté, réclame le droit à «toute utilisation légale».
À la suite de ce désaccord, le gouvernement américain a classé l’entreprise comme «risque pour la chaîne d’approvisionnement en matière de sécurité nationale». Anthropic conteste désormais cette mesure en justice. Comme le rapporte l’agence de presse Reuters, l’entreprise a déposé plainte auprès d’un tribunal fédéral en Californie afin de bloquer son inscription sur cette liste noire. Dans sa plainte, Anthropic qualifie cette décision d’illégale et estime qu’elle viole ses droits à la liberté d’expression ainsi qu’à une procédure équitable.
La classification d’une entreprise américaine comme «Supply-Chain Risk to National Security» est extrêmement inhabituelle, souligne une dépêche Keystone-ATS reprise par swissinfo.ch. Elle exclut de facto l’entreprise de futurs contrats publics. Dans une ordonnance, le président américain Donald Trump a demandé à toutes les agences fédérales de cesser d’utiliser la technologie d’Anthropic.
Le développeur de ChatGPT, OpenAI, a depuis conclu un accord avec le Pentagone. L’entreprise a accepté les conditions du Département de la Guerre, mais cet accord suscite également des tensions. En signe de protestation, la responsable de la robotique d’OpenAI, Caitlin Kalinowski, a récemment démissionné de son poste.
L’actualité IT en Suisse et à l’international, avec un focus sur la Suisse romande, directement dans votre boîte mail > Inscrivez-vous à la newsletter d’ICTjournal, envoyée du lundi au vendredi!
Mise à jour du 3 mars 2026: Le secrétaire américain à la Guerre, Pete Hegseth, a annoncé la désignation d’Anthropic comme «risque pour la chaîne d’approvisionnement en matière de sécurité nationale».
Dans un message publié sur X, Pete Hegseth indique avoir ordonné que plus aucun contractant, fournisseur ou partenaire travaillant avec l’armée américaine ne puisse mener d’activité commerciale avec Anthropic. L’entreprise pourra toutefois continuer à fournir ses services au Département de la Guerre pour une durée maximale de six mois, le temps d’organiser une transition vers «un service plus patriotique», selon ses termes.
Cette décision intervient après le refus de l’éditeur d’assouplir les garde-fous de son IA Claude au profit de l’armée américaine (lire ci-dessous). Le différend porte sur les conditions d’utilisation des modèles Claude dans un contexte militaire. Le secrétaire reproche à Anthropic une attitude qu’il qualifie d’«arrogance et de trahison». Il estime que son Département doit disposer d’un accès «plein et sans restriction» aux modèles pour tout usage légal lié à la défense nationale. Selon lui, les limitations imposées par l’éditeur reviendraient à accorder à une entreprise privée un droit de veto sur des décisions opérationnelles.
OpenAI comme alternative
Le Pentagone s’est tourné vers OpenAI. La société dirigée par Sam Altman a annoncé un accord pour le déploiement de systèmes d’IA dans des environnements classifiés.
Dans une FAQ publiée à cette occasion, OpenAI affirme avoir maintenu ses propres «red lines». Le contrat prévoit un déploiement exclusivement via le cloud, le maintien de sa «safety stack» et la présence de personnel habilité dans la boucle. L’entreprise assure que ses modèles ne pourront pas être utilisés pour des armes autonomes ni pour la surveillance domestique de citoyens américains. OpenAI présente également l’accord comme un effort de stabilisation. L’entrepise dirigée par Sam Altman estime qu’un «bon futur» nécessitera une collaboration étroite entre le gouvernement et les éditeurs d’IA. OpenAI indique avoir demandé que des conditions similaires puissent être proposées à d’autres acteurs du secteur. OpenAI précise par ailleurs ne pas soutenir la désignation d’Anthropic comme «supply chain risk» et avoir fait part de cette position aux autorités.
News du 27 février 2026: Anthropic est engagé dans un bras de fer avec le Département américain de la Défense autour des conditions d’utilisation de Claude, sa famille de LLM. Dans une déclaration publiée le 26 février, son CEO Dario Amodei affirme que l’entreprise ne peut accepter la demande du Pentagone de supprimer certains garde-fous destinés à empêcher l’utilisation de ses modèles pour la surveillance de masse domestique ou pour des armes entièrement autonomes. Il précise que ces limites font partie des principes de déploiement responsable définis par Anthropic.
Selon le dirigeant, l’IA pourrait faciliter la reconstitution de profils détaillés de citoyens américains à partir de données accessibles légalement. Il estime également que les systèmes actuels ne présentent pas un niveau de fiabilité suffisant pour prendre des décisions létales sans intervention humaine. Dans sa déclaration, Dario Amodei ajoute toutefois vouloir poursuivre sa collaboration avec les forces armées américaines dans d’autres domaines, notamment l’analyse de renseignement et la planification opérationnelle.
Menace de rupture et levier du Defense Production Act
Selon des propos rapportés par Reuters, le Pentagone affirme ne pas chercher à recourir à l’IA pour la surveillance de masse ni à déployer des armes autonomes sans intervention humaine. Le Département de la Défense exigerait toutefois de pouvoir utiliser les modèles pour «tout usage légal», sans restriction contractuelle préalable. Selon l’agence de presse, le Pentagone aurait averti qu’en cas de refus, il pourrait mettre fin au partenariat avec Anthropic, considérer la firme comme un risque pour la chaîne d’approvisionnement de la défense, ou recourir au Defense Production Act pour contraindre l’entreprise à modifier ses garde-fous.
Le contrat entre Anthropic et le Département de la Défense pourrait atteindre 200 millions de dollars, toujours d'après Reuters.