Usages militaires de la GenAI

Un juge bloque l’exclusion d’Anthropic des contrats du Pentagone (update)

par Yannick Chavanne et Joël Orizet et traduction/adaptation ICTjournal

Anthropic est engagé dans un bras de fer avec les autorités US autour des conditions d’utilisation de son IA. Après avoir déposé plainte contre le Pentagone, Anthropic a obtenu une première décision favorable, un juge fédéral ayant suspendu des mesures jugées «probablement illégales» qui visaient à l’exclure des contrats publics.

Le Pentagone, siège du département américain de la Défense. (Source: Touch Of Light / CC BY-SA 4.0)
Le Pentagone, siège du département américain de la Défense. (Source: Touch Of Light / CC BY-SA 4.0)

Mise à jour du 27 mars 2026: Un juge fédéral américain a suspendu la décision du Pentagone visant à exclure Anthropic des marchés publics, estimant la mesure «probablement illégale», rapportent plusieurs médias dont Cnet. Le différend porte sur les conditions d’usage de son IA Claude par l’armée (lire ci-dessous).

La juge Rita Lin a accordé une injonction préliminaire en faveur d’Anthropic. Elle considère que les mesures de l’administration Trump, qui visaient à qualifier l’entreprise de «risque pour la chaîne d’approvisionnement», pourraient «paralyser» ses activités et relèvent d’une logique punitive.

Le litige découle d’un désaccord sur l’usage militaire de Claude. Anthropic refusait notamment toute utilisation pour la surveillance de masse domestique ou les systèmes d’armes entièrement autonomes.

Selon la juge, le gouvernement aurait pu cesser d’utiliser la solution plutôt que d’imposer des sanctions. Une semaine de délai a été accordée au Pentagone pour faire appel. Anthropic indique de son côté vouloir poursuivre sa collaboration avec les autorités.

L’actualité IT en Suisse et à l’international, avec un focus sur la Suisse romande, directement dans votre boîte mail > Inscrivez-vous à la newsletter d’ICTjournal, envoyée du lundi au vendredi! 

Mise à jour du 10 mars 2026: Le conflit entre Anthropic et le Département américain  de la Défense (renommé Département de la Guerre par Donald Trump) s’intensifie. Anthropic a demandé que ses modèles d’IA ne doivent être utilisés ni pour la surveillance de masse aux États-Unis ni dans des systèmes d’armes autonomes. Le Pentagone, de son côté, réclame le droit à «toute utilisation légale». 

À la suite de ce désaccord, le gouvernement américain a classé l’entreprise comme «risque pour la chaîne d’approvisionnement en matière de sécurité nationale». Anthropic conteste désormais cette mesure en justice. Comme le rapporte l’agence de presse Reuters, l’entreprise a déposé plainte auprès d’un tribunal fédéral en Californie afin de bloquer son inscription sur cette liste noire. Dans sa plainte, Anthropic qualifie cette décision d’illégale et estime qu’elle viole ses droits à la liberté d’expression ainsi qu’à une procédure équitable. 

La classification d’une entreprise américaine comme «Supply-Chain Risk to National Security» est extrêmement inhabituelle, souligne une dépêche Keystone-ATS reprise par swissinfo.ch. Elle exclut de facto l’entreprise de futurs contrats publics. Dans une ordonnance, le président américain Donald Trump a demandé à toutes les agences fédérales de cesser d’utiliser la technologie d’Anthropic. 
Le développeur de ChatGPT, OpenAI, a depuis conclu un accord avec le Pentagone. L’entreprise a accepté les conditions du Département de la Guerre, mais cet accord suscite également des tensions. En signe de protestation, la responsable de la robotique d’OpenAI, Caitlin Kalinowski, a récemment démissionné de son poste. 

Mise à jour du 3 mars 2026: Le secrétaire américain à la Guerre, Pete Hegseth, a annoncé la désignation d’Anthropic comme «risque pour la chaîne d’approvisionnement en matière de sécurité nationale». 

Dans un message publié sur X, Pete Hegseth indique avoir ordonné que plus aucun contractant, fournisseur ou partenaire travaillant avec l’armée américaine ne puisse mener d’activité commerciale avec Anthropic. L’entreprise pourra toutefois continuer à fournir ses services au Département de la Guerre pour une durée maximale de six mois, le temps d’organiser une transition vers «un service plus patriotique», selon ses termes.

Cette décision intervient après le refus de l’éditeur d’assouplir les garde-fous de son IA Claude au profit de l’armée américaine (lire ci-dessous). Le différend porte sur les conditions d’utilisation des modèles Claude dans un contexte militaire. Le secrétaire reproche à Anthropic une attitude qu’il qualifie d’«arrogance et de trahison». Il estime que son Département doit disposer d’un accès «plein et sans restriction» aux modèles pour tout usage légal lié à la défense nationale. Selon lui, les limitations imposées par l’éditeur reviendraient à accorder à une entreprise privée un droit de veto sur des décisions opérationnelles.

OpenAI comme alternative

Le Pentagone s’est tourné vers OpenAI. La société dirigée par Sam Altman a annoncé un accord pour le déploiement de systèmes d’IA dans des environnements classifiés.

Dans une FAQ publiée à cette occasion, OpenAI affirme avoir maintenu ses propres «red lines». Le contrat prévoit un déploiement exclusivement via le cloud, le maintien de sa «safety stack» et la présence de personnel habilité dans la boucle. L’entreprise assure que ses modèles ne pourront pas être utilisés pour des armes autonomes ni pour la surveillance domestique de citoyens américains. OpenAI présente également l’accord comme un effort de stabilisation. L’entrepise dirigée par Sam Altman estime qu’un «bon futur» nécessitera une collaboration étroite entre le gouvernement et les éditeurs d’IA. OpenAI indique avoir demandé que des conditions similaires puissent être proposées à d’autres acteurs du secteur.  OpenAI précise par ailleurs ne pas soutenir la désignation d’Anthropic comme «supply chain risk» et avoir fait part de cette position aux autorités. 

News du 27 février 2026: Anthropic est engagé dans un bras de fer avec le Département américain de la Défense autour des conditions d’utilisation de Claude, sa famille de LLM. Dans une déclaration publiée le 26 février, son CEO Dario Amodei affirme que l’entreprise ne peut accepter la demande du Pentagone de supprimer certains garde-fous destinés à empêcher l’utilisation de ses modèles pour la surveillance de masse domestique ou pour des armes entièrement autonomes. Il précise que ces limites font partie des principes de déploiement responsable définis par Anthropic. 

Selon le dirigeant, l’IA pourrait faciliter la reconstitution de profils détaillés de citoyens américains à partir de données accessibles légalement. Il estime également que les systèmes actuels ne présentent pas un niveau de fiabilité suffisant pour prendre des décisions létales sans intervention humaine. Dans sa déclaration, Dario Amodei ajoute toutefois vouloir poursuivre sa collaboration avec les forces armées américaines dans d’autres domaines, notamment l’analyse de renseignement et la planification opérationnelle. 

Menace de rupture et levier du Defense Production Act

Selon des propos rapportés par Reuters, le Pentagone affirme ne pas chercher à recourir à l’IA pour la surveillance de masse ni à déployer des armes autonomes sans intervention humaine. Le Département de la Défense exigerait toutefois de pouvoir utiliser les modèles pour «tout usage légal», sans restriction contractuelle préalable. Selon l’agence de presse, le Pentagone aurait averti qu’en cas de refus, il pourrait mettre fin au partenariat avec Anthropic, considérer la firme comme un risque pour la chaîne d’approvisionnement de la défense, ou recourir au Defense Production Act pour contraindre l’entreprise à modifier ses garde-fous. 

Le contrat entre Anthropic et le Département de la Défense pourrait atteindre 200 millions de dollars, toujours d'après Reuters. 

 

Webcode
VLzjELV6