Le Pentagone écarte Anthropic et se tourne vers OpenAI (update)
Le refus d’Anthropic d’assouplir les garde-fous de son IA Claude pour un usage militaire entraîne sa mise à l’écart par Washington. OpenAI a parallèlement annoncé la conclusion d’un accord avec le Pentagone.
Mise à jour du 3 mars 2026: Le secrétaire américain à la Guerre, Pete Hegseth, a annoncé la désignation d’Anthropic comme «risque pour la chaîne d’approvisionnement en matière de sécurité nationale».
Dans un message publié sur X, Pete Hegseth indique avoir ordonné que plus aucun contractant, fournisseur ou partenaire travaillant avec l’armée américaine ne puisse mener d’activité commerciale avec Anthropic. L’entreprise pourra toutefois continuer à fournir ses services au Département de la Guerre pour une durée maximale de six mois, le temps d’organiser une transition vers «un service plus patriotique», selon ses termes.
Cette décision intervient après le refus de l’éditeur d’assouplir les garde-fous de son IA Claude au profit de l’armée américaine (lire ci-dessous). Le différend porte sur les conditions d’utilisation des modèles Claude dans un contexte militaire. Le secrétaire reproche à Anthropic une attitude qu’il qualifie d’«arrogance et de trahison». Il estime que son Département doit disposer d’un accès «plein et sans restriction» aux modèles pour tout usage légal lié à la défense nationale. Selon lui, les limitations imposées par l’éditeur reviendraient à accorder à une entreprise privée un droit de veto sur des décisions opérationnelles.
OpenAI comme alternative
Le Pentagone s’est tourné vers OpenAI. La société dirigée par Sam Altman a annoncé un accord pour le déploiement de systèmes d’IA dans des environnements classifiés.
Dans une FAQ publiée à cette occasion, OpenAI affirme avoir maintenu ses propres «red lines». Le contrat prévoit un déploiement exclusivement via le cloud, le maintien de sa «safety stack» et la présence de personnel habilité dans la boucle. L’entreprise assure que ses modèles ne pourront pas être utilisés pour des armes autonomes ni pour la surveillance domestique de citoyens américains. OpenAI présente également l’accord comme un effort de stabilisation. L’entrepise dirigée par Sam Altman estime qu’un «bon futur» nécessitera une collaboration étroite entre le gouvernement et les éditeurs d’IA. OpenAI indique avoir demandé que des conditions similaires puissent être proposées à d’autres acteurs du secteur. OpenAI précise par ailleurs ne pas soutenir la désignation d’Anthropic comme «supply chain risk» et avoir fait part de cette position aux autorités.
L’actualité IT en Suisse et à l’international, avec un focus sur la Suisse romande, directement dans votre boîte mail > Inscrivez-vous à la newsletter d’ICTjournal, envoyée du lundi au vendredi!
News du 27 février 2026: Anthropic est engagé dans un bras de fer avec le Département américain de la Défense autour des conditions d’utilisation de Claude, sa famille de LLM. Dans une déclaration publiée le 26 février, son CEO Dario Amodei affirme que l’entreprise ne peut accepter la demande du Pentagone de supprimer certains garde-fous destinés à empêcher l’utilisation de ses modèles pour la surveillance de masse domestique ou pour des armes entièrement autonomes. Il précise que ces limites font partie des principes de déploiement responsable définis par Anthropic.
Selon le dirigeant, l’IA pourrait faciliter la reconstitution de profils détaillés de citoyens américains à partir de données accessibles légalement. Il estime également que les systèmes actuels ne présentent pas un niveau de fiabilité suffisant pour prendre des décisions létales sans intervention humaine. Dans sa déclaration, Dario Amodei ajoute toutefois vouloir poursuivre sa collaboration avec les forces armées américaines dans d’autres domaines, notamment l’analyse de renseignement et la planification opérationnelle.
Menace de rupture et levier du Defense Production Act
Selon des propos rapportés par Reuters, le Pentagone affirme ne pas chercher à recourir à l’IA pour la surveillance de masse ni à déployer des armes autonomes sans intervention humaine. Le Département de la Défense exigerait toutefois de pouvoir utiliser les modèles pour «tout usage légal», sans restriction contractuelle préalable. Selon l’agence de presse, le Pentagone aurait averti qu’en cas de refus, il pourrait mettre fin au partenariat avec Anthropic, considérer la firme comme un risque pour la chaîne d’approvisionnement de la défense, ou recourir au Defense Production Act pour contraindre l’entreprise à modifier ses garde-fous.
Le contrat entre Anthropic et le Département de la Défense pourrait atteindre 200 millions de dollars, toujours d'après Reuters.