Interruption de service

Un agent IA lié à une panne chez AWS

Un outil d’IA utilisé en interne par Amazon Web Services aurait provoqué en décembre 2025 une interruption de service de 13 heures après avoir supprimé puis recréé un environnement de production. L’incident relance les questions sur l’autonomie accordée aux agents d’IA dans les systèmes critiques.

(Source: Amazon)
(Source: Amazon)

Un outil d’intelligence artificielle utilisé en interne par Amazon Web Services (AWS) aurait provoqué, en décembre 2025, une interruption de service d’environ 13 heures après avoir supprimé puis recréé de manière autonome un environnement de production, selon le Financial Times (paywall). L’incident a affecté un service AWS utilisé par les clients pour analyser les coûts de leurs infrastructures cloud.

Selon plusieurs employés cités par le quotidien britannique, l’outil aurait agi sans validation humaine préalable, en contradiction avec les procédures habituellement appliquées aux systèmes de production. Il s’agirait du deuxième incident en quelques mois impliquant des outils d’intelligence artificielle utilisés en interne par Amazon.

Un agent IA doté d’une large autonomie

L’outil en cause, baptisé Kiro, est un assistant de programmation lancé par AWS en juillet 2025. Contrairement aux assistants classiques limités à la suggestion de code, Kiro est présenté comme un système «agentique», capable d’exécuter directement des actions techniques à partir d’instructions humaines.

Dans le cas de l’incident de décembre, l’outil aurait estimé que la meilleure réponse à un problème détecté consistait à supprimer puis recréer l’environnement concerné. Cette opération aurait été menée sans validation par un second ingénieur, une étape pourtant généralement requise pour les environnements de production critiques.

Contacté par le Financial Times, Amazon indique que, par défaut, Kiro requiert une autorisation explicite avant toute action. Le groupe précise toutefois que l’ingénieur impliqué disposait de droits d’accès étendus, qualifiant l’incident de «problème de contrôle des accès utilisateur plutôt que de défaillance intrinsèque de l’outil d’IA.

Amazon affirme par ailleurs que l’interruption de décembre constituait un «événement extrêmement limité», n’ayant affecté qu’un seul service AWS et uniquement certaines régions de Chine continentale. Un second incident, survenu ultérieurement, n’aurait pas concerné de service exposé aux clients. Le groupe rejette l’idée d’un problème spécifique lié à l’intelligence artificielle, estimant que des incidents comparables pourraient survenir avec des outils de développement traditionnels ou lors d’interventions humaines.

Des inquiétudes persistantes en interne

Toujours selon le Financial Times, certains employés d’AWS s’inquiètent néanmoins du niveau d’autonomie accordé à ces outils. Ils indiquent que les assistants d’IA sont parfois traités comme des opérateurs humains à part entière, avec des permissions équivalentes, sans mécanisme systématique de validation croisée.

À la suite de l’incident de décembre, Amazon affirme avoir renforcé ses dispositifs internes, notamment par l’introduction de revues obligatoires par des pairs et par des formations supplémentaires destinées aux équipes.

L’actualité IT en Suisse et à l’international, avec un focus sur la Suisse romande, directement dans votre boîte mail > Inscrivez-vous à la newsletter d’ICTjournal, envoyée du lundi au vendredi! 

Tags
Webcode
zYozP4yS