Transparence, responsabilité et sécurité

La Californie impose un cadre légal aux géants de l’intelligence artificielle

Le gouverneur Gavin Newsom a signé la loi SB 53, qui crée de nouvelles obligations pour les acteurs de l’IA de pointe comme OpenAI, Meta ou Anthropic. Transparence, responsabilité et sécurité figurent parmi les piliers de cette législation.

Le gouverneur de Californie, Gavin Newsom. (Source: Domaine publique)
Le gouverneur de Californie, Gavin Newsom. (Source: Domaine publique)

La Californie devient le premier État américain à adopter un cadre légal imposant des exigences spécifiques aux entreprises développant des modèles d’intelligence artificielle de pointe. La loi SB 53, signée le 30 septembre par le gouverneur Gavin Newsom, s’applique notamment à des acteurs comme OpenAI, Meta, Anthropic et Google DeepMind. Le communiqué des autorités californiennes indiquent que la nouvelle loi impose des obligations accrues en matière de transparence sur les protocoles de sécurité, renforce les protections pour les lanceurs d’alerte et introduit des mécanismes de signalement des incidents critiques.

La loi prévoit que les entreprises doivent notamment alerter les autorités en cas d'incident lié à un crime commis sans supervision humaine — comme les cyberattaques — ou à des comportements trompeurs générés par un modèle, des cas qui ne sont pas explicitement couverts par le règlement européen sur l’IA.

Un cadre légal axé sur la sécurité, l’innovation et la responsabilité

Portée par le sénateur Scott Wiener (Démocrate de San Francisco), la loi SB 53 impose aux entreprises concernées de publier un cadre de sécurité décrivant leur conformité avec les standards nationaux et internationaux. Elle prévoit la création d’un consortium public, CalCompute, au sein de la Government Operations Agency. Ce consortium aura pour mission d’élaborer un cadre pour la mise en place d’un cluster informatique public, destiné à favoriser le développement d’une intelligence artificielle sûre, éthique, équitable et durable.

La loi introduit également un mécanisme de signalement des incidents critiques auprès du California Office of Emergency Services et protège les employés qui alertent sur des risques significatifs pour la sécurité ou la santé publique. Elle habilite le procureur général de l’État à engager des actions en justice en cas de non-respect. 

Réactions contrastées chez les acteurs de l’IA

Selon Techcrunch, la loi SB 53 a suscité des réponses divergentes parmi les entreprises concernées. Anthropic a exprimé son soutien au texte, estimant qu’il s'agit d’un pas vers plus de responsabilité dans le développement de l’IA.

À l’inverse, OpenAI et Meta s’y sont opposés. OpenAI a publié une lettre ouverte adressée à Gavin Newsom pour l’inciter à ne pas signer la loi. Les deux entreprises jugent que des initiatives au niveau des États risquent de fragmenter la régulation nationale, freinant ainsi l’innovation technologique. Ces critiques pointent la possibilité d’un «patchwork réglementaire» difficile à gérer pour les entreprises opérant à l’échelle fédérale et internationale.

Webcode
4vF4JY3j