Intelligence artificielle

IA responsable: Google, Meta, Microsoft et OpenAI acceptent les directives de la Maison-Blanche

par Maximilian Schenner et traduction/adaptation ICTjournal

Sept grandes entreprises actives dans l'IA, dont Google, Meta, Microsoft et OpenAI ont accepté des directives de la Maison-Blanche pour le développement sécurisé de la technologie qu'elles contribuent à développer.

(Source: Kristina Volgenau / unsplash.com)
(Source: Kristina Volgenau / unsplash.com)

Les représentants d’Amazon, Anthropic, Google, Inflection, Meta, Microsoft et OpenAI étaient invités à la Maison-Blanche le 21 juillet dernier. Lors d'une rencontre avec le président américain Joe Biden, ces entreprises aux avants postes du développement de l'intelligence artificielle se sont formellement engagées à respecter de nouvelles mesures de sécurité volontaires dans le développement d'applications IA, rapporte entre autres le New York Times. L'accord prévoit notamment le contrôle des produits en matière de risques de sécurité et l'utilisation de filigranes pour marquer le matériel généré par l'IA. 

«Nous devons être conscients des menaces que représentent les nouvelles technologies, qui peuvent mettre en péril notre démocratie et nos valeurs - pas nécessairement, mais potentiellement», a déclaré le président américain. Ces mesures de protection volontaires ne sont toutefois qu'un premier pas timide dans cette direction, souligne le New York Times. 

«Nous sommes heureux de prendre ces engagements volontaires aux côtés d'autres acteurs du secteur. Ils constituent une première étape importante pour s'assurer que des garde-fous responsables sont mis en place pour l'IA, et ils créent un modèle que d'autres gouvernements peuvent suivre», a déclaré Nick Clegg, président des affaires mondiales chez Meta. 

Pour rappel, l’UE développe de son côté un  projet de réglementation de l’IA, qui a récemment subi des ajustements en réaction à l’essor des IA génératives. 

Audits d’experts indépendants

Concernant le cadre de mesures élaboré aux Etats-Unis, les sept entreprises impliquées auraient également accepté que leurs technologies fassent l'objet d'audits de sécurité réalisés par des experts indépendants. La recherche sur les préjugés, les préoccupations en matière de protection des données, l'échange d'informations sur les risques avec les gouvernements et d'autres organisations, ainsi que le développement d'outils pour répondre aux défis sociétaux tels que le changement climatique, font également partie des engagements pris.

Suite à la réunion à la Maison-Blanche, les entreprises présentes se seraient également engagées à prendre des mesures de cybersécurité strictes concernant les données utilisées pour créer des modèles linguistiques utilisés dans les programmes d'intelligence artificielle générative. Les règles acceptées d’un commun accord pourraient toutefois être interprétées différemment selon les entreprises, craint le New York Times. 
 

Tags
Webcode
Cu4pRJKb