Elections et désinformation

Les géants de la tech signent un accord contre la manipulation des élections par l'IA

par Joël Orizet et traduction/adaptation ICTjournal

Vingt groupes technologiques, dont Amazon, Google, Microsoft et OpenAI, se sont engagés à lutter contre les contenus manipulés par l'IA. En particulier dans le contexte particulier de 2024: près de la moitié de la population mondiale est appelée à voter cette année.

(Source: Clay Banks / Unsplash.com)
(Source: Clay Banks / Unsplash.com)

En 2024, des élections auront lieu dans plusieurs grands pays, dont les Etats-Unis, l'Inde et la Grande-Bretagne. Par conséquent, il existe une grande inquiétude quant au risque que des contenus générés par l'IA soient utilisés à des fins de désinformation et de manipulation. 

Les géants de la technologie répondent à cette inquiétude. Lors de la conférence de Munich sur la sécurité, des représentants de vingt groupes du secteur numérique, dont Amazon, Google, IBM, Meta, Microsoft, OpenAI, Tiktok et X, ont signé un accord de coopération pour la détection et la lutte contre les contenus manipulés.

Cet effort appelé AI Elections Accord vise en particulier, selon le communiqué, les contenus audio, vidéo et visuels générés par IA qui imitent ou modifient l'apparence, la voix ou les actions de candidats politiques, d'agents électoraux et d'autres participants à des élections démocratiques. Sont également visés les contenus qui informent de manière erronée les électeurs sur le lieu, le moment et la manière de participer aux élections. 

Les signataires de l'accord s'engagent notamment à: 

  • développer des solutions technologiques pour réduire les risques en question - y compris et «le cas échéant» des outils open source
  • réévaluer leurs modèles d'IA à la lumière des risques qu'ils pourraient présenter en matière de contenus électoraux frauduleux
  • rechercher de tels contenus sur leurs plateformes et s'efforcer de les «gérer de manière appropriée»
  • informer le public de manière transparente sur cette gestion
  • coopérer avec les organisations de la société civile et les organisations scientifiques;
  • soutenir les efforts visant à sensibiliser le public à ces défis, à promouvoir les compétences médiatiques et la résilience de la société

Cet accord représente un engagement à l'échelle de l'industrie contre la désinformation générée par l'IA à l'approche des élections, a déclaré Kent Walker, responsable des affaires globales chez Google. Et de préciser: «Nous ne devons pas laisser les abus numériques menacer les opportunités qu'offre l'IA d'améliorer nos économies, de créer de nouveaux emplois et de faire progresser la santé et la science.» Brad Smith, président de Microsoft, ajoute: «Alors que la société profite des avantages de l'IA, nous avons la responsabilité de veiller à ce que ces outils ne deviennent pas une arme lors des élections».

Les initiatives visant à contrer l'augmentation des contenus manipulés commencent à se multiplier. Sur le plan technique, Google, Meta et OpenAI se sont récemment alliés à la C2PA, afin de créer des normes permettant aux utilisateurs de distinguer les contenus authentiques de ceux produits par l'intelligence artificielle. 

Tags
Webcode
R3mUYSPS