Vidéos trafiquées

Facebook veut combattre le deepfake en produisant du… deepfake

Facebook s'est associée à Microsoft et plusieurs universités pour fabriquer ses propres deepfake, ces vidéos modifiées par une IA, afin d’aider les chercheurs à construire et perfectionner leurs outils de détection.

(Source: Facebook)
(Source: Facebook)

La propagation des deepfake, ces images créées de toute pièce par une intelligence artificielle (IA) et leur impact potentiel sur la légitimité de l’information, suscite toujours plus d’inquiétudes. Ce qui peut apparaître comme un moyen de s’amuser en faisant figurer son visage dans un film, comme le propose l’app chinoise Zao lancée il y a peu, pourrait avoir des conséquences potentiellement dramatiques, dans le cadre des prochaines élections américaines par exemple.

Pour y faire face, Facebook crééra ses propres deepfake afin d'améliorer les techniques de détection de ces vidéos trafiquées. «L'industrie ne dispose pas de jeux de données pour détecter les deepfake. Nous voulons catalyser davantage la recherche et le développement dans ce domaine et faire en sorte qu'il existe de meilleurs outils open source pour détecter ces deepfake», explique Mike Schroepfer, CTO de Facebook. Le réseau social garantit qu’aucune donnée de ses utilisateurs ne sera utilisée et prévoit d'utiliser des acteurs rémunérés et consentants pour créer une base de données de milliers de deepfake.

«Deepfake Detection Challenge»

Ces deepfake fabriqués par Facebbok serviront de données au «Deepfake Detection Challenge», un défi qui invite les participants à créer de nouveaux moyens pour de détecter et de prévenir les vidéos trafiquées. L’entreprise s’est associée à Microsoft, le consortium «Partnership on IA» et plusieurs universités comme le MIT ou Oxford pour mettre ce défi en place.

Pour encourager la participation, le réseau social consacrera plus de 10 millions de dollars à cet effet, dont une partie sous forme de prix. Le défi doit débuter à la fin de l’année, lorsque il y aura suffisamment de données disponibles pour les participants, et prendra fin en mars 2020.

Facebook explique que les outils actuels d’identification reposent sur la détection d’artefacts classiques (incohérences dans les ombres, détourages approximatifs) ou des mouvements mal synchronisés, mais ne sont pas suffisamment puissants. «Il s'agit d'un problème en constante évolution, un peu comme le spam. Je ne veux pas me retrouver dans une situation où le deepfake est devenu un énorme problème et où nous n'avons pas investi des sommes considérables dans la R&D», conclut Mike Schroepfer.

Un tiers des personnes se font berner

Le deepfake, contraction entre deep learning et fake, est une vidéo produite ou altérée grâce à l’intelligence artificielle. Certaines célébrités se sont ainsi retrouvées dans des vidéos truquées publiées sur des sites pornographiques. Ces productions sont de plus en plus convaincantes, au point que beaucoup ne peuvent plus être distinguées de la réalité. Selon l’AI fondation, ces vidéos truquées sont considérées comme réelles par près d’un tiers de sujets humains non formés.

La réalisation d'un deepfake nécessite généralement deux clips vidéo. Les algorithmes sondent l'apparence de chaque visage afin de coller l'un sur l'autre tout en maintenant les expressions et mimiques. Grâce à l’initiative de Facebook pour détecter les images photoshopées, l’ère du deepfake et de la manipulation de photos est peut-être bientôt révolue.

Tags
Webcode
DPF8_150169