IA contre Daesh

Google et Facebook luttent contre le terrorisme à coups d’IA

Google et Facebook ont levé le voile sur leurs techniques de lutte contre la propagande terroriste en ligne. Avec notamment des méthodes d’analyse d’images dopée au machine learning.

(Source: Fotolia)
(Source: Fotolia)

Quelques jours après Facebook, Google a levé le voile sur ses nouvelles mesures visant à lutter contre la propagande terroriste sur le web et les réseaux sociaux. Pour identifier les vidéos postées par des extrémistes sur Youtube, la firme de Mountain View veut notamment consacrer davantage de ressources d'apprentissage machine en vue de créer de nouveaux «classificateurs de contenu», explique dans un billet de blog Kent Walker, conseiller général de Google. L’apprentissage s’appuiera entre autres sur les vidéos identifiées comme du contenu d’extrémistes et retirées de Youtube ces derniers six mois. Dans une stratégie combinant technologie et expertise humaine, Google annonce également le renforcement de l’équipe de modérateurs en charge d’identifier du contenu problématique. Et d’ajouter: «Nous renforcerons également notre collaboration avec des groupes de lutte contre les extrémistes pour aider à identifier le contenu qui pourrait être utilisé pour radicaliser et recruter des extrémistes. »

Correspondance d’images et compréhension du langage

Google rappelle s’être récemment engagé pour collaborer avec d’autres firmes du secteur TIC, afin de partager et développer des technologies pour lutter contre le terrorisme en ligne. Des efforts conjoints menés notamment avec Microsoft, Twitter et Facebook. Le plus populaire de réseau sociaux vient de dévoiler comment il fait appel à des technologies d’intelligence artificielle pour repérer les contenus et comptes associés à de la propagande terroriste. Avec l’objectif annoncé de «trouver du contenu terroriste immédiatement, avant que les utilisateurs n’aient pu le voir.» Facebook s’appuie pour ce faire sur un éventail d’outils, dont l’analyse de correspondance d’images (image matching) : «Quand quelqu'un essaie de télécharger une photo ou une vidéo, nos systèmes recherchent si l'image correspond à une photo ou vidéo de terrorisme connue. » En outre, des technologies IA de compréhension du langage sont testées par le réseau social, qui analyse du texte déjà identifié comme de la propagande terroriste. Le but étant de mettre au point des procédures de signalement automatique de contenu potentiellement terroriste.

Webcode
DPF8_46012