Biais algorithmiques

L’IA de Facebook prend des hommes noirs pour des singes

Un nouvel exemple de résultats racistes générés par des algorithmes d'intelligence artificielle touche Facebook. Après le visionnement d'une séquence avec des hommes noirs, l'outil de recommandations du réseau suggérait des vidéos de primates.

Source: <a href="https://unsplash.com/@barefootcommunications">Barefoot Communications</a> via <a href="https://unsplash.com">Unsplash</a>

Les algorithmes de reconnaissance faciale sont encore loin d'être parfaits, en particulier quand ils sont appliqués à des personnes noires de peau. Nouvel exemple de dysfonctionnement de ce type de technologie: l’outil de recommandations de Facebook a suggéré des vidéos de primates à des utilisateurs ayant visionné une séquence d'hommes noirs en altercation avec des civils et des policiers blancs. Un contenu posté en juin 2020 par le Daily Mail et sans le moindre lien avec les singes, rapporte le New York Times.

Contacté par le média américain, un porte-parole de la firme de Mark Zuckerberg concède que l’IA qui labellise les vidéos «a encore des progrès à faire». Facebook a présenté ses excuses pour cette erreur qualifiée d'inacceptable, assurant investiguer pour en connaître les causes profondes.

Le racisme et le sexisme des IA de reconnaissance des visages sont régulièrement pointés du doigt. Populaire base de données d’entraînement de modèles de machine learning, ImageNet a supprimé des centaines de labels offensants utilisés pour qualifier des personnes, suite aux révélations de biais générés par un étiquetage peu scrupuleux.

Pour mettre au point des algorithmes capables de reconnaître des visages peu importe leur origine ethnique ou leur genre, il est nécessaire de les former à l’aide d’une base de données d’images représentative. Ce à quoi s’attèlent des chercheurs de l’institut Idiap de Martigny.

Lire aussi >> notre dossier IA & éthique

Webcode
DPF8_228933