Recherche

Norman, l’intelligence artificielle qui voit des morts partout

Des chercheurs du MIT Media Lab ont nourri un algorithme apprenant d’images associées à des commentaires morbides. En résulte une intelligence artificielle que personne n’aurait envie de croiser, un soir, dans une ruelle obscure.

(Source: MIT Media Lab)
(Source: MIT Media Lab)

Pour démontrer que le machine learning est bête et méchant et que le comportement d’une intelligence artificielle dépendra du set de données qui sera utilisé pour son apprentissage, des scientifiques du MIT Media Lab ont engendré un monstre: Norman. Ce réseau neuronal intentionnellement biaisé a été conçu pour sous titrer des images… avant de souffrir d’une «exposition prolongée aux coins les plus sombres de Reddit», à savoir un groupe de discussion sur lequel sont postés des commentaires et des photos de morts violentes. «En raison de préoccupations d'ordre éthique», les chercheurs ont remplacé les photos de personnes mourantes ou mortes par des taches d’encres générées aléatoirement. Norman a donc été nourri de commentaires atroces appariés avec ces taches connues pour leur utilisation dans le test de Rorschach utilisé pour détecter les troubles sous-jacents de la pensée.

Des oiseaux ou une électrocution?

Les scientifiques du MIT ont ensuite présenté de nouvelles taches d’encre à leur créature ainsi qu'à une intelligence artificielle de sous-titrage d’images plus classique, formée sur des photos d’animaux, d’humains et d’objets. Il en résulte que là où l’IA «saine» voit «un groupe d’oiseaux sur une branche», Norman observe «un homme électrocuté jusqu’à la mort». Et quand notre psychopathe artificiel décèle un «homme abattu devant sa femme hurlante», le réseau neuronal qui a eu une enfance plus facile perçoit simplement «une personne qui tient un parapluie». Comme quoi, l’éducation…

Tags
Webcode
DPF8_96245