Machine learning

Google imagine un bouton qui force l'intelligence artificielle à s’éteindre

Des chercheurs de Google Deepmind et de l'Université d'Oxford ont imaginé un modèle algorithmique qui garantit qu’une intelligence artificielle n’empêche pas d’elle-même sa désactivation via un bouton d'arrêt.

(Quelle: Barry Klawans/CC BY-ND 2.0)
(Quelle: Barry Klawans/CC BY-ND 2.0)

Les progrès de l'intelligence artificielle (IA) apportent son lot de promesses mais aussi de craintes. Bill Gates, Stephen Hawking ou encore Elon Musk ont notamment mis en garde contre les risques potentiels de cette technologie futuriste, notamment concernant une éventuelle perte de contrôle des systèmes boostés à l’IA et au «machine learning». Les chercheurs de Google DeepMind en ont conscience et réfléchissent déjà à un bouton d’arrêt qui garantit de façon fiable la désactivation de l’IA. Plus spécifiquement, il s’agit de s’assurer qu’une intelligence artificielle n’empêche pas d’elle-même sa désactivation par un humain.

En collaboration avec un confrère du Future of Humanity Institute de l'Université d'Oxford, un chercheur de Google DeepMind a publié un article scientifique qui détaille un concept visant à empêcher qu’une intelligence artificielle ne puisse apprendre automatiquement à se soustraire à sa mise hors tension via un bouton d’interruption. Les auteurs rappellent qu’en 2013, un programme avait déjà imaginé en toute autonomie de mettre sur pause une partie de Tetris ad vitam æternam, histoire de ne jamais perdre.

Les deux chercheurs ont imaginé un modèle algorithmique pour qu’une IA ne considère pas l’activation de son bouton d’interruption comme faisant partie intégrante de son processus d’apprentissage. Car si c’était le cas, la machine intelligente pourrait interpréter sa mise hors tension négativement et, en conséquence, l’empêcher la fois suivante. Les chercheurs expliquent que le plus optimal consiste à faire croire à l’IA, via une série complexe d’algorithmes, que l’interruption provient son propre processus décisionnel.

Webcode
8541

Kommentare

« Plus