Deep learning

IBM dope les capacités d’apprentissage profond

IBM Research booste la vitesse d’apprentissage en deep learning avec la bibliothèque de communication Distributed Deep Learning (DDL).

Hillery Hunter d’IBM Research met au point un logiciel permettant une vitesse de traitement GPU sans précédent accélérant l’apprentissage profond.
Hillery Hunter d’IBM Research met au point un logiciel permettant une vitesse de traitement GPU sans précédent accélérant l’apprentissage profond.

Dans le domaine de l’intelligence artificielle, l’approche d'apprentissage automatique deep learning (apprentissage profond) permet de programmer des logiciels pour les doter des capacités désirées en matière de reconnaissance d’images et de sons. Mais les progrès dans ce domaine sont en partie freinés par le temps nécessaire au traitement de masses de données via de larges réseaux neuronaux. Dirigée par Hillery Hunter, une équipe d’IBM Research travaille sur cette problématique et vient de dévoiler la mise au point d’une nouvelle approche pour accélérer le deep learning.

A tester sur PowerAI

D’ores et déjà proposée en test sur la plateforme PowerAI de Big Blue, la bibliothèque de communication Distributed Deep Learning (DDL) parvient, selon IBM Research, à automatiser et optimiser la «parallèlisation» des tâches d’apprentissage profond en faisant appel à des centaines d’unités GPU (processeurs graphiques) connectés à des dizaines de serveurs. Les chercheurs de Big Blue expliquent que cette technique se différencie de celle des frameworks concurrents, qui reposent sur de multiples processeurs graphiques au sein d’un seul serveur.

Avec cette nouvelle approche de Deep Learning distribué, IBM Research affirme avoir battu les records de temps d’entraînement et de rendement d’échelle jusqu’ici détenus respectivement par Microsoft et Facebook. Du côté de la vitesse d’apprentissage, IBM assure avoir obtenu une fiabilité de 33,8% pour un set de reconnaissance d’images après 7 heures, alors que le précédent record était de 29,8% après 10 jours d’entraînement.

Webcode
DPF8_51529