Nouveautés

Nvidia lance une nouvelle architecture GPU et des conteneurs préconfigurés pour l’IA

Lors de sa conférence annuelle GTC, Nvidia a dévoilé Blackwell, une architecture GPU offrant une accélération de calcul inégalée pour l'IA générative. Le fabricant a aussi dégainé une gamme de microservices qui facilitent l'exploitation des modèles de GenAI.

Lors de sa conférence annuelle pour développeurs, Nvidia a notamment levé le voile sur le microservices NIM, qui proposent des conteneurs préconfigurés pour optimiser les inférences avec plus de vingt modèles d'IA. (Source: Nvidia)
Lors de sa conférence annuelle pour développeurs, Nvidia a notamment levé le voile sur le microservices NIM, qui proposent des conteneurs préconfigurés pour optimiser les inférences avec plus de vingt modèles d'IA. (Source: Nvidia)

Comme chaque année, Nvidia profite de sa conférence annuelle destinée aux développeurs (GTC) pour faire pleuvoir les annonces. Le contexte de cette édition sort néanmoins du lot tant le fabricant de puces de Santa Clara se positionne comme le grand gagnant du boom de l’IA générative (la plupart des modèles d’IA étant développés sur les processeurs graphiques onéreux de l'entreprise).   

Blackwell et ses capacités d’accélération du calcul sans précédent

Parmi l'avalanche de nouveautés annoncées par Nvidia, l’une des plus importantes s’avère assurément l'introduction de Blackwell, présentée comme une architecture GPU bénéficiant de capacités d’accélération du calcul sans précédent. Selon son fabricant, la plateforme promet de concevoir et d'exécuter de l'IA générative en temps réel sur des LLM de plusieurs billions de paramètres, à un coût et avec une consommation d'énergie jusqu'à 25 fois inférieurs à ceux des GPU de la génération précédente. «L'IA générative est la technologie phare de notre époque. Blackwell est le moteur de cette nouvelle révolution industrielle», a résumé lors de sa keynote Jensen Huang, fondateur et CEO de Nvidia. 

Tous les hyperscalers ont sans plus attendre annoncé avoir déjà adopté Blackwell, aussi bien pour des déploiements internes que pour proposer des instances basées sur cette nouvelle architecture GPU. «Nous continuons à innover ensemble pour faire d'AWS le meilleur endroit pour faire tourner les GPU NVIDIA dans le cloud», s’est félicité Andy Jassy, président et CEO d'Amazon. De son côté, Larry Ellison, président et CTO d'Oracle, a souligné que, «pour que les clients puissent découvrir plus d'informations exploitables, il faut un moteur encore plus puissant comme Blackwell, qui est spécialement conçu pour le calcul accéléré et l'IA générative». 

Microservices d'IA générative

Nvidia a en outre lancé une solution commercialisée sous l’étiquette «NIM» et présentée comme un éventail de «microservices d'IA générative pour les développeurs». Ces microservices, compatibles avec les API standard de l'industrie, garantissent une intégration facile, selon le fournisseur, et fonctionnent sur la vaste base installée CUDA (abréviation de Compute Unified Device Architecture). Le CEO de Nvidia a précisé que les clients peuvent faire appel à son entreprise ou utiliser directement les microservices NIM, pour développer des IA et des outils type copilote propriétaires. 

Selon les explications de Nvidia, les NIM constituent une série de microservices cloud-natifs optimisés visant à réduire le temps de mise sur le marché et à simplifier le déploiement de modèles d'IA générative, sur le cloud ou on-premise. Les NIM proposent des conteneurs préconfigurés et promettent d’optimiser les inférences avec plus de vingt modèles d'IA. Dont ceux de Nvidia, mais aussi les modèles propriétaires de Cohere ou Shutterstock, de même que les modèles ouverts de Google, Hugging Face, Meta, Microsoft, Mistral AI et Stability AI. «Créés avec notre écosystème de partenaires, ces microservices d'IA conteneurisés sont les éléments de base permettant aux entreprises de tous les secteurs de devenir des sociétés d'IA», a encore déclaré le CEO de Nvidia. 
 

Tags
Webcode
JoSKrAN2