IA générative

Google dégaine Gemma, un LLM ouvert et léger

par Yannick Chavanne et Maximilian Schenner et traduction/adaptation ICTjournal

Google a dévoilé plusieurs nouveautés dans le domaine de l'IA générative. Parmi elles, les modèles d'abonnement Gemini for Business et Gemini Enterprise, destinés respectivement aux PME et aux grandes entreprises. Pour les développeurs, Google a présenté la famille de modèles Gemma.

Sundar Pichai, le CEO de Google, devant le logo du modèle Gemma. (Source: Google; montage ICTjournal)
Sundar Pichai, le CEO de Google, devant le logo du modèle Gemma. (Source: Google; montage ICTjournal)

Google a annoncé une série de nouveautés et de changements dans le domaine de l'IA générative. Le géant poursuit sa campagne de rebranding et, après le chatbot Bard, rebaptise également l’offre Duet AI in Google Workspace. L'assistant IA s'appelle désormais Gemini for Workspace. Dans la foulée, Google a également levé le voile sur des solutions pour entreprises Gemini for Business et Gemini Enterprise.

Gemini for Business s'adresse avant tout aux PME qui commencent tout juste à mettre en œuvre la GenAI, écrit Google. La solution coûte 20 dollars par mois et par utilisateur. Gemini Enterprise, déjà dévoilé en août 2023 sous le nom de Duet AI for Workspace Enterprise, est destiné aux grands comptes. Ce service offre un accès illimité à Gemini et coûte 30 dollars par utilisateur et par mois.

Gemma pour les développeurs

Pour les développeurs, Google a concocté Gemma, une série de modèles ouverts et légers, accessibles via la plateforme managée Vertex AI. Ces modèles peuvent ensuite être exécutés sur Google Kubernetes Engine (GKE). Selon le fournisseur, Gemma permet de développer des applications d'IA spécifiques pour des tâches simples, comme la rédaction de textes, la création de résumés ou la réponse à des questions. 

«La sortie de Gemma et la mise à jour des capacités de notre plateforme constituent la prochaine phase de notre engagement à rendre l'IA plus ouverte et accessible aux développeurs sur Google Cloud», affirme la firme de Mountain View dans son annonce.  

Dans un communiqué distinct, Nvidia déclare que les nouveaux modèles de langage ouverts et légers de Google, comportant 2 milliards et 7 milliards de paramètres, peuvent être exécutés n'importe où, ce qui permet de réduire les coûts et d'accélérer l'innovation. Gemma sera d'ailleurs bientôt pris en charge par Chat with RTX, une solution qui offre aux utilisateurs de PC Windows la possibilité de personnaliser un chatbot IA en utilisant leurs propres données en local.

Gemma rejoint d’autres LLM ouverts tels que LLaMA de Meta ou encore les modèles de Mistral AI. On se souvient que le lancement du modèle ouvert de Meta avait provoqué des débats chez Google. Certains collaborateurs voyant dans l'éventuelle émergence d’un écosystème autour de technologies open source une stratégie gagnante, à l’image de ce qui s’est produit avec Android dans le domaine des OS mobiles. 
 

Tags
Webcode
vyv9tqfi