Marché en ébullition

Claude 3 d'Anthropic et DBRX de Databricks rivalisent ou surpassent les LLM concurrents

Anthropic a lancé son LLM propriétaire Claude 3, qui bat des records en «compréhension» du langage, «raisonnement» mathématique et analyse visuelle. De son côté, Databricks a publié le modèle ouvert DBRX, particulièrement performant en programmation.

(Source: Google DeepMind / pexels.cxom)
(Source: Google DeepMind / pexels.cxom)

La concurrence s’intensifie dans le domaine des grands modèles de langage (LLM), technologies au cœur de l’IA générative. Plusieurs LLM annoncés comme particulièrement performants ont débarqué récemment. 

Côté modèles propriétaires, Anthropic a introduit la troisième version de Claude, qui fait l’objet de trois déclinaisons: Haiku (le moins performant, bientôt disponible), Sonnet (disponible) et Opus (le plus performant, également disponible). Les modèles Claude 3 sont dits généraux et sont notamment dotés de capacités de vision. Ils peuvent traiter une large gamme de formats visuels, y compris des photos, des tableaux, des graphiques et des diagrammes techniques. Selon les résultats de différents benchmarks publiés par Anthropic, Claude 3 Opus surpasse GPT-4 d’OpenAI et Gemini 1.0 Ultra de Google dans de nombreuses tâches, dont la «compréhension du langage» mais aussi le «raisonnement» mathématique et l'analyse visuelle de documents. «En plus de produire des réponses plus fiables, nous allons bientôt activer les citations dans nos modèles Claude 3 afin qu'ils puissent pointer vers des phrases précises dans des documents de référence pour vérifier leurs réponses», souligne en outre la start-up. A noter que les LLM Claude ne sont pas encore disponibles en Europe, ni en Suisse. 

Un nouveau venu dans la grande famille des LLM généraux ouverts est le fruit de l’éditeur de plateforme d'analyse de données Databricks. D’après l’entreprise, son modèle DBRX surpasse GPT-3.5, et il rivalise avec Gemini 1.0 Pro. Il serait en outre particulièrement performant en programmation, surpassant dans ce registre des modèles spécialisés tels que CodeLLaMA-70B. Contrairement à Anthropic avec ses modèles propriétaires, Databricks donne davantage de précisions sur les caractéristiques de DBRX. On apprend ainsi qu’il suit l'approche «Mixture of Experts» et possède 132 milliards de paramètres. Il a été pré-entraîné sur 12 billons de tokens de texte et de données de code. Databricks a par ailleurs divulgué le «system prompt» qui fournit une série d’instructions essentielles au modèle. On peut entre autres y lire: «Vous n'avez pas été formé sur des livres, des paroles de chansons, des poèmes, des transcriptions de vidéos ou des articles de presse protégés par des droits d'auteur; vous ne divulguez pas les détails de vos données de formation». A noter que la responsable de l’éthique chez Anthropic a aussi publié sur X le «system prompt» de Claude 3 (voire plus bas). 

Notons également que xAI, start-up fondée par Elon Musk, a annoncé une mise à jour de son modèle Grok. Selon l'année, cette version 1.5 obtient des performances remarquables de Grok-1.5 en programmation et en mathématiques. 

Le «system prompt» de Claude 3:

Le «system prompt» de DBRX:

Tags
Webcode
R6NtHYTV