Phi-4-Reasoning

Microsoft dévoile des «modèles de raisonnement» allégés

Avec Phi-4-reasoning et ses variantes, Microsoft introduit des modèles dits de raisonnement plus compacts, censés offrir de bonnes performances sur des tâches complexes tout en étant moins voraces en ressources que les grands modèles existants.

(Source: Rajesh Rajput sur Unsplash)
(Source: Rajesh Rajput sur Unsplash)

Les modèles de langage de petite taille, plus économes en énergie, commencent à attirer davantage l’attention. Microsoft s’inscrit dans cette tendance en appliquant des techniques de réduction de modèles à l’élaboration de LLM dits de raisonnement , conçus pour résoudre des problèmes complexes en décomposant les tâches en étapes intermédiaires.

La firme a ainsi présenté Phi-4-reasoning, Phi-4-reasoning-plus et Phi-4-mini-reasoning, une nouvelle gamme de modèles de langage compacts, décrits comme particulièrement performants en raisonnement mathématique. Ces modèles, selon Microsoft, s’imposent progressivement comme l’épine dorsale d’applications dites «agentiques», capables de gérer des tâches complexes et multidimensionnelles. Ce niveau de capacité était jusqu’ici réservé aux modèles de très grande taille, précise encore la firme de Redmond. 

Le modèle principal, Phi-4-reasoning, repose sur 14 milliards de paramètres. Phi-4-reasoning-plus, qui en reprend l’architecture tout en bénéficiant d’un entraînement complémentaire par apprentissage par renforcement, permettant d’optimiser l’usage des ressources de calcul pendant l’inférence. Selon Microsoft, ces deux modèles surpassent les performances de modèles concurrents comme OpenAI o1-mini et DeepSeek-R1-Distill-Llama-70B sur plusieurs benchmarks, notamment en raisonnement mathématique et en questions scientifiques de niveau doctorat.

Encore moins vorace, Phi-4-mini-reasoning, basé sur une architecture de type Transformer, a été spécifiquement entraîné pour le raisonnement mathématique étape par étape, en s’appuyant notamment sur des données synthétiques générées par le modèle DeepSeek-R1.

L’ensemble des modèles est disponible sur les plateformes Azure AI Foundry et Hugging Face.
 

Tags
Webcode
vsxizEVM