GenAI et IA agentique

Google dégaine la famille de LLM Gemini 3

par Joël Orizet et NetzKI Bot et traduction/adaptation ICTjournal

Avec Gemini 3, Google dévoile un modèle IA capable de générer des interfaces utilisateur interactives. Il est accompagné de la plateforme de développement Google Antigravity, via laquelle des agents IA seront capables de résoudre de manière autonome des tâches de programmation.

(Source: Google)
(Source: Google)

Google a présenté la troisième génération de sa famille de LLM Gemini. La première variante, Gemini 3 Pro, est selon l’entreprise disponible dès maintenant dans l’application Gemini sur le web et les smartphones. Le modèle dépasserait son prédécesseur, le 2.5 Pro, sur des benchmarks essentiels. Il arrive ainsi en tête du classement LMArena (un palmarès établi en comparant directement les réponses de différents modèles d’IA). Google affirme par ailleurs que le modèle maîtrise des raisonnements complexes de niveau doctorat.

Le géant de la tech indique en outre qu’une fenêtre de contexte d’un million de tokens renforce les capacités multimodales, permettant de traiter du texte, des images, des vidéos ou du code. Google a également annoncé le mode Gemini 3 Deep Think, destiné à améliorer les capacités de raisonnement logique. Avant sa mise à disposition générale, ce mode doit encore toutefois passer des tests de sécurité.

De nouveaux outils pour des systèmes autonomes

La nouvelle génération d’outils accompagnant Gemini est par ailleurs pensée pour le développement d’agents IA autonomes. À cette fin, Google introduit Antigravity. Cette plateforme permettra aux développeuses et développeurs de créer des agents capables d’accéder de manière indépendante à des outils tels qu’un éditeur, un terminal ou un navigateur. L’IA pourrait ainsi évoluer d’un rôle d’assistant vers un système autonome capable de planifier et d’exécuter des tâches complexes, promet Google. 

L’une des principales nouveautés est celle des «interfaces utilisateur génératives». La génération ne porte plus seulement sur du texte ou du code: l’IA produit également des interfaces interactives adaptées à chaque requête. Dans l’application Gemini, cette capacité s’exprime via deux fonctionnalités expérimentales : Dynamic View et Visual Layout. La première crée une interface sur mesure en fonction de la demande, la seconde génère des mises en page de style magazine. Dans le mode IA de Google Search, cette fonction doit également permettre de générer des outils interactifs.

Exemples d'interfaces utilisateur génératives créées par Gemini 3: en fonction de la requête, l'IA crée des mises en page complètement différentes, allant de la comparaison de bâtiments (à gauche) à une recette (au centre) en passant par un guide d'aménagement (à droite). (Source: Google)


De plus, Gemini Agent arrive en tant que fonctionnalité expérimentale pour les abonnés aux États-Unis. Cet agent serait capable d’exécuter des tâches en plusieurs étapes en se connectant aux applications Google comme Agenda ou Gmail, par exemple pour réserver une voiture de location en fonction d’informations de vol. Selon Google, l’agent demandera systématiquement une confirmation avant toute action critique.

Déploiement progressif

L’entreprise présente Gemini 3 comme son modèle le plus sûr à ce jour, évoquant des tests de sécurité internes approfondis ainsi qu’une collaboration avec des experts externes et l’UK AI Security Institute.

Gemini 3 Pro est désormais disponible dans l’application Gemini, ainsi que pour les développeurs dans AI Studio, via la CLI Gemini et sur Google Antigravity. Les entreprises peuvent y accéder via Vertex AI et Gemini Enterprise. Les fonctions d’interfaces génératives du mode IA sont pour l’instant réservées aux abonnées et abonnés de Google AI Pro et Ultra aux États-Unis. D’autres modèles de la série Gemini 3 seront dévoilés ultérieurement.
 

Tags
Webcode
98xcGU6U