Réseau neuronal

Google dévoile LaMDA, une IA qui peut causer de n’importe quel sujet

Google a levé le voile sur LaMDA, modèle de compréhension du langage naturel entraîné pour parler de n’importe quel sujet et ne pas perdre le fil de la discussion. Il est prévu de l’intégrer au sein de produits tels que Google Assistant, Search et Workspace.

Le CEO de Google, Sundar Pichai, lors de la keynote de la conférence Google I/O 2021. (Source: Google)
Le CEO de Google, Sundar Pichai, lors de la keynote de la conférence Google I/O 2021. (Source: Google)

Après avoir fait l'impasse sur l’édition 2020, la conférence Google I/O revient cette année. L’occasion pour la firme de Mountain View de faire pleuvoir les annonces dans de multiples domaines. Et de mettre en avant ses avancées en matière d'intelligence artificielle. Le CEO de Google Sundar Pichai a ainsi dévoilé le nouveau modèle de compréhension du langage naturel, baptisé LaMDA (pour Language Model for Dialogue Applications).

Intelligence artificielle générique, LaMDA est spécialement entraînée pour tenir des conversations autour de n'importe quel sujet. Pour l’heure uniquement en mode tchat, mais l’idée est de développer par la suite le modèle en multimodal et lui permettre de gérer également des discussions orales. Sundar Pichai a illustré les capacités de LaMDA avec des dialogues par tchat assez cocasses, l’agent IA ayant personnifié Pluton et un avion en papier... En dépit de l’étrangeté de ces exemples, ils ont montré comment le modèle peut suivre le fil d’une conversation malgré de fréquents et soudains changements de sujet. Jusqu’ici, les agents conversationnels étaient capables de dialoguer mais en se restreignant à un sujet bien spécifique (à l’image de Google Duplex, capable de prendre un rendez-vous chez le coiffeur).

Comme de nombreux modèles de langage récents, dont BERT et GPT-3, LaMDA est construit sur Transformer, une architecture de réseau neuronal que Google Research a inventée et mise en open-source en 2017, précisent les chercheurs de la firme dans un billet de blog. «Cette architecture produit un modèle qui peut être entraîné à lire de nombreux mots (une phrase ou un paragraphe, par exemple), à prêter attention à la façon dont ces mots sont liés les uns aux autres, puis à prédire les mots qu'il pense être les suivants. Mais contrairement à la plupart des autres modèles de langage, LaMDA a été entraîné pour le dialogue. Au cours de sa formation, il a saisi plusieurs des nuances qui distinguent les conversations ouvertes des autres formes de langage», explique l’équipe de Google Research. LaMDA est ainsi en mesure de savoir si une réponse fait sens dans un contexte conversationnel donné.

LaMDA est issu de Meena, prototype de chatbot que Google a présenté début 2020. Sundar Pichai s’est dit impatient d'intégrer les capacités de LaMDA au sein de produits tels que Google Assistant, Search et Workspace.

 

Tags
Webcode
DPF8_217471