Machine learning

Lancement de GPT-4, la nouvelle version boostée de l’IA au cœur de ChatGPT

Avec GPT-4, tout juste dévoilé, OpenAI continue de développer son intelligence artificielle. Le nouveau modèle est présenté comme plus créatif, plus fiable et capable de comprendre des instructions plus nuancées que la version précédente, GPT-3.5, qui alimente toujours la version gratuite de ChatGPT. GPT-4 peut également traiter des images.

(Source: Timon / AdobeStock.com)
(Source: Timon / AdobeStock.com)

L'intelligence artificielle (IA) derrière ChatGPT a été mise à jour. OpenAI a levé le voile sur la nouvelle version de son modèle d'IA: GPT-4. Selon son concepteur, celle-ci dispose de connaissances générales plus étendues et de capacités de résolution de problèmes améliorées. Le modèle peut ainsi résoudre des tâches plus complexes de manière plus efficace et plus précise, écrit OpenAI.

Le moteur de recherche web de Microsoft, Bing, propose depuis peu de nouvelles fonctionnalités exploitant la technologie d’OpenAI. On ne savait toutefois pas quel modèle était concerné. Microsoft vient de publier un bref communiqué, précisant que Bing profite déjà de GPT-4 depuis l'introduction de cette innovation début février.

Plus de créativité, plus de contexte

GPT-4 serait plus créatif que son prédécesseur GPT-3.5. L'IA pourrait par exemple «composer des chansons, écrire des scénarios ou apprendre le style d'écriture d'un utilisateur». 

OpenAI mentionne entre autres l'exemple suivant de tâche complexe: «Andrew est libre de 11h à 15h, Joanne est libre de 12h à 14h puis de 15h30 à 17h. Hannah est disponible à midi pendant une demi-heure, puis de 16h à 18h. Quelles sont les possibilités de commencer une réunion de 30 minutes pour Andrew, Hannah et Joanne?» Dans sa réponse, GPT-4 propose une réunion entre 12h00 et 12h30. En outre, GPT-4 peut traiter jusqu'à 25'000 caractères de texte en entrée, peut-on lire sur la page du produit. La nouvelle IA n'est pas sans défauts: elle répond certes à moins de demandes de «contenus non autorisés», remarque OpenAI. Toutefois, des problèmes tels que les biais sociaux ou les informations inventées sont encore en cours de résolution.

Les nouvelles capacités textuelles de GPT-4 sont pour l’heure réservées aux utilisateurs payants de ChatGPT. Les développeurs peuvent également utiliser le nouveau modèle via l'API. 

OpenAI précise que GPT-4 peut traiter les images (à l'instar de Visual ChatGPT, mis au point par les chercheurs de Microsoft). Cette fonction, qui n’est pas encore accessible publiquement, ouvre une multitude d’applications potentielles. Le modèle serait par exemple capable de générer un site web à partir d'une esquisse de design dessinée sur papier. En soumettant une image de l'intérieur d'un réfrigérateur, l’IA propose des recettes correspondant aux aliments présents. 

Assister les personnes malvoyantes

L'entreprise Be My Eyes fait partie des premières entreprises à utiliser les capacités de traitement d'images de GPT-4. L'application du même nom de cette entreprise danoise permet aux personnes aveugles de se connecter par appel vidéo avec des personnes voyantes et de se faire assister pour relever des défis visuels, comme lire la date de péremption sur des aliments, reconnaître les couleurs des vêtements ou s'orienter dans des environnements inconnus.
 

Tags
Webcode
2PF9VMcD