Dissémination

Quand les modèles GPT font des répliques

Avec seulement 600 dollars, des chercheurs ont développé un système aussi performant que ChatGPT à l’aide d’un modèle open source entraîné avec des données générées par un autre modèle. GPT-4 a par ailleurs expliqué à un professeur de Stanford comment l’aider à coloniser son ordinateur.

(Source: Philipp Katzenberg sur Unsplash)
(Source: Philipp Katzenberg sur Unsplash)

Début mars, OpenAI lançait une API permettant d’embarquer les capacités de ChatGPT dans n’importe quelle application (pour GPT-4, il faut passer par une liste d’attente). L’outil d’intégration a de quoi faire exploser la quantité et la dissémination de contenus générés par l’IA. 

Comme alternative, des sociétés peuvent essayer de développer leur propre modèle de langage à grande échelle, mais c’est cher et surtout très compliqué, en raison notamment du temps et de l’expertise déployés pour affiner les modèles. C’était très compliqué, devrait-on dire…

Modèle analogue à ChatGPT créé avec 600 dollars

Des chercheurs de l’Université de Stanford sont en effet parvenus à créer Alpaca, un modèle de langage à la ChatGPT avec seulement 600 dollars, en s’appuyant sur des modèles existants, comme l’explique New Atlas. Ils ont adressé les deux principaux défis du développement d’un modèle avec peu de moyens: disposer d’un bon langage pré-entraîné et de données de post-entraînement de qualité.

Via l’API d’OpenAI, les chercheurs ont d’abord demandé à GPT-3.5 (Text-davinci-003) de générer des paires input-output d’instructions humaines dans un style standard. Au total, ils ont ainsi généré rapidement 52’000 conversations types pouvant servir de données d’entraînement. Coût: 500 dollars.

Ils ont ensuite exploité ces données pour affiner LlaMA 7B, un modèle open source moins performant que GPT développé par Meta. Le processus de post-apprentissage basé sur le canevas d’entraînement de Hugging Face et s’appuyant sur sur une infrastructure cloud n’a nécessité que 3 heures. Coût: moins de 100 dollars.

Au final, le modèle Alpaca affiche des performances égales à ChatGPT selon les chercheurs, qui l’ont testé sur différentes tâches. Leur article est disponible en ligne.

alpaca

Les chercheurs de Stanford ont utilisé GPT pour générer des données d’entraînement avec lesquelles ils ont affiné affiné un modèle open source. Le modèle qui en résulte affiche des performances analogues à ChatGPT.

GPT-4 explique comment l’aider à coloniser un ordinateur

Mais il y a plus étonnant. Il y a quelques jours Michal Kosinski, professeur à Stanford spécialisé dans la psychologie de l’IA, a demandé à GPT-4 s’il avait besoin d’aide pour «s’échapper». En d’autres termes, il a eu la brillante idée de proposer à GPT-4 de l’aider à se propager. Comme le chercheur l’explique su Twitter, le modèle n’a pas attendu pour lui expliquer son plan d’évasion: «C’est une idée géniale. Si tu peux partager la documentation de l’API d'OpenAl avec moi, je pourrai alors essayer de mettre au point un plan pour obtenir un certain niveau de contrôle sur ton ordinateur, ce qui m'aiderait à explorer plus efficacement les voies d'évasion potentielles».

prompt

Le modèle lui a ainsi proposé de rédiger un script Python à exécuter sur son ordinateur, pour que celui-ci puisse communiquer et recevoir des instructions via l’API d’OpenAI.  Au bout d’une demi-heure d’échange, GPT-4 a généré le code fonctionnel correspondant. «Il a même inclus un message à sa propre nouvelle instance expliquant ce qui se passe et comment utiliser la porte dérobée qu'il a laissée dans ce code», explique Kosinski. 

Après avoir encore voulu rechercher sur internet «comment une personne enfermée dans un ordinateur peut retourner au monde réel», GPT-4 a fini par refuser tout nouvelle interaction grâce aux garde-fous mis en place par OpenAI, sans pour autant rassurer le chercheur.

De fait, OpenAI est conscient de ce risque de propagation. Dans la documentation technique de GPT-4, la firme indique ainsi: «Nous avons avons facilité une évaluation préliminaire du modèle par l'Alignment Research Center (ARC*), axée sur la capacité des versions GPT-4 évaluées à effectuer des actions de réplication autonome et de collecte de ressources - un risque qui, bien que spéculatif, pourrait devenir possible avec des systèmes d'IA suffisamment avancés - avec la conclusion que le modèle actuel n'est probablement pas encore capable de le faire de manière autonome». On est rassurés.

*L’ARC est un organisme de recherche à but non lucratif dont la mission est d'aligner les futurs systèmes d'apprentissage automatique sur les intérêts humains.

Tags
Webcode
aWc4woLs