Coup de mou saisonnier?

ChatGPT devient flemmard en décembre et OpenAI l’admet

Des utilisateurs de ChatGPT rapportent que le chatbot semble devenir paresseux depuis quelques jours. OpenAI l’a reconnu, sans donner pour l'heure d’explication. Une théorie avance que le modèle imite les humains en faisant preuve d'une certaine paresse hivernale.

(Source <a href="https://unsplash.com/@karsten116?utm_content=creditCopyText&utm_medium=referral&utm_source=unsplash">Karsten Winegeart</a> sur <a href="https://unsplash.com/photos/brown-and-white-short-coated-dog-wearing-red-and-black-rabbit-costume-nCk-Pb0Lll8?utm_content=creditCopyText&utm_medium=referral&utm_source=unsplash">Unsplash</a>)

Ces derniers jours, un nombre croissant d'utilisateurs de la mouture la plus récente de ChatGPT, basée sur le LLM GPT-4 d'OpenAI, ont exprimé leur mécontentement face au refus du chatbot de se conformer à leurs demandes, rapporte notamment le site spécialisé Ars Technica. D'autres internautes ont critiqué l’agent conversationnel pour sa propension à ne pas montrer le même intérêt qu'autrefois à leurs questions. En réaction et de façon a priori étonnante, OpenAI a reconnu sur X que son modèle était devenu «paresseux». Et d'ajouter que cette évolution n'était certainement pas intentionnelle. «Le comportement du modèle peut être imprévisible, et nous cherchons à le corriger», a ajouté la firme. 

Sur X, certains utilisateurs se sont demandés s'il était possible que le LLM simule le phénomène de dépression saisonnière ou, a minima, qu’il reproduise la tendance humaine consistant à repousser certains projets pour s’en charger après la période des fêtes de fin d'année. 

Etant donné que l'interface de ChatGPT fournit au robot la date du jour, certains ont commencé à penser que l'idée pouvait avoir du sens, ajoute Ars Technica. Un développeur du nom de Rob Lynch a souhaité en avoir le cœur net. Sur X, il explique qu’avec l’API de GPT-4 Turbo, les réponses sont en moyenne plus brèves lorsqu'on fournit une date en décembre (4’086 caractères) comparée à une date en mai (4’298 caractères). Des résultats statistiquement significatifs, selon le développeur.   

Il serait néanmoins hâtif de conclure à une explication définitive. Il est également envisageable que ChatGPT ait toujours été «paresseux» avec certaines réponses, mais que les récents témoignages ont attiré l'attention sur ce phénomène, fait observer Ars Technica. 
 

Tags
Webcode
YGVAU2xk