IA génératives

Les revues Nature et Science obligées de clarifier: ChatGPT n’est pas un auteur

Des articles académiques écrits à l'aide de ChatGPT se sont frayés un chemin dans la littérature scientifique pourtant soumise à un processus de relecture stricte. Les revues Nature et Science ont réagi en clarifiant leurs règles éditoriales. Le problème en soulève toutefois un autre: les défaillances du processus d'évaluation par les pairs.

(Source: Mikhail Nilov / pexels.com)
(Source: Mikhail Nilov / pexels.com)

ChatGPT, le modèle géant de traitement du langage dont tout le monde parle, pose d'immenses défis dans plusieurs secteurs. Alors que le milieu scolaire et celui du journalisme se demandent comment réagir face à ce puissant outil de génération de textes, le monde de la recherche scientifique est également touché de plein fouet. Mi-janvier, des journalistes de Nature ont signalé que les résumés rédigés par ChatGPT étaient suffisamment scientifiques pour tromper des chercheurs humains (63% de détection correctes). En outre, il apparaît que des articles coécrits par des intelligences artificielles ont déjà réussi à se frayer un chemin dans la prestigieuse revue scientifique dont, faut-il le rappeler, les papiers de recherche doivent être évalués par des pairs afin de pouvoir être publiés.

Règles éditoriales clarifiées: ChatGTP n’est pas un auteur 

Le problème est bien entendu pris au sérieux par le comité éditorial de Nature, qui a récemment clarifié les règles déontologiques d'utilisation de ChatGPT et outils apparentés. Premièrement, ceux-ci ne peuvent être crédités comme co-auteur d'un article. Deuxièmement, les chercheurs qui utilisent ces outils doivent documenter cette utilisation (par exemple dans les sections méthodes ou remerciements), dixit l'équipe éditoriale de Nature. 

La revue concurrence Science a elle aussi mis à jour sa politique éditoriale, pour spécifier que le texte généré par ChatGPT (ou tout autre outil d'IA) ne peut pas être utilisé. Autre précision formulée dans l’éditorial du rédacteur chef de la revue: un programme d'IA ne peut pas être un auteur. «Les erreurs se produisent lorsque les éditeurs et les réviseurs n'écoutent pas le sceptique qui est en eux ou lorsque nous ne nous concentrons pas sur les détails. A une époque où la confiance dans la science s'érode, il est important que les scientifiques s'engagent à nouveau à prêter une attention particulière et méticuleuse aux détails», fait observer le rédacteur en chef de Science. 

Les défaillances du processus d'évaluation par les pairs 

Les enjeux liés à l'arrivée de ChatGPT dans le monde scientifique braquent en fait les projecteurs sur une autre problématique: la frénésie de publications dans le milieu académique. Un phénomène en partie dû au besoin des chercheurs d'être reconnus en parvenant à publier des articles à un rythme soutenu. Dans un récent article sur la question, le média en ligne Slate.com analyse comment de telles IA génératives révèlent «la maladie insidieuse au cœur de notre processus scientifique». Le journaliste Charles Seife explique que la tâche d'évaluation par les pairs, qui demande passablement de temps et d'efforts, est rarement rémunérée par les publications. Ajoutant que le nombre de chercheurs prêts à entreprendre une évaluation rigoureuse diminue à mesure que le volume des publications et des soumissions augmente. En conséquence, la qualité de l'examen par les pairs aurait diminué. «Lorsque les professeurs ne sont pas en mesure de faire la différence entre un étudiant et une IA [...] cela montre que le processus de discrimination est gravement défaillant», conclut le journaliste.

Tags
Webcode
K2WAfL5T