Quand l’IA remplit les enquêtes: un défi croissant pour la recherche
Les outils d’intelligence artificielle capables de répondre automatiquement à des questionnaires en ligne représentent une menace croissante pour l’intégrité des enquêtes en sciences sociales. Des chercheurs alertent sur l’ampleur du phénomène et proposent plusieurs pistes pour y faire face.
Depuis une vingtaine d’années, les chercheurs en sciences sociales s’appuient beaucoup sur des plateformes de recrutement en ligne telles qu’Amazon Mechanical Turk pour collecter rapidement des réponses à grande échelle. Ces outils ont permis d’accélérer la recherche en facilitant l’accès à des milliers de participants, rémunérés quelques dollars pour compléter des questionnaires. Mais la fiabilité de ces données est de plus en plus contestée, indiquent des chercheurs dans une tribune publiée sur le site de Nature.
Selon plusieurs études, entre 30% et 90% des réponses à certaines enquêtes pourraient être inauthentiques ou frauduleuses. Or même un faible niveau de données polluées peut suffire à fausser les résultats: dans de nombreuses études, une proportion de 3% à 7% de réponses frauduleuses peut déjà compromettre la validité statistique des analyses.
Jusqu’à 45% de réponses générées par l’IA?
Certaines réponses problématiques proviennent de participants qui remplissent les questionnaires à grande vitesse afin d’augmenter leurs gains. À cette logique opportuniste s’ajoute désormais le recours croissant à l’automatisation. Des outils exploitant la GenAI sont de plus en plus utilisés pour générer des réponses crédibles. Une étude publiée en 2025 indique que jusqu’à 45% des réponses à certains questionnaires pourraient avoir été rédigées avec l’aide d’un modèle d’IA. Et l’apparition d’agents capables d’interagir de manière autonome avec des sites web pourrait encore accentuer le phénomène.
Face à ces risques, les chercheurs et les plateformes d’enquête ont déjà mis en place plusieurs mécanismes de détection. Les CAPTCHA, par exemple, tentent de distinguer humains et machines à travers des tests visuels ou sonores. Mais ces méthodes deviennent de moins en moins efficaces face à des systèmes d’IA avancés. D’autres approches reposent sur l’analyse des réponses elles-mêmes. Les modèles de langage ont tendance à produire des réponses plus homogènes que les humains. Dans des questionnaires d’opinion, par exemple, les participants humains utilisent plus fréquemment les extrêmes d’une échelle de réponses, tandis que l’IA reste plus modérée.
L’analyse des paradonnées comme outil de détection
Une autre piste consiste à analyser les paradonnées, c’est-à-dire les informations décrivant la manière dont une réponse a été produite. Un texte de cent mots rédigé en quelques secondes peut ainsi indiquer une génération automatisée. Mais là encore, les agents d’IA de dernière génération deviennent capables d’imiter ces comportements humains, selon les auteurs de l’article publié sur Nature.com.
Certains chercheurs proposent également de s’appuyer sur des panels d’enquête recrutés à partir de registres officiels, comme c’est le cas dans certains pays européens. Cette approche renforce l’authenticité des participants, mais elle reste plus coûteuse et limite la fréquence de collecte des données.
Aux yeux des auteurs, aucune méthode unique ne permettra d’endiguer le phénomène. Pour préserver la fiabilité des enquêtes, ils préconisent une combinaison de mécanismes de détection et des procédures de recrutement plus rigoureuses.
L’actualité IT en Suisse et à l’international, avec un focus sur la Suisse romande, directement dans votre boîte mail > Inscrivez-vous à la newsletter d’ICTjournal, envoyée du lundi au vendredi!