OpenAI limite la collecte de données de ChatGPT
Les entreprises utilisant ChatGPT pourront empêcher que les informations saisies par les utilisateurs ne soient ensuite exploitées à des fins d’entraînement. OpenAI a cependant d’autres changements à apporter pour que son service soit conforme au RGPD.
OpenAI a dévoilé une nouvelle fonctionnalité de ChatGPT permettant de contrôler son exploitation des données des utilisateurs. Ces derniers pourront désormais désactiver l’historique des conversations via les paramètres de l’outil. Ce faisant, les échanges ne seront plus exploités pour l’entraînement des modèles de la firme. OpenAI les conservera 30 jours pour contrôler des abus, après quoi ils seront supprimés.
La firme travaille par ailleurs sur une version business de ChatGPT, qui permettra notamment aux entreprises de gérer leurs utilisateurs et de désactiver par défaut l’exploitation de leurs données.
Avec ces nouveautés, OpenAI répond à une inquiétude majeure des entreprises, celle de voir des informations confidentielles et des données personnelles être exploitées pour alimenter les modèles d’OpenAI, avec le risque supplémentaire que ces informations ressurgissent dans les réponses de l’outil, comme nous l’expliquions dans un article précédent (>Pourquoi et comment éviter que vos textes n’alimentent ChatGPT?).
Les autres problèmes de protection des données restent toutefois en suspens, notamment celui de la conformité de l’outil avec le RGPD. Rappelons que l’Italie a exigé l’interruption du service ChatGPT et demande qu’OpenAI procède à plusieurs modifications jusqu’au 30 avril, dont l’information aux utilisateurs sur le traitement de leurs données, la clarification de la base juridique de ce traitement ou encore la possibilité d’exercer leurs droits sur leurs données. Autre question en suspens, celle des droits d’auteur associés aux contenus collectés sur internet pour entraîner les modèles d’OpenAI (>Stack Overflow et Reddit ne veulent pas alimenter gratuitement les IA génératives).