Dangers de l’anthropomorphisme

Gemini et privacy: Google invite à la prudence

Google met en garde les utilisateurs de son chatbot IA, Gemini, contre l'entrée d'informations sensibles, soulignant les risques liés à la confidentialité des données personnelles. Risques exacerbés par l'anthropomorphisation de ce type d’interfaces conversationnelles.

Les capacités de Gemini sont disponibles sous forme d'application pour Android et sont également intégrées à l’application Google pour iOS. (Source: Google)
Les capacités de Gemini sont disponibles sous forme d'application pour Android et sont également intégrées à l’application Google pour iOS. (Source: Google)

Les fonctionnalités d'intelligence artificielle générative sont en train de débarquer dans nos smartphones. Alors que Samsung a récemment lancé le Galaxy S24, équipé de capacités d’IA, IDC prédit que cette année, un smartphone vendu sur cinq devrait intégrer des capacités de GenAI. En outre, Google vient de lancer une version mobile de Gemini (ex-Bard) sous forme d'application pour Android. Ce chatbot de nouvelle génération est également intégré à l’application Google pour iOS. 

Dans la documentation de support «Gemini Apps Privacy Hub», la firme de Mountain View indique collecter activement les conversations des utilisateurs, les informations relatives à l'utilisation des produits, les données de localisation et les retours d'expérience. «Veuillez ne pas saisir d'informations confidentielles dans vos conversations, ni de données que vous ne souhaiteriez pas qu'un évaluateur voie ou que Google utilise pour améliorer ses produits, ses services et ses technologies d'apprentissage automatique», précise Google. 

Le stockage des données hors de l'appareil a en outre de quoi préoccuper. Google indique que ces données seront stockées «par défaut» pendant une durée pouvant aller jusqu'à 18 mois, période modifiable par l'utilisateur pour une durée de 3 ou 36 mois dans les paramètres d'activité des applications Gemini. 

Le problème de l'anthropomorphisme 

Par rapport aux applis traditionnelles, les risques relatifs à la privacy pourraient être exacerbés avec les chatbots d’IA générative. C’est notamment ce que souligne Zak Doffman, journaliste chez Forbes et expert de ces questions.

«Il semble que nous soyons tous confrontés à un angle mort lorsqu'il s'agit de chatbots d'IA générative. Nous faisons peut-être attention aux applications que nous installons, aux autorisations que nous accordons, aux navigateurs que nous utilisons et aux données que nous partageons avec Facebook, Google et d'autres. Mais si nous nous trouvons face à un chatbot d'IA, nous oublions tout cela et nous nous retrouvons soudain dans ce qui ressemble à une discussion privée avec un nouvel ami serviable. Et nous voulons partager. Mais il ne s'agit manifestement pas d'un ami, mais d'une façade pour un écosystème informatique de plusieurs milliards de dollars, financé en fin de compte par la publicité et le courtage de données», explique le spécialiste. Ce propos illustre le piège de l'anthropomorphisation d’interfaces conversationnelles consciemment programmées pour dialoguer avec les utilisateurs de façon la plus naturelle qui soit.  

Webcode
ES5Xfyun