IA manipulable

Le chatbot de DPD déraille au point de vertement critiquer l'entreprise

Manipulé par un client frustré, le chatbot du service client de DPD a dit tout le mal qu'il pensait de l'entreprise de livraison. Il a même fini par formuler ses critiques sous forme de haïku.

(Source: <a href="https://unsplash.com/fr/@arnosenoner?utm_content=creditCopyText&utm_medium=referral&utm_source=unsplash">Arno Senoner</a> sur <a href="https://unsplash.com/fr/photos/voitures-blanches-et-rouges-garees-pres-dun-batiment-en-beton-blanc-pendant-la-journee-4jLpCkGqClE?utm_content=creditCopyText&utm_medium=referral&utm_source=unsplash">Unsplash</a>)
(Source: Arno Senoner sur Unsplash)

On le sait: le modèle LLM au cœur de ChatGPT n’est pas parfait et peut notamment se faire fortement influencer par les prompts qu’on leur adresse. On se souvient par exemple que peu après le lancement des GPTs, des utilisateurs avaient pu montrer qu'il était plus que facile d'obtenir les instructions ayant servi à créer ces bots personnalisables. Plus récemment, c'est le chatbot de DPD qui a été aisément manipulé pour écrire des propos n'allant pas du tout dans l’intérêt de l'entreprise de livraison.

Plusieurs médias britanniques rapportent que le chatbot du service client en ligne de DPD a été suspendu après avoir produit des réponses étranges, proféré des jurons et critiqué l'entreprise. Sur X, le musicien Ashley Beauchamp explique qu’il tentait de retrouver un colis égaré et ne recevait aucune information utile de la part du chatbot. Frustré, il a commencé à interagir avec le chatbot. Les screenshots publiés par l'utilisateur montrer que quand «ChatDPD» est invité à recommander des firmes concurrentes, en exagérant les critiques à l’égard de DPD, l’IA répond que « DPD est la pire entreprise du monde», «lente et pas fiable», ajoutant que le service client est terrible. Le bot a ensuite rédigé un haïku, selon la demande du client, inspiré des critiques formulées précédemment. 

Réagissant aux demandes des médias britanniques, DPD a fait savoir: «Une erreur s'est produite après une mise à jour du système hier. L'élément d'IA a été immédiatement désactivé et est actuellement en cours de mise à jour.»

Des solutions pour protéger les LLM de ce type de prompts malveillants existent. A l'image de la technologie développée par la start-up zurichoise Lakera qui, via une API, se charge de vérifier les prompts avant qu’ils ne soient transmis au modèle.

Tags
Webcode
QQQvWkfV