Intelligence artificielle et droit

Chatbots qui «hallucinent» et trompent les clients: quelle responsabilité légale?

Comme l’a illustré un récent verdict contre Air Canada, les entreprises peuvent être jugées responsables des informations erronées formulées par leur chatbot dopé à la GenAI. Que doivent faire les entreprises suisses pour se prémunir contre les risques juridiques potentiels? Des avocats spécialisés en nouvelles technologies et un fournisseur romand donnent leurs conseils.

(Source: PhonlamaiPhoto / iStock.com)
(Source: PhonlamaiPhoto / iStock.com)

Avec le boom de l’IA générative, les chatbots se muent toujours plus fréquemment en conseiller à la clientèle. Et ce, en dépit des risques encourus… Un jugement rendu contre Air Canada illustre comment ces technologies peuvent se retourner contre les entreprises qui les déploient. 

La compagnie aérienne canadienne a récemment été jugée responsable pour des conseils erronés fournis par son chatbot à un passager. Des informations que l’on pourrait en l'occurrence identifier comme des «hallucinations» générées par l’agent conversationnel. Le verdict publié par le Tribunal de résolution civile de la Colombie-Britannique indique que suite au décès de sa grand-mère, le plaignant a réservé un vol via le site web d’Air Canada pour se rendre aux obsèques. Lors de ses recherches de vols, il a consulté le chatbot, qui lui a indiqué qu'il pourrait demander un tarif spécial pour personnes en deuil, et ce, de manière rétroactive. Sauf que par la suite, le passager a appris des employés d'Air Canada que la compagnie n'acceptait pas les demandes rétroactives. Il a réclamé 880 dollars, correspondant à la différence de prix entre le tarif normal et le tarif dit de deuil. 

De son côté, Air Canada a rétorqué que le client n'avait pas suivi la procédure appropriée pour demander le tarif de deuil et qu'il ne pouvait donc pas le réclamer rétroactivement. Air Canada a en outre suggéré que son chatbot est une entité juridique distincte qui est responsable de ses propres actions. «Il s'agit là d'un argument remarquable. Bien qu'un chatbot ait une composante interactive, il n'est encore qu'une partie du site web d'Air Canada. Il devrait être évident pour Air Canada qu'elle est responsable de toutes les informations figurant sur son site web», estiment les juges. Qui ont donc finalement donné tort à la compagnie aérienne, soulignant que les entreprises doivent assumer la responsabilité des outils automatisés qu'elles déploient pour interagir avec les clients. 

Les entreprises prennent leurs précautions

Cette décision met en évidence le potentiel de responsabilité légale découlant de conseils incorrects donnés par des chatbots. Il n’est ainsi pas étonnant de constater que certaines entreprises prennent leurs précautions en la matière, en Suisse également. A l’image de Helvetia, avec son chatbot Clara (propulsé par GPT-4). En ouvrant l'interface conversationnelle, l’utilisateur voit un premier message du bot, avertissant entre autres: «Mes réponses sont générées par une intelligence artificielle, elles ne sont donc pas toujours exactes». S'affiche également un lien vers les conditions d'utilisation, soulignant notamment: «Clara peut toutefois fournir des informations inexactes. Les réponses de Clara ne sont donc pas contraignantes du point de vue juridique et Helvetia décline toute garantie ou responsabilité quant à l’exactitude, l’exhaustivité ou l’actualité des informations mises à disposition. Helvetia décline toute responsabilité à cet égard». 

Le chatbot Clara de l'assureur Helvetia prévient les utilisateurs que ses réponses ne sont pas toujours exactes. (Source: capture d'écran www.helvetia.com)
Le chatbot Clara de l'assureur Helvetia prévient les utilisateurs que ses réponses ne sont pas toujours exactes. (Source: capture d'écran www.helvetia.com) 


L'importance des clauses de non-responsabilité 

Mais dans quelle mesure l'affichage d’un message d'avertissement associé ou non à des clauses de responsabilité est-il suffisant pour ne pas prendre le risque d'être tenu responsable? Contacté par ICTjournal, Nicolas Capt, avocat spécialisé en droit des nouvelles technologies, fait observer que les chatbots sont dotés de systèmes d’IA autonomes dépourvus de personnalité juridique. «Ainsi, l'entreprise qui utilise ce type de système est responsable des actions et des dommages commis par le chatbot, car les décisions et les informations qu'il transmet ne peuvent lui être attribuées», souligne l’homme de loi, ajoutant qu'il n'existe pour l’heure aucun régime spécial de responsabilité pour les systèmes d’intelligence artificielle. Dès lors, le régime général de responsabilité s'applique. Nicolas Capt précise que, comme le souligne la doctrine, «il est aisé pour une entreprise de s’exonérer de toute responsabilité en cas de dommage commis par un chatbot en stipulant simplement sous la forme d’un disclaimer qu’elle ne sera pas tenue responsable des dommages commis par le chatbot sauf en cas de dol ou de faute grave». 

Alexandre Jotterand, avocat spécialisé dans la gestion des données et des technologies chez id est avocats, estime lui aussi que les clauses de non-responsabilité sont nécessaires. Il ajoute que puisque la loi et la jurisprudence posent certaines limites en cas de faute grave, ou lorsque les clauses de conditions générales sont considérées comme insolites ou déséquilibrées, cette mesure pourrait ne pas être suffisante. «L’efficacité juridique de tels disclaimers dépendra donc de plusieurs facteurs, dont la visibilité et l’accessibilité du disclaimer, son caractère approprié et raisonnable, etc. On prendra également en compte le caractère plus ou moins grossier d’une erreur sous l’angle de la bonne fois: un consommateur aura beaucoup de peine à convaincre un tribunal du bien-fondé de sa demande s’il aurait dû se rendre compte de l’erreur lui-même», explique Alexandre Jotterand. L’avocat ajoute que le meilleur moyen pour une entreprise de se prémunir contre les risques de responsabilité reste de s'assurer que leurs chatbots sont correctement entraînés, testés et régulièrement mis à jour pour minimiser les risques d'erreurs. Et de souligner que les limitations de responsabilités, ainsi que l’information sur le risque d’erreur, devraient être indiquées clairement au niveau de l’interface utilisateur et non pas «cachées» dans des conditions générales.

Des mesures techniques peuvent limiter les «hallucinations» 

Les fournisseurs de chatbots disposent justement de moyens pour limiter au maximum ces fameuses «hallucinations». Fondateur et CEO de la société vaudoise Deeplink, Jérôme Berthier commence par confier à la rédaction qu’il encourage ses clients à préciser que les réponses sont générées par un robot, qu’elles ne représentent qu'un extrait d'information et que la vérité se trouve dans les documents originaux. Sur le plan technique, l’approche de Deeplink consiste à se concentrer sur la réduction du champ de connaissance utilisé pour former l’agent conversationnel. D’abord, en faisant appel aux documents des clients comme sources d'information. Ensuite, en utilisant un moteur de LLM plus spécialisé qui fonctionne sur les propres serveurs de Deeplink, «plutôt qu’un modèle générique trop vaste comme ChatGPT», précise Jérôme Berthier. Avant d'ajouter qu'il s’agit également de procéder à une optimisation des instructions données à une IA, une démarche qui, «bien qu'étant la technique certainement la moins fiable, permet de dégrossir le travail en amont». 
 

Tags
Webcode
AZwrZdwV