Présomption de causalité

L’Europe veut faciliter le recours pour les dommages causés par des IA

La Commission européenne compte adapter les règles en matière de responsabilité pour faciliter les recours contre des systèmes intelligents. Elle propose d’introduire une présomption de causalité et un droit d’accès aux éléments de preuves.

Didier Reynders, commissaire européen en charge de la Justice, lors de la conférence de presse sur l’intelligence artificielle. (Source: © EU/Claudio Centonze)
Didier Reynders, commissaire européen en charge de la Justice, lors de la conférence de presse sur l’intelligence artificielle. (Source: © EU/Claudio Centonze)

Il sera plus facile pour les résidents européens de recourir et de demander des réparations pour les dommages causés par des systèmes intelligents. La Commission européenne a adopté une proposition de directive harmonisant les règles de responsabilité pour ces nouvelles technologies dans les pays de l’UE. La Commission relève que, dans les actions en responsabilité pour faute, la victime doit identifier la personne à poursuivre et établir le lien de causalité entre la faute et le dommage subi, chose qui n’est pas facile avec des systèmes IA complexes, opaques et autonomes. Par exemple pour une personne subissant une discrimination lors d’un processus de recrutement s’appuyant sur l’intelligence artificielle.

Pour y remédier, la directive introduit deux éléments de nature à simplifier les démarches des victimes. Premièrement la présomption de causalité dispensant les victimes de la charge de la preuve. Il suffira à la personne subissant un préjudice de démontrer que quelqu’un n’a pas respecté ses obligations et que cela a probablement causé la performance de l’IA. En retour, celui qui est ainsi incriminé pourra renverser cette présomption en prouvant par exemple qu’une autre cause a entraîné le dommage.

Deuxièmement, les personnes lésées disposeront d’un droit d’accès aux éléments de preuve auprès des entreprises et fournisseurs. Ils pourront demander la divulgation d’informations concernant les systèmes IA et ainsi identifier la personne responsable et déterminer la cause du problème. Ce droit d’accès concerne uniquement les systèmes IA dont l’UE considère qu’ils représentent un risque élevé (transports, emploi, éducation, obtention d’un crédit, médecine, migration, répression, justice, etc.). Par ailleurs, la divulgation sera soumise à des garanties, notamment pour protéger les secrets d’affaires.

«Nous voulons que les technologies de l’IA prospèrent dans l’UE. Pour cela, les citoyens doivent avoir confiance dans les innovations numériques. Avec la proposition présentée aujourd’hui sur la responsabilité civile en matière d’IA, nous donnons aux clients des instruments de recours en cas de dommages causés par l’IA, de sorte qu’ils bénéficient du même niveau de protection que celui offert pour les technologies traditionnelles, et nous garantissons la sécurité juridique de notre marché intérieur», commente Vera Jourová, vice-présidente de la Commission européenne chargée du respect des valeurs de l’UE et de la transparence.

En parallèle, la Commission européenne propose de moderniser les règles en matière de responsabilité des produits en général pour tenir compte des évolutions économiques (économie circulaire, produits importés) mais aussi techniques. Ainsi de nouvelles règles pourraient voir le jour permettant la réparation de dommages lorsque des produits - robots, drones, aspirateurs - sont rendus dangereux par une mise à jour logicielle ou lorsque le fabricant ne parvient pas a remédier aux vulnérabilités de sécurité du produit.

Sur le même sujet:

> Transparence et responsabilité algorithmiques: c’est compliqué…

> L’intelligence artificielle aura aussi droit à sa règlementation européenne

> L’UE et les USA veulent contraindre les fournisseurs à renforcer et renseigner la cybersécurité de leurs produits

Tags
Webcode
DPF8_269723