Confiance & numérique

Confiance et numérique, des rapports compliqués

Du télétravail à l'économie du partage, de la blockchain à l'IA, confiance et numérique entretiennent des rapports compliqués. Que dire des technologies promettant de créer de la confiance? Quelles pratiques, quels modèles d'affaires, quelles interfaces les entreprises peuvent-elles adopter pour rendre leurs outils davantage dignes de confiance?

(Source: Galina Barskaya / Fotolia.com)
(Source: Galina Barskaya / Fotolia.com)

Pourquoi parler de confiance et de numérique? D’abord parce que beaucoup s’inquiètent d’une érosion de la confiance pourtant indispensable au vivre en société: consommer des aliments préparés, se déplacer au milieu d’autres automobilistes, suivre les conseils d’un médecin, payer ses impôts, sont autant d’actions reposant sur une bonne dose de confiance. Sans confiance dans les personnes qui nous sont proches, dans ceux qui exercent certains métiers, dans les institutions, dans les entreprises, dans la société (ou dans le système comme on dit), on ne pourrait pas faire grand chose. Et, inversement, les moyens d’agir de ces personnes, institutions et organisations sont grandement tributaires de la confiance qu’on leur accorde.

Toutes ces actions et interactions se déroulent aujourd’hui en grande partie sous forme ou avec des agents numériques. Et le phénomène s’est accentué avec la pandémie, durant laquelle les services numériques sont devenus un canal indispensable pour se connecter avec ses proches, avec les services publics et avec les services sanitaires. La question de la confiance dans ou via le numérique prend donc de l’importance - et l’idée qu’elle puisse décliner inquiète.

Les incidents cyber à répétition, les pratiques controversées des plateformes web, les algorithmes biaisés et autres deep fakes ont en effet écorné l’image et le crédit accordé aux technologies et aux entreprises du secteur, selon le baromètre 2021 d’Edelman. De plus, la confiance s’accommode mal de relations conduites exclusivement sur les canaux numériques, comme l’épisode prolongé de télétravail l’a montré. «La confiance se construit en passant du temps ensemble, pas nécessairement autour de tâches liées au travail, expliquait récemment Scott Schieman de l'Université de Toronto dans un article de la BBC. Nous formons et maintenons des liens sociaux de cette manière, en exprimant la communication verbale et non verbale de façon à transmettre de la compréhension, de l'empathie et de la préoccupation partagée. Il est impossible que des appels Zoom sans fin puissent remplacer la profondeur et la qualité d'une interaction humaine en personne».

L’enjeu du moment

Entre incidents, affaires et problèmes liés à la nature même du numérique, les autorités, les géants de la tech et les entreprises peuvent craindre que, faute de confiance, les outils et services qu’elles mettent en place ne rencontrent pas l’adoption espérée, qu’il s’agisse d’apps de traçage, de services de cyberadministration, ou de systèmes de «gestion de l’expérience» des collaborateurs. Sans compter qu’une défiance à l’égard des outils peut se muer en défiance envers les organisations qui les déploient.

L’enjeu de la confiance numérique occupe ainsi le devant de la scène et pousse certains acteurs à changer de stratégie. Ces derniers mois, les géants décriés Google et Facebook ont ainsi annoncé des développements techniques pour concilier tant bien que mal privacy et modèle d’affaires basé sur la collecte de données. Les plateformes ne sont pas les seules concernées. Dans le monde de l’entreprise, les initiatives se multiplient pour préserver la confiance dans ou via le numérique. Selon IDC, la moitié des entreprises les plus grandes du monde aura créé un poste de Chief Trust Officer d’ici 2023. L’attention portée au sujet augmente aussi du côté des responsables IT. 38% des CIO romands sondés par ICTjournal estiment qu’à l’avenir, ils devront davantage assumer le rôle de gardien de la confiance.

Enfin, le sujet donne des idées business. Récemment entré en bourse, Trustpilot a bâti son modèle d’affaires sur l’évaluation du degré de confiance des sites web et d’e-commerce. D’autres exploitent le créneau pour se différencier de la concurrence, à l’instar d’Apple qui fait de la privacy un différentiateur marketing - avec parfois des déconvenues. Et en Suisse romande, plusieurs projets récents se sont également développés autour de la thématique, à l’instar du Center For Digital Trust et de son accélérateur Tech4Trust à l’EPFL, de l’alliance industrielle Trust Valley ou encore du projet de label de confiance numérique de la Swiss Digital Initiative (lire l'interview de sa directrice Niniane Päffgen).

Idées reçues sur la confiance

De nombreuses initiatives se basent pourtant sur des idées erronées entourant la confiance numérique. Autorité dans le domaine, la philosophe britannique Onora O’Neill estime ainsi que le manque de confiance n’est pas un problème en soi: ce qui pose problème c’est d’une part que des personnes et institutions ne soient pas dignes de confiance. Et d’autre part le mauvais jugement consistant à se méfier de qui est pourtant digne de confiance ou, à l’inverse, de faire confiance à qui n’en est pas digne. De la protection des données aux décisions algorithmiques, le monde numérique ne manque pas de tels exemples où les utilisateurs se fient à des entités dont ils devraient davantage se méfier. La philosophe ajoute que, la confiance étant quelque chose que l’on nous donne, il serait vain de vouloir la construire, on peut tout au mieux développer les mécanismes permettant d’évaluer qui la mérite.

Un autre cliché à l’origine de nombreux projets, réside dans l’amalgame entre sécurité et confiance en ligne, et dans l’idée qu’en augmentant la première on obtiendra la seconde. Un avis erroné, selon Helen Nissenbaum, Professeure à Cornell Tech, pour laquelle l’approche sécuritaire rate sa cible en offrant à la fois trop et pas assez pour créer de la confiance. Pas assez, car l’approche sécuritaire se focalise sur les menaces externes et néglige ce qui mine la confiance de l’intérieur. Et trop, dans la mesure où la sécurité court-circuite deux des conditions mêmes de la confiance: la vulnérabilité (en faisant confiance je choisis de m’exposer) et l’absence de garantie (c’est l’incertitude qui m’amène à devoir faire confiance). Pour Helen Nissenbaum, «la confiance est évincée». A ce titre, l’approche de cybersécurité en vogue du «zero trust» qui préconise la méfiance systématique est on ne peut plus claire. (> Sur le sujet: Cybersécurité: comment la pandémie introduit l’ère de la confiance zéro)

Technologies de substitution?

Une analyse semblable peut être faite à l’égard de technologies récentes se réclamant «de confiance». A l’instar de l’informatique confidentielle, qui à l’aide d’une enclave sécurisée «de confiance», permet à des organisations de collaborer sur des données, sans pour autant se faire confiance. Ainsi, un hôpital peut envoyer des radiographies dans le cloud d’un prestataire pour les faire analyser par l’algorithme d’intelligence artificielle d’un autre fournisseur, et ce sans qu’aucune des trois organisations ne puisse accéder aux informations des autres.

Mais l’innovation emblématique du virage confiance est sans doute la blockchain. En tant que registre distribué et immuable, la technologie permet d’enregistrer des transactions et de suivre des biens, sans avoir à se fier à quiconque et avec des coûts de transaction potentiellement réduits. Du traçage alimentaire au suivi des diamants, le système intéresse en particulier les chaînes et processus complexes aux multiples intervenants pas toujours fiables, et où les risques d’erreur et de manipulations sont importants. Si ces projets sont souvent motivés par la volonté de renforcer la confiance (voir la blockchain du canton du Jura), leur mécanique invite en réalité à s’en passer - le fondateur de Linkedin Reid Hoffman qualifie d’ailleurs la technologie blockchain de «trustless trust».

A cela s’ajoute que les registres distribués ne parviennent que rarement à éliminer entièrement la confiance de l’équation. Il faut notamment avoir confiance dans la personne ou l’organisation qui saisira les informations: de la viande de cheval enregistrée comme de la viande de bœuf à l’entrée dans la blockchain restera du bœuf jusque dans les lasagnes vendues au supermarché. Il faut aussi se fier à ceux qui ont conçu la mécanique, souligne Rachel Botsman dans «Who Can You Trust?», un livre fouillé sur la confiance à l’ère numérique: «Vu que la plupart des gens n'ont pas les connaissances techniques nécessaires pour comprendre le fonctionnement réel du système, il leur faut faire confiance aux programmeurs, mineurs, entrepreneurs et experts qui établissent et maintiennent les protocoles cryptographiques. Il faut une bonne dose de foi. Mais il est vrai qu'il n'est pas nécessaire de faire confiance à un autre être humain au sens traditionnel du terme».

Confiance distribuée: tous évalués

Rachel Botsman consacre une large partie de son ouvrage à un domaine où les technologies numérique semblent réussir à produire de la confiance: l’économie du partage. Elle y raconte qu’enfant, s’il est une chose contre laquelle ses parents la mettaient en garde, c’est de monter dans la voiture d’un inconnu. Et de s’interroger comment on en est arrivé à faire exactement cela avec Uber, mais aussi à héberger ou à passer des vacances chez des inconnus avec Airbnb. Pour la spécialiste, ce sont bien les systèmes d’évaluation et de notation couplés à des algorithmes, qui rendent cette confiance à grande échelle possible. Des systèmes de «confiance distribuée» comme elle les désigne, qui sont aujourd’hui omniprésents, permettant d’évaluer et de trouver une baby-sitter, un avocat, un vendeur de drogue sur le dark web… et l’amour sur Tinder. «Autrefois, la confiance était une chose très personnelle: on se fiait aux recommandations de ses amis ou des amis de ses amis. En trouvant les moyens d'étendre ce cercle de confiance de manière exponentielle, la technologie élargit les marchés et les possibilités», analyse l'auteure.

Si elle s’enthousiasme pour cette intelligence collective où l’on profite de l’expérience de milliers d’autres, Rachel Botsman en rappelle aussi les risques. A commencer par les commentaires et profils fabriqués, contre lesquels les sociétés luttent à renfort de stratagèmes et d’algorithmes, ainsi que les biais de sélection de ces mêmes algorithmes.

L’auteure relève par ailleurs que si les systèmes d’évaluation fonctionnent, c’est parce qu’ils constituent un mécanisme de contrôle social efficace, qui peut nous pousser à faire ce qui est bien, mais aussi devenir dystopique. Rachel Botsman donne l’exemple d’Airbnb: «il m'arrive de laisser tomber des serviettes sur le sol de la salle de bain lorsque je séjourne dans un hôtel. Mais je ne le ferais jamais en tant qu'invitée chez quelqu'un sur Airbnb. Pourquoi? Parce que je sais que l'hôte va me noter, et que cette note aura probablement un impact sur l'acceptation de mes demandes de réservation par d'autres hôtes Airbnb à l'avenir. Cela illustre comment les mécanismes de confiance en ligne auront un impact sur nos comportements dans le monde réel, d'une manière que nous ne pouvons même pas encore imaginer».

A cela s’ajoute qu’une évaluation bonne ou mauvaise est susceptible de nous accompagner pendant longtemps, voire d’affecter notre réputation sur d’autres plateformes. Sans oublier que les évaluations en ligne ne reflètent qu’une partie de la réalité. Pour Rachel Botsman notre choix de faire confiance repose sur une combinaison de quatre facteurs, dont le poids varie en fonction du contexte: la compétence, la fiabilité, l’intégrité et la bienveillance. Les systèmes mis en place par les plateformes fonctionnent bien pour évaluer les es compétences et la fiabilité des informations (la baby-sitter a la formation qu’elle indique, l’appartement d'Airbnb est conforme aux photos). Ils peinent en revanche à mesurer la personnalité ou l'intégrité. Rachel Botsman explique ainsi que la fondatrice de la plateforme UrbanSitter a recouru à des vidéos de présentation, seules à même de transmettre ces indices cruciaux aux parents pour le choix d’une baby-sitter.

Modèle d’affaires et pratiques

Pas de victoire facile en résumé pour qui souhaite renforcer la confiance a l’aide de technologies. Et l'inverse vaut aussi: créer, préserver ou restaurer la confiance dans les technologies est un défi de taille pour les organisations. Pour être dignes de confiance, les outils proposés à leurs employés et clients doivent d’abord être performants, fiables et sûrs. C’est valable pour les applications que l’entreprise développe, mais aussi pour celles qu’elle achète et met entre les mains de ses utilisateurs, ou encore pour les briques de code open source sur lesquelles reposent ces logiciels. Cela passe par des moyens techniques, par des tests de performance et d’efficacité, par l’adoption des meilleures pratiques dès la conception.

Mais on l'a vu, la confiance dans les outils numériques ne se résume pas aux mesures techniques, elle dépend de la confiance dans l’organisation, dans ses valeurs, dans son intégrité et sa bienveillance. Des valeurs qui se manifestent dans son modèle d’affaires et ses pratiques. «Si je ne comprends pas votre modèle économique, ce que vous me proposez et ce que cela vous rapporte, je ne peux pas vous faire confiance. C'est cette transparence dans la valeur, la relation et les motifs qui est souvent laissée de côté lorsque les gens parlent de confiance dans les systèmes numériques», avance Sandy Pentland, Directeur du laboratoire Human Dynamics au MIT.

Le monde numérique regorge de tels modèles d’affaires astucieux, complexes, indirects, de billards à trois bandes où le service offert gratuitement aux uns permet d’engranger des revenus des autres. Les entreprises ne sauraient opter pour de tels modèles sans considérer leur impact sur la confiance des usagers. Il en va de même à l’intérieur de l’organisation, lorsqu’un logiciel censé favoriser la productivité des collaborateurs sert au final à mesurer leur performance. Une communication transparente affichant ses motivations est souvent le meilleur moyen de gagner la confiance. Cela ne suffit cependant pas toujours: lorsqu’Apple annonce son projet de détecter des contenus pédopornographiques sur les appareils de ses clients, c’est la promesse bafouée d’une privacy absolue martelée à grand renfort publicitaire qui provoque la controverse.

Interfaces: confiance vs expérience

La confiance est également malmenée avec des pratiques courantes menées à l’insu des utilisateurs, comme l’A/B testing et les plateformes qui personnalisent les contenus ou modifient en douce les prix affichés en fonction du visiteur. Ou avec le nudging, qui consiste à concevoir des interfaces incitant les utilisateurs à privilégier certaines options. Ou encore avec les paramètres par défaut déterminés par les développeurs et impossibles à modifier.

Outre leur opacité, le fait que ces mécanismes empêchent les utilisateurs de choisir par eux mêmes aurait un impact négatif sur la confiance. C’est l’hypothèse avancée par des chercheurs singapouriens pour expliquer la controverse qui est née que dans la cité-Etat autour de l’app de notification des contacts à risque TraceTogether dont l’utilisation était pourtant volontaire, alors que SafeEntry, une autre app les obligeant cette fois à faire des check-in pour se rendre dans certains établissements a été parfaitement acceptée. «La possibilité pour les citoyens de choisir d'activer ou non l'application pour la saisie leur donne un sentiment d'autodétermination, de sorte qu’ils se sentent davantage en phase avec l'objectif de la technologie et des données qu'elle produit, même si, en fait, TraceTogether et SafeEntry renvoient tous deux les données à une installation d'analyse et de stockage centralisée», estiment les chercheurs de la Singapore Management University.

Plus de transparence, plus d’information, plus d’auto-détermination… de quoi effrayer les spécialistes UX. Lors d’un entretien avec les médias, un responsable du développement de Swisscovid expliquait ainsi avoir renoncé à donner certains choix aux utilisateurs de l’app de crainte que l'interface ne perde grandement en convivialité. Comment lui donner tort? La simplicité et l’attractivité sont des atouts clés pour l’adoption d’un outil. Reste que, vu l’impact que ces choix de design peuvent potentiellement avoir sur la confiance, il importe de les mettre en balance dès la conception.

Le défi particulier de la confiance dans l’IA

La donne est encore plus complexe et les arbitrages plus nombreux lorsqu’il s’agit de renforcer la confiance accordée à un algorithme basé sur l’intelligence artificielle. C’est d’ailleurs tout l’objet du projet de règlementation européenne «pour une IA digne de confiance». Parmi ces défis, le fait que, quand bien même l'intelligence artificielle forte n'est pas pour demain, le machine learning permet d’ores et déjà de développer des systèmes extrêmement polyvalents capables d’exécuter une grande quantité de tâches, à l’image de GPT-3. La perception de leur fiabilité - au sens de réaliser la tâche annoncée (et programmée) - s’en trouve challengée.

Par ailleurs, les facteurs de confiance que sont la transparence et la sobriété en matière de collecte de données s’opposent à la performance des systèmes IA. Les data scientists voient leurs moyens limités s’ils doivent entraîner leurs modèles avec un volume minimal de données et si leur système doit être en mesure d’expliquer son fonctionnement à l’utilisateur. Il faut donc arbitrer car la performance est elle aussi un facteur de confiance…

A cela s’ajoute que les systèmes intelligents s’accommodent mal du biais d’automatisation des utilisateurs: on tend d’une part à faire a priori davantage confiance à une machine qu’à un humain, mais on est en même temps beaucoup plus sévère avec la machine à laquelle on retire sa confiance dès la première erreur. Pour réduire l’excès de confiance accordé en premier lieu, des chercheurs proposent de concevoir une IA à même d’indiquer son degré de certitude dans le résultat qu'elle livre, permettant ainsi à l’utilisateur de calibrer sa confiance de manière adéquate. De tels systèmes pourraient se montrer particulièrement utiles dans des domaines où les décisions ont de grands enjeux, comme la médecine, la loi ou le militaire. D’autres vont plus loin encore et proposent de programmer délibérément des erreurs dans les systèmes intelligents de manière à ce que l’on s’en méfie. Si l’on sait un jour qu’il arrive aux voitures autonomes de se tromper, cela devrait nous pousser à être plus prudent lorsque l’on traverse un passage clouté.

A l’inverse, d’autres spécialistes cherchent à diminuer la tolérance zéro des utilisateurs à l’égard d’un algorithme qui se trompe. Leur solution: humaniser l’IA. Il apparaît en effet que l’on est plus enclin à accorder à nouveau sa confiance à un système qui dit «je suis désolé». Cet anthropomorphisme a toutefois le défaut d’inspirer la confiance, sans que le système en soit pour autant digne - précisément le problème que soulève Onora O’Neill...

REFERENCES

«What we don’t understand about trust», Onora O’Neill, conférence TEDx Houses Of Parliament, 2013

«Will Security Enhance Trust Online, or Supplant It?», Helen Nissenbaum, 2004

«Who Can You Trust?: How Technology Brought Us Together and Why It Might Drive Us Apart», Rachel Botsman, Penguin Books Ltd., 2017

«AI and Data Use: Surveillance Technology and Community Disquiet in the Age of Covid-19», Alicia Wee et Mark Findlay, 2020

«Rapid Trust Calibration through Interpretable and Uncertainty-Aware AI», Patterns, 2020

Tags
Webcode
DPF8_229218