IA, interfaces et agents

Interagir et co-agir avec l'IA

Certains voient dans l’essor de ChatGPT & Co une révolution dans le domaine UX et la promesse d’interactions toujours plus fluides avec des systèmes gagnant en autonomie. Alors qu’émergent des IA agissantes et des dispositifs connectés ambitionnant de supplanter les smartphones, les enjeux changent. Pour les concepteurs, il s’agit de bien élucider les intentions des utilisateurs. Tandis que pour les utilisateurs, il s’agit de s’assurer que les systèmes les comprennent (et de conserver un certain contrôle).

Il y a un an, Cassie Kozyrkov, Chief Decision Scientist chez Google, expliquait dans un post que l’irruption de ChatGPT quelques mois plus tôt est avant tout une révolution UX. Jusqu’ici dissimulée dans des services et applications, l’IA se trouve en effet pour la première fois en contact direct avec les utilisateurs. On interagit donc avec l’IA générative, mais aussi par son biais, puisque les chatbots dopés à l’IA générative sont en train de s’établir comme moyen complémentaire d’interagir avec les logiciels.

Pour le gourou de l’UX Jacob Nielsen, l’informatique entre ainsi dans une nouvelle phase, et certaines sociétés travaillent déjà sur une nouvelle génération de dispositifsprofitant de ces avancées. Au Mobile World Congress, Deutsche Telekom a présenté un prototype de smartphone dans lequel les apps sont remplacées par une interface dynamique générée au gré des requêtes des utilisateurs. D’autres imaginent même l’après-smartphone avec des broches alimentées par l’IA qui répondent à nos demandes vocales et projettent des informations sur la paume de la main (r1 de Rabbit, AI pin de Humane).

Au-delà de ces équipements en développement, on assiste déjà à de nouveaux modes d’interaction homme-machine. Pour Cassie Kozyrkov, l’IA générative change les attentes des utilisateurs: «L’accent n'est plus mis sur la fourniture de la réponse la plus correcte, mais sur la fourniture de la réponse la plus utile», explique-t-elle. En face, il ne s’agit plus pour la machine «de faire ce qu’on lui dit» via une interface graphique, mais d’élucider ce que l’on souhaite, avance Jakob Nielsen. Que ce soit à partir d’un prompt, à partir du contexte – comme le fait déjà l’enceinte connectée d’Amazon – et qui sait un jour à partir des signaux cérébraux.

Une fois que les intentions de l’utilisateur auront été «interprétées», ces systèmes émergents ne se contenteront pas d’y répondre avec des textes et des images, mais entreprendront des actions. Peut-être ces agents enverront-ils un e-mail, peut-être réserveront-ils un vol, peut-être achèteront-ils une place de concert. Déjà présente dans l’idée du web sémantique de Tim Berners-Lee en 2001, l’idée est aujourd’hui reprise par Bill Gates. Et certaines sociétés y travaillent déjà, comme Sierra aux Etats-Unis ou la jeune pousse genevoise Hestia.ai.

Ces nouveaux modes d’interaction et ce laisser-faire nécessiteront une bonne dose de confiance. Car, comme le dit le sociologue Dominique Boullier, ces transactions transparentes et sans friction s’accompagnent de calculs à l’opacité grandissante. La question des informations et explications fournies aux utilisateurs va se faire de plus en plus pressante, comme c’est déjà le cas avec les deepfakes.

Webcode
itiVkvbd