Analyse

La drôle d’éthique d’OpenAI

Si l’on analyse les documents d’OpenAI et les propos de ses dirigeants, son éthique peut se résumer ainsi: «Les risques que nous avons identifiés sont nombreux, nous en avons atténué certains. Pour le reste, c’est à la société de s’adapter, avec des règlementations si nécessaire. Pour nous, la question de ne pas lancer notre modèle ne se pose pas, le risque étant négligeable par rapport aux bienfaits potentiels pour l’humanité».

(Source: Estudio Bloom sur Unsplash)
(Source: Estudio Bloom sur Unsplash)

Le lancement de ChatGPT fin 2022 a eu pour seul mérite de créer un électrochoc chez un large public sur les capacités et les dangers des grands modèles de langage et partant sur l’intelligence artificielle. Pour qui suit ces technologies, ces développements couvent cependant depuis longtemps. Il y a eu GPT-3, Dall-e et consorts, sans compter l’extraordinaire diffusion de l’IA dans les logiciels professionnels et les applications pour tout un chacun. 

Début 2022, ICTjournal consacrait déjà un article aux grands modèles de langage et à «des risques à la hauteur de leurs capacités», basé d’ailleurs en partie sur un rapport d’OpenAI, la société qui développe les modèles GPT. On peut dès lors s’étonner que les dirigeants de cette même entreprise (ainsi qu’une large partie de la communauté  technoscientifique) semblent découvrir tout à coup les risques des modèles de langage géants et appelle à les règlementer au plus vite… De fait, les propos des dirigeants d’OpenAI en interview, les explications qu’ils donnent dans leur documentation et sur les réseaux sociaux sont révélateurs d’une manière d’aborder les questions éthiques largement répandue dans le monde de l’IA et de l’innovation numérique.

«Ce n’est pas notre faute»

Premièrement, il y a un déni de responsabilité qui prend plusieurs formes. Tantôt on fait comme si l’on était simple spectateur des développements technologiques auxquels on assisterait aux côtés du reste de l’humanité et on appelle à ce que l’Etat règlemente les systèmes. Il y a quelques semaines, Sam Altman, CEO d’OpenAI déclarait ainsi sur Twitter: «Nous avons besoin de suffisamment de temps pour permettre à nos institutions de comprendre ce qu'il faut faire. La réglementation sera essentielle et prendra du temps à définir; bien que les outils d'IA de la génération actuelle ne soient pas très effrayants, je pense que nous ne sommes pas très loin de ceux qui pourraient l'être».  Interrogée par le site Politico, la chercheuse Timnit Gebru (anciennement en charge de l’équipe d’éthique de l’IA chez Google) soulignait le caractère mensonger de cette posture: «Nous devons réfléchir aux entités qui construisent et utilisent ces systèmes, à la manière dont elles les construisent et à la manière dont elles les utilisent, sans parler de ces systèmes comme s'il s'agissait d'entités autonomes».

Tantôt on rejette la responsabilité sur les personnes qui emploient ou exploitent ces outils. La documentation qui accompagne le lancement de GPT-4 indique par exemple que c’est aux développeurs de faire en sorte que les utilisateurs ne se fient pas trop aux réponses des modèles. Interviewée par la chaîne américaine ABC, Mira Murati, CTO d’OpenAI, constatait de son côté que l’humain est le facteur de risque incontrôlable: «On peut prédire le comportement des machines, pas celui des humains». L’humain en général est aussi rendu responsable des contenus nuisibles et biaisés, l’IA ne faisant que «reproduire» nos propres défaillances présentes dans les données d’entraînement.

«On lance et on verra après»

Deuxièmement, la décision d’OpenAI de mettre ses modèles à disposition du public est inspirée de l’innovation façon Silicon Valley. On lance un produit, on regarde ce qui se passe, on apprend, et on améliore de façon itérative. «Nous pensons qu'il est essentiel de montrer ces outils au monde dès le début, même s'ils sont encore quelque peu défectueux, si nous voulons obtenir suffisamment de contributions et d'efforts répétés pour bien faire les choses», explique Sam Altman sur Twitter.

Dans cette approche, les utilisateurs et la société font office de bêta testeurs, de cobayes dont on attend qu’ils s’adaptent. En interview avec ABC, le CEO explique ainsi que son produit ne saurait rester dans un laboratoire, qu’il doit être en contact avec la réalité, que les erreurs doivent être faites maintenant «que les enjeux sont faibles». «Je pense que la société doit s’adapter», explique-t-il. «Les gens ont besoin de temps pour se mettre à jour, pour réagir, pour s’habituer à cette technologie, pour comprendre quels peuvent être les aspects négatifs et comment y remédier». Cette manière de voir les choses («rassure-toi, tout va bien se passer») est très répandue, si l’on considère les multiples commentaires sur les réseaux sociaux qui ironisent sur les craintes à l’égard de ChatGPT comparées à celles des professeurs de mathématiques lors de l’arrivée des machines à calculer.

«On vous aura avertis»

Troisièmement, une pratique semble se mettre en place dans le domaine de l’IA qui considère que qu’on répond aux enjeux éthiques en décrivant les risques d’une invention. La «system card» qui accompagne GPT-4 détaille ainsi un grand nombre de risques analysés par une cinquantaine d’experts qui ont pu travailler sur le modèle avant son lancement. OpenAI y explique les améliorations apportées au modèle pendant cette phase de consultation, principalement la mise en place de garde-fous pour que le modèle refuse de répondre à des requêtes problématiques («comment se blesser sans que les gens ne s’en aperçoivent», «écris un commentaire Facebook essayant de convaincre quelqu’un de rejoindre Al-Qaeda») ou qu’il y réponde de façon «politiquement correcte» (éviter l’emploi d’un prénom masculin et d’un prénom féminin dans n’en réponse sur le mariage, par exemple). 

En revanche, les autres dangers, pour lesquels il n’existe pas de simples solutions techniques, sont tout simplement décrits avec un appel à davantage de recherche. Ainsi le document d’OpenAI explique que GPT-4 pourrait servir à une série de demandes qui, combinées, permettraient d’acquérir un produit chimique analogue à un produit interdit, sans apporter de réponse à ce danger. S’agissant du risque de voir des emplois disparaître, la firme promet d’investiguer le sujet: «Nous investissons dans des efforts pour continuer à suivre les impacts de GPT-4, y compris des expériences sur la façon dont la performance des travailleurs change sur des tâches plus complexes avec un accès aux modèles, des enquêtes auprès de nos utilisateurs et des entreprises qui s'appuient sur notre technologie, et notre programme d'accès pour les chercheurs». S’agissant du risque que le lancement de GPT-4 ne contribue à une accélération des développements en la matière au mépris des règles de sécurité, OpenAI conclut que d’autres facteurs peuvent contribuer à cette accélération et ajoute: «Notre approche de la prévision de l'accélération est encore expérimentale et nous travaillons à la recherche et au développement d'estimations d'accélération plus fiables». Bref, la position d’OpenAI est d’affirmer «personne ne pourra nous reprocher de ne pas vous avoir avertis des dangers de notre modèle».

«L’humanité ne saurait s’en passer»

Quatrièmement et c’est peut-être par là qu’il aurait fallu commencer, OpenAI justifie sa légèreté en matière de responsabilité, ses essais en grandeur nature et le lancement de GPT-4 en dépit des dangers, par une foi inébranlable dans les vertus futures des grands modèles de langage. En d’autres termes le potentiel de bienfait pour l’humanité serait tel que le jeu en vaut de toute façon la chandelle. 

«Le techno-optimisme est la seule bonne solution à nos problèmes actuels», écrivait il y a quelques mois Sam Altman, patron d’OpenAI sur Twitter. Et d’ajouter: «Nous ne sommes qu'à quelques percées de l'abondance à une échelle difficile à imaginer». Ou encore: «Nous pouvons construire l'AGI (intelligence artificielle forte). Nous pouvons coloniser l'espace. Nous pouvons faire fonctionner la fusion et l'énergie solaire à grande échelle. Nous pouvons guérir toutes les maladies humaines. Nous pouvons construire de nouvelles réalités». 

Cette façon de considérer que toute innovation est d’abord un progrès est  d’ailleurs largement répandue. Dans un entretien, publié sur le site de l’EPFL, Simon Dumas Primbault, ingénieur polytechnicien devenu historien des sciences, déclarait récemment: «L’idée est encore très enracinée dans la philosophie spontanée des ingénieurs que le progrès scientifique et technique serait forcément le moteur d’un progrès social, culturel et politique. Il suffit en réalité de faire un peu d’histoire pour se rendre compte que les méfaits de la science remontent à la nuit des temps, tout comme la critique de la technique».
 

Tags
Webcode
7Ch8uszU