Garde-fous

Bengio, Musk, Wozniak et des centaines d’autres experts appellent à mettre en pause le développement des IA

Dans une lettre ouverte, Yoshua Bengio, Yuval Noah Harari, Gary Marcus, Elon Musk, Stuart Russell, Steve Wozniak et plus de 1000 autres signataire d’une lettre ouverte appellent à ne plus publier de modèles d’IA surpuissants pendant au moins six mois. Le temps de développer et mettre en place des garde-fous limitant les risques et dérives de telles technologies.

(Source: John Smit / Unsplash)
(Source: John Smit / Unsplash)

Les progrès phénoménaux accomplis récemment par les concepteurs de modèles d’intelligence artificielle pour le traitement du langage, ChatGPT en tête, impressionnent autant qu'ils suscitent de nombreuses craintes. La puissance du dernier modèle d’OpenAI, GPT-4, pose notamment question quand on apprend qu’il a mis au point un plan parfaitement fonctionnel pour se propager

Face aux dérives potentielles de ces modèles algorithmiques surpuissants, des voix s'élèvent. Et pas des moindres. Le ponte de l’IA Yoshua Bengio, Elon Musk, Steve Wozniak (cofondateur d’Apple), l’historien, philosophe et auteur Yuval Noah Harari, le Professeur d'informatique réputé Stuart Russell ou encore Gary Marcus (chercheur expert de l’IA) figurent parmi les plus de 1000 signataires d’une lettre ouverte appelant à «interrompre immédiatement, pour une durée d'au moins six mois, la formation de systèmes d'IA plus puissants que le GPT-4». 

La lettre souligne les «risques profonds pour la société et l'humanité» des systèmes d'IA dotés d'une intelligence capable de rivaliser avec celle des humains. De l’avis des signataires, ces progrès devraient être planifiés et gérés avec le soin et les ressources nécessaires, ce qui n’est pas le cas actuellement. Et d’ajouter que même les concepteurs de ces technologies ne sont pour l'heure en mesure de les comprendre, prédire ou contrôler de manière fiable. Parmi les risques et dérives évoqués, mentionnons l'automatisation de certains emplois, la désinformation, ou encore le danger que les humains perdent tout contrôle.  

La sentence des auteurs de la lettre ouverte n’est cependant pas irréversible. Afin de ne développer et publier de tels systèmes qu’en s’étant assuré «que leurs effets seront positifs et que leurs risques seront gérables», les signataires demandent aux  laboratoires d'IA et aux experts indépendants d’élaborer et de mettre en œuvre un ensemble de protocoles de sécurité communs. «Ces protocoles devraient garantir que les systèmes qui y adhèrent sont sûrs au-delà de tout doute raisonnable, ce qui ne signifie pas une pause dans le développement de l'IA en général, mais simplement un recul par rapport à la course dangereuse vers des modèles de boîte noire toujours plus grands et imprévisibles», lit-ou encore dans la lettre ouverte publiée par le Future of Life Institute

Tags
Webcode
RdhFnWAc