ChatGPT-4 : Elon Musk, Steve Wozniak et des experts appellent à mettre en pause les recherches, citant des “risques graves pour l’humanité”

Dans une lettre ouverte publiée aujourd’hui, Elon Musk ainsi que des dizaines de figures éminentes de la tech et de l’IA appellent à mettre en pause les recherches en Intelligence Artificielle. Ils citent des risques graves pour la société et l’humanité. Skynet n’est pas loin.

Image 1 : ChatGPT-4 : Elon Musk, Steve Wozniak et des experts appellent à mettre en pause les recherches, citant des "risques graves pour l'humanité"

Cela fait un moment qu’on sait que selon Elon Musk, l’Intelligence Artificielle pose une vraie menace pour nos sociétés. Les progrès rapides de GPT, le modèle qui alimente ChatGPT ou Bing donne le tournis et GPT-5 sera encore plus proche de l’intelligence humaine. Les implications sont multiples et pourraient chambouler très rapidement la société. Cela passerait d’abord par le rapport au travail, puisque l’intelligence artificielle menacerait 300 millions d’emplois dans le monde.

Ce sont maintenant des dizaines d’experts en IA ainsi que des figures éminentes de l’industrie de la tech qui ont rejoint l’opinion d’Elon Musk, en signant une lettre ouverte. Publiée aujourd’hui sur le site de l’association Future of Life Institute, ils appellent dans cette lettre les laboratoires d’IA du monde entier à interrompre le développement de modèles d’IA géants, invoquant les “risques profonds pour la société et l’humanité” que posent ces algorithmes.

Elon Musk et Steve Wozniak, signataires de la lettre parmi des dizaines d’experts en IA

On ne peut que prendre cette lettre ouverte au sérieux quant à la vue du casting 5 étoiles de la tech qui l’a signée. Parmi les signataires figurent le cofondateur d’Apple Steve Wozniak, le cofondateur de Skype Jaan Tallinn ou encore Yuval Noah Harari, l’auteur du best-seller Sapiens. Outre ces personnes et Elon Musk, un certain nombre de chercheurs et de PDG réputés dans le domaine de l’IA figurent aussi dans la liste des signataires, dont Stuart Russell, Yoshua Bengio, Gary Marcus ou encore Emad Mostaque.

Ils affirment que les laboratoires d’IA sont actuellement engagés dans une “course incontrôlée” pour développer et déployer des systèmes d’apprentissage automatique “que personne – pas même leurs créateurs – ne peut comprendre, prédire ou contrôler de manière fiable“. Skynet pourrait déployer les Terminators demain qu’on n’en serait pas étonné. “Par conséquent, nous demandons à tous les laboratoires d’IA d’interrompre immédiatement, pendant au moins six mois, la formation de systèmes plus puissants que GPT-4, peut-on lire dans la lettre. Cette pause devrait être publique et vérifiable, et inclure tous les acteurs clés. Si une telle pause ne peut être mise en place rapidement, les gouvernements devraient intervenir et instaurer un moratoire.

Comme l’indique la lettre, OpenAI a par le passé déclaré le besoin potentiel d’un “examen indépendant” de ses modèles d’IA afin de s’assurer qu’ils répondent aux normes de sécurité. Cependant, il est peu probable que cet appel ait un effet immédiat sur la course actuelle en IA, qui a vu Google et Microsoft se ruer pour lancer de nouveaux produits comme Bard ou Bing chat. Cependant, ce message pourrait potentiellement être entendu par les gouvernements et être pris en compte par les législateurs.

Source : Future of Life