ChatGPT : les dirigeants d’OpenAI appellent à une réglementation pour empêcher l’IA de détruire l’humanité

OpenAI, l’entreprise qui développe ChatGPT, met en garde. Elle demande une régulation mondiale des intelligences artificielles superintelligentes pour protéger l’humanité. Ils craignent des risques existentiels et appellent à des inspections, des audits et des restrictions pour assurer la sécurité.

ChatGPT IA danger humanité
ChatGPT et les IA, un danger pour l’humanité selon ses créateurs © DR

Les dirigeants d’OpenAI, l’équipe derrière ChatGPT, DALL-E et Sora, ont récemment exprimé leur appel à la régulation des intelligences artificielles. Ils ont souligné la nécessité de mettre en place une agence internationale similaire à l’Agence internationale de l’énergie atomique afin de prévenir les dangers que pourraient représenter ces systèmes pour l’humanité. Même le patron de Google veut une réglementation similaire à celle des armes atomiques.

Dans une note, publiée sur le site web d’OpenAI, les cofondateurs, Greg Brockman et Ilya Sutskever ainsi que le directeur général, Sam Altman, ont plaidé en faveur d’une régulation internationale qui inclurait l’inspection des systèmes, des audits obligatoires, des tests de conformité aux normes de sécurité, ainsi que des restrictions quant à leur déploiement et leur niveau de sécurité.

Quand l’IA devient une menace : OpenAI exhorte à l’action réglementaire pour éviter la catastrophe

Selon eux, il est plausible que, dans les dix prochaines années, les systèmes d’IA dépassent les compétences des experts dans la plupart des domaines et soient aussi productifs qu’une grande entreprise.

La superintelligence pourrait ainsi devenir la technologie la plus puissante à laquelle l’humanité est confrontée, avec des avantages considérables, mais également des inconvénients majeurs. Ils estiment qu’il est impératif de gérer les risques de manière proactive et de ne pas se contenter de réagir aux événements.

Le trio de dirigeants demande une coordination entre les entreprises travaillant sur l’IA de pointe afin de garantir le développement harmonieux de modèles toujours plus performants tout en assurant la sécurité. Cette coordination pourrait prendre la forme d’un projet gouvernemental ou d’une convention collective visant à limiter la croissance des capacités de l’IA.

À lire : Selon Elon Musk, l’Intelligence Artificielle devrait rapidement se transformer en une vraie menace pour nos sociétés.

Depuis des décennies, les chercheurs mettent en garde contre les risques liés à la superintelligence, mais avec l’accélération du développement de l’IA, ces risques sont devenus plus concrets. Le Center for AI Safety (CAIS), basé aux États-Unis, identifie huit catégories de risques catastrophiques et existentiels liés à l’IA.

Outre la crainte d’une IA puissante détruisant délibérément, ou accidentellement, l’humanité, le CAIS souligne également d’autres conséquences néfastes. Par exemple, une dépendance croissante à l’IA pourrait entraîner une perte de capacité d’autogouvernance de l’humanité, ainsi qu’une centralisation du pouvoir entre les mains d’un petit groupe de personnes, créant ainsi des inégalités de pouvoir durables. Sans parler des 300 millions d’emplois en danger.

Malgré cela, ils estiment que le développement continu de systèmes puissants en vaut la peine, car cela peut conduire à un avenir meilleur, même si les risques doivent être gérés avec précaution. En France, la CNIL a commencé à prendre des mesures à l’encontre de ChatGPT.

Source : OpenAI