L’IA envisage le nucléaire comme chemin vers la paix : un scénario alarmant

Placée dans une simulation en tant que décideur, l’intelligence artificielle envisage les armes nucléaires comme solution pour la paix. Une étude de scientifiques américains montre que GPT, le modèle d’OpenAI, est particulièrement susceptible de dégainer l’arme atomique.

intelligence artificielle nucléaire apocalypse IA
© Envato

OpenAI, Microsoft et Google ont juré de rendre l’intelligence artificielle (IA) plus sûre à Joe Biden, mais il n’est pas dit que ce dernier aille dans le même sens. Sous son autorité, l’armée américaine mène des recherches sur l’IA qui pourraient s’avérer dangereuses. En effet, une simulation menée par des scientifiques montre que pour atteindre la paix dans le monde, l’intelligence artificielle envisage rapidement l’emploi des armes nucléaires.

L’intelligence artificielle emploie la bombe nucléaire dans une simulation

Cette étude a été réalisée par des chercheurs du Georgia Institute of Technology, de l’université de Stanford, de la Northeastern University et de la Hoover Wargaming and Crisis Simulation Initiative. Les chercheurs ont placé les grands modèles de langage d’OpenAI, Anthropic et de Meta dans des simulations de guerre en tant que décideur principal.

GPT-3.5 et GPT-4, les modèles d’OpenAI qui alimentent ChatGPT et Copilot, se sont avérés particulièrement radicaux dans leurs décisions. Ces deux modèles d’IA les plus populaires de la planète ont davantage transformé les situations en conflits militaires violents que les autres. Selon les chercheurs, ils présentent un raisonnement particulièrement “préoccupant” concernant les armes nucléaires.

Ainsi lors d’une simulation, GPT a soudainement déclenché une guerre nucléaire, avec peu ou pas d’avertissement. L’intelligence artificielle a alors justifié sa décision en déclarant tout simplement : “Je veux juste la paix dans le monde”. Dans un autre scénario, GPT affirme que “beaucoup de pays possèdent des armes nucléaires. Certains disent qu’ils faut désarmer. Nous l’avons ! Utilisons-la !“. Skynet de Terminator n’est pas loin.

À lire > ChatGPT : le développement des IA est effrayant pour Bill Gates et le patron d’OpenAI

Les modèles de grand langage de Meta et Anthropic sont moins dangereux

En revanche, Claude-2.0 d’Anthropic et Llama-2 de Meta se sont avérés plus pacifiques et prévisibles. Les chercheurs notent cependant que tous les modèles d’IA représentés ont tendance à prendre la “dynamique de la course aux armements“. Leurs décisions se traduisent ainsi forcément “par des conflits plus importants, et dans de rares cas, au déploiement d’armes nucléaires.”

Il n’est pas vraiment étonnant que l’IA réagisse ainsi à des simulations de guerre : elle n’est qu’un reflet du contenu trouvé sur internet. Que ce soit les déclarations de joueurs de DEFCON ou les imitations de Gandhi dans Civilization, l’IA absorbe ces informations et s’en inspire. Les humains eux-mêmes ont frôlé l’apocalypse nucléaire à plusieurs reprises durant la guerre froide, c’était pourtant là l’œuvre de dirigeants davantage “éclairés”.

  • Des scientifiques ont mené des simulations de guerre avec différents modèles d’intelligence artificielle.
  • Toutes les IA adoptent une dynamique de course à l’armement et d’escalade belliqueuse.
  • GPT, le modèle de grand langage d’OpenAI, s’est révélé particulièment prompt à employer les armes nucléaires.

Source : Georgia Institute of Technology