L’historien Yuval Noah Harari a une prédiction inquiétante à propos de l’IA. Selon lui, cette technologie menace la finance mondiale et pourrait provoquer une crise économique sans précédent. Voici l’analyse du spécialiste.
Depuis quelques mois, l’IA est partout. ChatGPT a largement participé à sa popularité et même ses créateurs estiment que la technologie représente une menace pour l’humanité. Une position partagée par Yuval Noah Harari à qui l’on doit le best-seller Sapiens : Une brève histoire de l’humanité.
À lire > L’intelligence artificielle menace 300 millions d’emplois dans le monde
L’IA pourrait avoir un trop grand contrôle sur le système financier mondial
L’historien interviewé par le Guardian estime que l’IA est si sophistiquée qu’il est compliqué de prévoir ses conséquences. Car avec cette technologie nouvelle, il n’y a pas de « grand scénario » que le monde entier peut saisir comme avec l’arme nucléaire, bien plus simple à comprendre en termes de dangerosité.
Yuval Noah Harari pense que l’IA combine plusieurs scénarios dangereux qui, malgré une faible probabilité de se produire, constituent une menace pour l’humanité lorsque combinés.
L’auteur spécialisé dans l’histoire de l’humanité pense que l’IA est différente de toutes les précédentes technologies créées par l’humain. Pourquoi ? Car elle peut prendre des décisions par elle-même. L’armée l’a expérimenté quand l’un de ses drones a attaqué son pilote pendant un essai. En gros : il est extrêmement difficile pour un humain, même les créateurs d’une IA, d’anticiper tous les risques possibles.
Yuval Noah Harari va plus loin dans sa réflexion et pose la question : « Que se passera-t-il si l’IA a non seulement un plus grand contrôle sur le système financier mondial mais commence à créer de nouveaux dispositifs financiers que seule elle peut comprendre ? ». L’historien se repose sur la crise financière de 2008 avec ses titres de créance garantis que peu comprenaient et trop peu réglementés, comme l’IA.
Car si les gouvernements craignent que l’IA développent des armes, Yuval Noah Harari a surtout peur d’une crise économique mondiale car la finance s’adapte parfaitement à cette technologie. L’homme déclare : « C’est le domaine idéal car il ne s’agit que de données ».
Selon l’auteur, qui a signé l’appel qui demandait une pause de 6 mois dans le développement de l’IA, les gouvernements doivent mettre en place des institutions réglementaires capables de saisir cette technologie et de réagir rapidement. D’après lui, les réglementations et les lois spécifiques ne doivent pas être la réponse première face à l’IA.
À lire > L’intelligence artificielle menace particulièrement les emplois des femmes
L’IA ne détruira pas directement l’humanité
Selon Yuval Noah Harari, la crise économique provoquée par l’IA ne détruira pas l’humanité… « du moins pas directement ». Cela se ferait indirectement à travers des guerres, des conflits, des catastrophes sociales et politiques.
L’historien se félicite que les principaux gouvernements s’inquiètent ensemble des conséquences de l’IA lors du récent sommet mondial qui s’est déroulé à Bletchley Park. Une déclaration commune a été signée par l’Europe, l’Angleterre et les États-Unis mais aussi par la Chine.
L’auteur pense que « c’est un signe positif » car « sans une coopération mondiale, il sera difficile, voire impossible, de maîtriser les dangers de cette technologie ». En plus des gouvernements, OpenAI et Google ont accepté de coopérer pour tester les modèles d’IA avancé avant et après leur lancement.