Google, OpenAI et Microsoft s’associent pour réguler l’IA, mais Apple fait cavalier seul

Un consortium formé par OpenAI, Google, Microsoft et Anthropic est enfin lancé pour promouvoir la sécurité de l’IA, partager les meilleures pratiques et soutenir des applications bénéfiques pour la société. Apple n’a pas encore rejoint l’initiative.

Consortium régulation de l'IA Microsoft Google OpenAI
Microsoft, Google et OpenAI créent un consortium pour réguler l’IA, mais sans Apple © Tom’s Guide

Un consortium composé d’OpenAI (ChatGPT), Google (Google Bard), Microsoft (Bing Chat) et de la société spécialisée dans la sécurité de l’intelligence artificielle, Anthropic, annonce que ces entreprises vont collaborer pour établir de meilleures pratiques pour l’industrie de l’IA. Apple reste en dehors de l’initiative pour le moment.

« Nous annonçons aujourd’hui la création de The Frontier Model Forum regroupant Anthropic, Google, Microsoft et OpenAI » déclare Google dans un article de blog. « Ce nouvel organisme industriel se concentrera sur la garantie d’un développement sûr et responsable des modèles d’IA » dit l’entreprise, alors que son grand patron, Sundar Pichai, juge que l’IA nécessite la même réglementation que les armes nucléaires.

Le Consortium de l’IA : OpenAI, Google et Microsoft se liguent, mais Apple boude l’invitation

Les entreprises créant des technologies d’IA ont la responsabilité de s’assurer « qu’elles sont sûres, sécurisées et restent sous contrôle humain », déclare Brad Smith, vice-président et président de Microsoft, dans l’annonce.

« Cette initiative est une étape essentielle pour rassembler le secteur technologique et promouvoir une IA responsable, en relevant les défis afin qu’elle bénéficie à l’ensemble de l’humanité » explique Google dans le communiqué.

Ce consortium tirera parti de l’expertise technique et opérationnelle de ses membres pour bénéficier à l’ensemble de l’écosystème de l’IA, poursuit le communiqué. Les géants de la tech veulent développer une bibliothèque publique de solutions pour soutenir les meilleures pratiques et les normes de l’industrie. Mais Apple est restée en dehors de l’initiative.

À lire : Intelligence artificielle : un ancien cadre de Google prédit l’apocalypse

Aucune des entreprises impliquées n’a commenté si Apple avait été invité à participer ou non, mais le projet a pour ambition de s’appliquer à toute l’industrie. En 2016, Google et Microsoft étaient déjà membres fondateurs d’une organisation similaire, appelée The Partnership on AI, à laquelle Apple adhérait et continue de le faire aujourd’hui.

Les objectifs fondamentaux du consortium sont les suivants :

  1. Faire progresser la recherche sur la sécurité de l’IA afin de promouvoir le développement responsable des modèles, de minimiser les risques et de permettre des évaluations indépendantes et standardisées des capacités et de la sécurité.
  2. Identifier les meilleures pratiques pour le développement et le déploiement responsables des modèles, afin d’aider le public à comprendre la nature, les capacités, les limites et l’impact de la technologie.
  3. Collaborer avec les décideurs politiques, les universitaires, la société civile et les entreprises pour partager les connaissances sur les risques de confiance et de sécurité.
  4. Soutenir les efforts visant à développer des applications qui peuvent contribuer à relever les plus grands défis de la société, tels que l’atténuation et l’adaptation au changement climatique, la détection précoce et la prévention du cancer, ainsi que la lutte contre les menaces cybernétiques.

Source : Google