Gemini faisait les gros titres cette semaine avec l’arrêt en urgence de sa composante visuelle. Le générateur d’image par IA produisait des images historiquement fausses, montrant notamment des soldats nazis à la peau noire. Google s’est expliqué sur son blog.
Google fait son mea culpa. Cette semaine, le géant de la tech désactivait en urgence la composante visuelle de Gemini. De nombreux utilisateurs rapportaient que l’intelligence artificielle réécrivait l’histoire, en générant des images montrant des nazis à la peau noire ou les pères fondateurs des Etats-Unis en personnes asiatiques. Vendredi soir, Google est venu apporter des explications dans une publication sur son blog.
Les paramètres de Gemini l’incitait à une promotion excessive de la diversité
Gemini c’est le nouveau nom de Google Bard, le chatbot d’intelligence artificielle. Le 8 février, Google effectuait ce changement de nom en apportant simultanément tout un tas d’améliorations, parmi lesquelles la génération d’images. L’expérience aura été de bien courte durée, tant la génération d’images signée Google a fait scandale.
La firme de Mountain View explique que ces images “embarrassantes et erronées” ont été générées à cause d’un mauvais réglage. “Le paramètre assurant que Gemini montre une diversité de personnes n’a pas pris en compte les cas qui n’auraient clairement pas dû en montrer“, écrit Prabhakar Raghavan, vice-président senior de Google.
Plus intéressant, au fil du temps, “le modèle est devenu beaucoup plus prudent“, l’amenant à refuser de répondre à certaines questions. “Celui-ci interprétait à tort des questions très anodines comme étant sensibles“, explique le cadre de Google. Autrement dit, l’IA est devenue peu à peu paranoïaque.
Cela a conduit Gemini à “surcompenser dans certains cas“, comme dans le cas des nazis aux différentes couleurs de peau. L’IA est également devenue “trop précautionneuse“, l’amenant paradoxalement à refuser générer des images de “personne noire” ou de “personne blanche” lorsqu’on le lui demandait : un véritable tour de la théorie du fer à cheval.
À lire > Comment remplacer l’Assistant Google par Gemini sur votre smartphone ?
Google s’excuse pour les déboires de son intelligence artificielle
Nous revoilà transportés en 2023, lorsque le chatbot Bing proférait insultes et menaces à l’égard de ses utilisateurs. Google s’en excuse platement, en ajoutant souhaiter que Gemini “fonctionne bien pour tout le monde“, c’est-à-dire en générant des images montrant des personnes issues de différentes origines ethnique lorsque le prompt est généraliste.
Prabhakar Raghavan explique qu’il faut maintenant que Gemini soit également capable de répondre à des demandes plus spécifiques. Il affirme ainsi son engagement à ce que les résultats de l’IA, pour des prompts concernant “un professeur noir dans une salle de classe” ou des personnes dans un contexte culturel ou historique particulier, reflètent fidèlement la demande de l’utilisateur.
- Gemini générait des images historiquement fausses à cause de ses paramètres.
- Le modèle d’IA faisait la promotion de la diversité ethnique même dans des cas inadaptés.
- Google s’excuse et promet de régler le problème, la génération d’images reste pour l’instant désactivée.
Source : Google