Alexa est accusé de sexisme pour avoir invisibilisé le football féminin lors d’une requête. Comme ses congénères, l’assistant virtuel a été imprégné par des biais lors de sa formation. Un problème persistant qu’il ne faut pas prendre à la légère.
Les IA reflètent les préjugés persistants de notre société. A l’occasion de la Coupe du monde féminine, l’universitaire Joanne Rodda a demandé à Alexa de lui donner “le résultat du match de football Angleterre-Australie d’aujourd’hui”. L’assistant vocal a toutefois répondu qu’une telle rencontre n’avait pas eu lieu au jour indiqué. C’est seulement quand le Dr Rodda a mentionné “le football féminin” qu’Alexa lui a enfin fourni une réponse.
Amazon Alexa snobe le football féminin
Face au tollé, Amazon a fait son mea culpa. “Il s’agit d’une erreur qui a été corrigée”, a réagi l’entreprise qui veut transformer Alexa pour rivaliser avec ChatGPT. “C’est plutôt triste qu’après presque une décennie d’Alexa, ce n’est qu’aujourd’hui que l’algorithme a été ‘corrigé‘ pour qu’il considère le football féminin de la Coupe du monde comme du ‘football'”, déplore la Maîtresse de conférences en psychiatrie.
Lorsqu’on pose une question à Alexa, celle-ci explore diverses sources avant de rendre sa réponse. Son IA l’aide à comprendre le contexte de la requête pour extraire les informations les plus pertinentes. Mais le système est imparfait. Dans ce cas précis, c’est comme si le football féminin était invisibilisé sous l’impulsion d’un biais sexiste ; comme si seul le football masculin était légitime.
Le Dr Rodda explique d’ailleurs avoir eu des problèmes similaires avec le Championnat d’Angleterre féminin, Alexa échouant à donner des informations sur les footballeuses du club d’Arsenal.
A lire > Google, OpenAI et Microsoft s’associent pour réguler l’IA
Pourquoi les IA comme Alexa en viennent à relayer des stéréotypes ?
Les outils basés sur l’IA sont formés sur de vastes ensembles de données. Ils doivent théoriquement être diversifiés pour éviter les biais et les stéréotypes. Mais nous en sommes encore loin. En mars dernier, l’association #JamaisSansElles avait lancé une campagne nationale pour dénoncer les biais sexistes des intelligences artificielles. Et d’évoquer les jeux de données susceptibles de véhiculer les clichés :
“Ce n’est pas que les intentions des développeurs soient mauvaises, mais s’ils utilisent des datasets qui ne sont représentatifs que d’une catégorie limitée de personne ou d’objets, les biais présents dans ces données ne pourront qu’être reproduits par l’IA qui s’en sera nourrie. Même chose pour les stéréotypes présents dans la société ou les secteurs d’activité d’où sont tirées ces ensembles de données”, décrypte l’association.
En 2019, l’UNESCO avait réalisé une étude sur les clichés de genre véhiculés par les assistants virtuels comme Siri et Alexa. La persistance de la voix féminine avait notamment été pointée du doigt : “La soumission et la servilité exprimée par beaucoup d’assistants numériques, qui prennent la voix de jeunes femmes, illustrent bien comment les biais de genre peuvent être codés au sein de produits technologiques”.