Bing Chat est agrémenté d’un générateur d’images optimisé par DALL-E. Or depuis l’intégration de la troisième itération du modèle, les utilisateurs ont constaté une censure accrue. Microsoft prévoit toutefois de revoir son système de modération.
Les IA génératives font également la part belle aux images. Parmi les plus célèbres, on retrouve notamment DALL-E. Développé par OpenAI, le programme permet de créer des images à partir de requêtes textuelles. Il appuie notamment Bing Image Creator, le générateur de Microsoft que l’on peut également actionner directement dans Bing Chat.
Récemment, l’entreprise a déployé DALL-E 3, une version plus puissante qu’il est possible de tester gratuitement sur le chatbot de Microsoft. Certains internautes se sont alors empressés de créer des images choquantes et violentes. A tel point que Microsoft a dû resserrer les boulons de la modération. Si cela se comprend aisément, les garde-fous mis en place sont toutefois beaucoup trop contraignants.
DALL-E 3 sur Bing : les utilisateurs fustigent une modération trop restrictive
Désormais, même certains prompts inoffensifs sont censurés par l’outil. Les utilisateurs déplorent un déséquilibre flagrant dans la modération devenue beaucoup trop restrictive. Pour couronner le tout, Bing Image Creator se censure même tout seul en bloquant les illustrations émanant de son propre outil de génération aléatoire (“surprends moi”).
À lire > Les meilleurs générateurs d’images par intelligence artificielle
Conscient du problème, Microsoft prévoit heureusement d’améliorer le système de modération de Bing DALL-E 3. En charge de l’équipe Windows et Web Experiences de Microsoft, Mikhail Parakhin a été apostrophé sur X (ex Twitter) à ce sujet : “La modération est devenu trop zélée au cours du week-end, je ne sais pas si c’était intentionnel”, s’interroge un utilisateur.
Le dirigeant a confirmé le problème, précisant que Microsoft planchait déjà sur des améliorations : “Oui, nous avons reçu des rapports approfondis améliorant le système de modération”, confie-t-il. Au vu des dérives que l’IA générative peut occasionner, il est bien sûr crucial de développer des outils de filtrage efficients. Mais Microsoft doit trouver le juste milieu entre les restrictions légitimes et le bridage insensé de ses utilisateurs.