YouTube va vous obliger à identifier le contenu généré par IA dans vos vidéos

YouTube veut bien de votre contenu généré par intelligence artificielle (IA), mais à une condition : qu’il soit clairement identifié. Désormais, les youtubeurs devront déclarer si leurs vidéos “d’apparence réaliste” en intègrent, sans quoi ils seront bannis de la plateforme.

YouTube vidéo IA contenu générative watermark
© Envato

Google a promis à Joe Biden de rendre l’IA plus sûre et voilà une mesure de plus à cette fin. Cette fois-ci c’est YouTube qui est concerné. La plateforme d’hébergement de vidéos en ligne prend des mesures pour que le contenu généré par IA soit clairement identifiable, détaillées sur son blog. Une initiative visant à protéger le public des vidéos trompeuses et autres fake news.

YouTube veut protéger ses utilisateurs des contenus trompeurs

Désormais, au moment d’uploader une vidéo “d’apparence réaliste“, les utilisateurs devront indiquer si elle a été réalisée à l’aide d’une intelligence artificielle. Concrètement, le youtubeur verra apparaître un questionnaire, lui demandant :

  • Si son contenu fait dire ou faire à une personne réelle quelque chose qu’elle n’a pas fait.
  • S’il modifie les images d’un lieu ou d’un événement réel.
  • S’il dépeint une scène d’apparence réaliste qui ne s’est pas réellement produite.

Sur la base des déclarations des youtubeurs, les vidéos contenant des éléments générés par IA seront clairement identifié par un watermark, de la même manière que les photos retouchées du Galaxy S24. Google sait que les youtubeurs utilisent l’IA d’autres manières, par exemple pour générer des idées de contenu. Dans ce cas de figure, YouTube n’affichera pas de watermark sur les vidéos, de même que pour les contenus clairement faux “comme quelqu’un qui chevauche une licorne” ou pour des ajustements visuels et autres effets spéciaux.

À lire > Spotify lance les clips vidéo pour menacer sérieusement YouTube

Comment YouTube pourrait imposer ces nouvelles règles sur l’IA ?

Selon CNN, les utilisateurs qui refuseront de déclarer du contenu généré par IA seront suspendus voire bannis. La plateforme ne précise pas comment elle compte faire pour identifier ces vidéos dopées à l’IA non déclarées.

Déjà que Google Search ne sait toujours pas détecter les images générées par IA, on imagine bien que l’entreprise n’embauchera pas des petites mains pour visionner toutes les vidéos de la plateforme. C’est donc probablement via le système de signalement que YouTube pourra s’en assurer.

La mesure paraît raisonnable, au vu du prochain gros produit d’IA générative qui se profile : Sora, un générateur de vidéos bluffantes de réalisme. YouTube, royaume des vidéos, était jusqu’ici plutôt épargné par les problèmes posés par l’IA.

Les générateurs d’images accessibles au grand public n’était que des images fixes. De quoi éventuellement générer un bel arrière-plan, mais pas de quoi créer des vidéos entières. Sora va venir chambouler ce confortable état des choses pour YouTube.

  • YouTube va demander aux créateurs de contenu d’indiquer si une vidéo réaliste contient du contenu généré par IA.
  • Les contrevenants à ce système déclaratif seront suspendus ou bannis de la plateforme.
  • Cette initiative survient alors que l’arrivée du générateur de vidéos Sora d’OpenAI est imminente.