Une ONG tire la sonnette d’alarme : l’intelligence artificielle (IA) générative est détournée pour produire du contenu pédopornographique partagé sur le dark web. Dans certains cas, ce sont des stars qui sont rajeunies pour les faire apparaître dans des contextes d’abus sexuels.
En juin déjà, l’organisation non gouvernementale Internet Watch Foundation (IWF) tirait la sonnette d’alarme, alertant que des milliers d’images pédopornographiques générées par IA circulent sur le dark web. Ce n’était que le début. Selon sa directrice générale Susie Hargreaves, “nos pires cauchemars sont devenus réalité“, déclare-t-elle à la BBC.
Parmi les utilisations détournées des pédophiles, le rajeunissement d’images de stars de la chanson ou du cinéma. Les criminels demandent ensuite à l’IA de les faire apparaître dans des scènes d’abus sexuels. Toutes ces images sont ensuite uploadées sur le dark web où elles sont partagées sur des forums que l’IWF surveille.
L’intelligence artificielle génère toujours plus d’images pédopornographiques
Un rapport de cette ONG britannique explique que des chercheurs ont passé un mois à enregistrer le contenu pédopornographique d’un seul de ces forums. Ils y ont trouvé près de 3 000 images générées par IA qui seraient illégales au regard de la loi du Royaume-Uni. Bien évidemment, les logiciels employés ne sont pas des générateurs d’images grand public comme DALL-E 3.
Une nouvelle pratique courante sur ces sites est de recycler des photos d’abus sexuels de victimes réelles, pour en recréer d’autres dans des contextes différents. Ainsi, l’un des dossiers trouvés contenait 501 images d’une victime réelle qui avait environ 9 ans à l’époque des faits. Dans le même dossier, les pédophiles ont également partagé le fichier d’un modèle d’IA générative permettant de créer d’autres images de la victime.
Selon l’IWF, certaines images sont extrêmement réalistes et seraient impossibles à distinguer pour des yeux non avertis. C’est notamment le cas des images de chanteuses et de stars de cinéma, pour la plupart féminines, rajeunies à l’aide d’un logiciel d’imagerie pour les faire ressembler à des enfants. À raison, le rapport ne précise pas quelles célébrités ont été visées.
À lire > Airbnb : comment l’intelligence artificielle traque les fêtards indésirables
Les chiffres font froid dans le dos. En un mois, les chercheurs ont vu 11 108 images générées par intelligence artificielle sur ce forum. Parmi ces images :
- 2 978 étaient des images illégales, c’est-à-dire représentant des abus sexuels sur des enfants
- Plus d’une image sur cinq (564) entrait dans la catégorie d’images le plus grave au regard de la loi britannique.
- Plus de la moitié (1 372) de ces images représentaient des enfants de sept à dix ans.
- En outre, 143 images représentaient des enfants âgés de trois à six ans. Pire encore, deux images représentaient des bébés de moins de deux ans.
Source : BBC