Intelligence Artificielle : des milliers d’images pédopornographiques générées par IA circulent sur le dark web

La génération d’images pédopornographiques est une nouvelle utilisation de l’intelligence artificielle qui inquiète fortement les autorités aux Etats-Unis. Cet usage atroce de l’IA rend plus difficile le travail des forces de l’ordre pour enquêter sur les vrais crimes.

Intelligence artificielle IA Pédopornographie Midjourney
©Unsplash

Chaque innovation est une arme à double-tranchant et c’est d’autant plus vrai pour l’IA. Si l’intelligence artificielle peut prédire les inondations pour sauver des vies, elle va aussi mettre de nombreuses personnes aux chômage, les témoignages inquiétants des premiers travailleurs virés à cause de ChatGPT commençant à affluer. Ainsi, Sam Altman, PDG d’OpenAI, a tellement peur de sa création qu’il en fait des insomnies.

Parmi les funestes conséquences de l’IA : la génération d’images pédopornographiques. Le Washington Post rapporte qu’aux Etats-Unis, les services de l’enfance avertissent qu’ils sont impuissants face à la cirulation de milliers d'”images sexuelles d’enfants générées par l’IA, facilement produites par des bots comme Midjourney puis partagées sur les forums pédophiles du dark web.

Ces images générées par IA normalisent la pédophilie

Cette “explosion” d’images d’un réalisme “troublant” aurait trois effets pervers sur la lutte contre la pédophilie, expliquent des experts au Washington Post :

  • La normalisation de l’exploitation sexuelle des enfants
  • Attirer davantage d’enfants devant le danger
  • Rendre plus difficile pour les forces de l’ordre la recherche d’enfants réellement victimes d’abus

Trouver les enfants victimes montrés dans les vidéos ou photos d’abus sexuels est déjà aussi difficile que de trouver “une aiguille dans une botte de foin“, estime Rebecca Portnoff, directrice en data science chez Thorn, une ONG qui lutte contre l’exploitation sexuelle des enfants. Ainsi, les forces de l’ordre sont retardées dans leurs enquêtes par la nécessité de déterminer si les images sont bien réelles ou non.

Cette utilisation est d’autant perverse que les intelligences artificielles apprennent à partir d’images déjà existantes. Ces IA intègrent donc des images bien réelles d’enfants molestés par le passé dans leur modèle, afin de générer de nouveaux contenus pédopornographiques. “Les images d’enfants, y compris celles de victimes connues, sont réaffectées à des fins malveillantes“, explique Rebecca Portnoff au Washington Post.

À lire > ChatGPT compromis : plus de 100 000 comptes ont été piratés et mis en vente sur le dark web

De nombreux pédophiles considèrent à tort ce contenu comme une alternative légale à l’achat de vidéos illégales. De plus, ces images ne se répandent pas seulement sur les forums pédophiles sur le dark web, mais aussi sur “les réseaux sociaux, les forums publics ou les sites web pornographiques“, avertit le FBI. L’agence attribue ainsi l’augmentation du nombre d’images pédopornographiques aux progrès des générateurs d’images comme DALL-E, Midjourney ou Stable Diffusion.

Source : Washington Post