Aux Émirats arabes unis, des criminels ont contrefait la voix d’un chef d’entreprise grâce à une IA afin de lui voler 35 millions de dollars.
La police des Émirats arabes unis enquête sur une affaire hors normes. Des fraudeurs se sont fait passer pour un chef d’entreprise auprès des employés de sa compagnie, afin de transférer des fonds pour un montant estimé à 35 millions de dollars. La voix du patron a été contrefaite par une intelligence artificielle, trompant ainsi les employés sur l’origine de l’appel.
À lire aussi > Vol de colis : un YouTubeur piège sa porte d’entrée avec une intelligence artificielle
La technique de la voix « deep fake » déjà employée en 2019 au Royaume-Uni
Cette technique d’escroquerie à grande échelle a déjà été utilisée au Royaume-Uni en 2019. Des criminels avaient alors utilisé un logiciel de deep fake pour contrefaire la voix du PDG d’une entreprise du secteur de l’énergie. Plus de 243 000 dollars auraient été transférés frauduleusement vers le compte des fraudeurs, qui ont aussitôt fait disparaître l’argent sur d’autres comptes à l’étranger.
À lire aussi > The Mandalorian : comment est conçu le deep fake de Luke Skywalker ?
L’affaire aux Emirats Arabes Unis remonte à 2020 est est révélée par le magazine américain Forbes. Le directeur d’une banque, croyant avoir affaire au PDG légitime d’une grande entreprise, a autorisé le transfert des fonds. Il s’est rendu compte plus tard qu’il avait été victime d’une escroquerie élaborée, conçue par des criminels qui se sont aidé de la technologie « deep fake » pour le duper.
Ce type d’escroquerie technologique voué à se répéter de plus en plus dans les années à venir
Selon des documents repérés par Forbes, les enquêteurs des Émirats arabes unis ont réclamé l’aide des autorités américaines pour les aider à résoudre cette affaire et identifier les coupables. En effet, 400 000 dollars de fonds volés se trouveraient selon eux sur des comptes bancaires américains. Le reste de l’argent serait dispersé dans de multiples banques partout dans le monde, sous des noms différents. Les enquêteurs estiment qu’au moins dix-sept personnes seraient impliquées dans ce projet criminel, compte tenu de l’envergure du casse.
Un expert en cybersécurité, Jack Moore, a expliqué à Forbes que la technologie “deep fake” audio et vidéo représente un risque majeur lorsqu’il est employé par des individus mal intentionnés. Fuite de données, transferts d’argent non sollicités… un nombre croissant d’entreprises risquent d’être victimes d’escroqueries similaires avec des voix réalistes dans les années à venir. Une utilisation un peu plus dangereuse du deep fake que Deep Nostalgia, qui a eu son petit succès ces derniers mois en donnant vie (et en faisant chanter) nos vieilles photos.
Source : Forbes