Deepfake : il lui vole 600 000 € en se faisant passer pour son ami, l’IA a encore frappé

Un homme, trompé par un deepfake sophistiqué, a transféré des millions de yuans à un faux ami. Les préoccupations concernant les crimes financiers liés à l’IA augmentent, mettant en question la sécurité et la vie privée en ligne.

Deepfake
Deepfake © DR

Pour faire face à la montée de la fraude basée sur l’IA, qui implique principalement la manipulation de données vocales et faciales, la Chine a renforcé la surveillance de ces technologies et applications. En janvier, de nouvelles règles ont été adoptées afin de protéger légalement les victimes de ces crimes.

Mais une fraude sophistiquée, utilisant le deepfake, a récemment été découverte dans le nord de la Chine, suscitant de vives inquiétudes quant aux capacités de l’intelligence artificielle à faciliter les crimes financiers.

Manipulation virtuelle : l’IA au service des escrocs en Chine

La police de la ville de Baotou, dans la région de la Mongolie intérieure, a révélé que l’escroc avait utilisé cette technologie pour se faire passer pour un ami de sa victime, lors d’un appel vidéo, persuadant ainsi cette dernière de lui transférer 4,3 millions de yuans (soit près de 600 000 euros).

La police a expliqué, dans un communiqué, que l’homme avait effectué le transfert d’argent en croyant que son ami avait besoin de faire un dépôt pour une procédure d’appel d’offres. Ce n’est qu’après avoir constaté que son supposé ami était en réalité dans l’ignorance de la situation qu’il a réalisé qu’il avait été trompé. Les autorités ont réussi à récupérer la majeure partie des fonds volés et s’efforcent actuellement de retrouver le reste.

À lire : Twitch interdit le deepfake pornographique, voici les mesures prises

Cette affaire a suscité de vives discussions sur le site de microblogging Weibo, mettant en avant les préoccupations concernant la vie privée et la sécurité en ligne. Le hashtag « les escroqueries #IA explosent à travers le pays » a été consulté plus de 120 millions de fois, dès le lundi.

Un utilisateur a écrit : « Cela démontre que les escrocs peuvent exploiter les photos, les voix et les vidéos. Les mesures de sécurité de l’information peuvent-elles suivre le rythme de ces techniques ? ». Une affaire qui soulève de vives inquiétudes, alors qu’une fausse photo du Pentagone en feu créée par une IA aura suscité la polémique, lundi.

Source : Reuters