Les escrocs exploitent de plus en plus l’intelligence artificielle pour gagner en crédibilité. Ils n’hésitent ainsi pas à cloner la voix des proches de leurs victimes pour leur demander une grosse somme d’argent, prétextant une urgence.
L’arnaque de l’urgence familiale est déjà très répandue. Son principe est aussi simple que vicieux. Le pirate se fait passer pour l’un de vos proches. Il vous explique qu’il se trouve dans une très mauvaise situation et qu’il a besoin urgemment d’argent. Tout est fait pour instiller la peur et pour pousser les victimes à passer à la caisse sans trop réfléchir. Cette arnaque se matérialise généralement par des messages envoyés via des applications de discussion instantanée, des mails ou des SMS.
L’arnaque de l’urgence familiale renforcée par l’intelligence artificielle
Grâce à l’intelligence artificielle, certains malfrats vont désormais encore plus loin. Ils parviennent à cloner la voix des proches de leurs cibles pour mieux les tromper. Le Washington Post se fait l’écho de cette nouvelle pratique en rapportant deux témoignages. Un couple canadien a reçu l’appel d’une personne ayant la même voix que leur petit-fils. Ce dernier leur assurait qu’il était en détention et qu’il avait besoin d’argent pour payer sa caution.
Les grands-parents se sont rendu à banque pour retirer 3000 dollars. Alors qu’ils s’apprêtaient à retirer dans un autre établissement, le directeur de la banque les a mis en garde contre une probable arnaque. Toujours au Canada, des parents ont été contactés par un “avocat” qui leur a assuré que leur fils était en prison après avoir tué un diplomate sur la route. Et d’expliquer qu’il avait besoin d’argent pour financer ses frais de justice.
Pour appuyer son propos, l’avocat leur a passé leur fils au téléphone qui leur a demandé la somme de 21 000 dollars. Dupes, les parents ont récupéré l’argent auprès de plusieurs banques et l’ont envoyé à l’avocat. Mais ils ont été bien embêtés quand ils ont finalement eu leur vrai fils au téléphone. Après avoir compris le subterfuge, ils ont tenté en vain de récupérer leurs deniers.
À lire > Samsung : une IA peut désormais cloner votre voix pour répondre aux appels à votre place
Comment les escrocs utilisent l’IA pour cloner des voix ?
Les malfaiteurs utilisent des logiciels de génération de voix comme VALL-E qui analysent ce qui rend la voix d’une personne unique (âge, sexe, accent, etc). Il suffit simplement de l’alimenter en amont avec un court extrait audio de la voix visée pour lancer le clonage. Aux Émirats arabes unis, des criminels avaient ainsi dérobé 35 millions de dollars en clonant la voix d’un chef d’entreprise.
“Il y a deux ans, même un an, il fallait beaucoup d’audio pour cloner la voix d’une personne. Désormais, si vous avez enregistré un TikTok et que votre voix résonne pendant 30 secondes, les gens peuvent cloner votre voix”, souligne Hany Farid, professeur de criminalistique numérique à l’Université de Californie. Après avoir écumé une vaste base de données, les programmes peuvent recréer la hauteur, le timbre et les sons particuliers de la voix d’une personne. Ils peuvent ensuite faire dire ce qu’ils veulent au logiciel.