Faux sinistres automobiles, un piège à la voix

Un scénario classique mais terriblement efficace : la victime reçoit un appel alarmant lui annonçant un accident impliquant un proche. L’urgence, la panique, et une voix maîtrisée plongent la personne dans un état psychologique qui la pousse à transférer immédiatement de l’argent, souvent sous prétexte de frais médicaux ou de réparations.

Certaines personnes racontent comment elles ont été dupées.

« La voix au téléphone connaissait même le modèle de la voiture de son fils. Affolée, elle a envoyé de l’argent sans vérifier la véracité des faits. Ce n’est qu’en contactant directement son fils qu’elle a découvert l’arnaque. »

Quand l’IA imite votre voix pour tromper

Autre exemple, selon un article sur Euronews Next du 13 juillet 2025, des escrocs ont utilisé l’IA pour reproduire la voix d’un haut responsable de l’administration américaine dans le cadre d’une arnaque. Ce cas illustre le danger grandissant des deepfakes vocaux, capables de tromper aussi bien les humains que les systèmes de reconnaissance vocale.

Les deepfakes vocaux : vulnérabilités et menaces

Selon des experts, les escrocs peuvent cloner une voix à l’aide d’un extrait audio de trois secondes et faire croire à des amis ou à des membres de la famille qu’un proche a un besoin urgent d’argent. Les échantillons de voix peuvent provenir de courtes vidéos postées sur des plateformes de médias sociaux telles que TikTok.

  • Une étude a montré que des assistants vocaux pouvaient être trompés dans plus de 30 % des cas par des commandes deepfake, et cela pour plus de la moitié des participants testés.

  • Une autre étude démontre que le deep-learning peut générer une voix synthétique si réaliste qu’elle peut tromper humains et machines, et que les dispositifs de défense actuels sont insuffisants.

  • Des attaques contre l’authentification par la voix (ASV/CM) atteignent un taux de réussite de 93,6 %, menaçant ainsi les systèmes de sécurité des centres d’appels et services bancaires.

Croisement des arnaques : faux sinistres + deepfake vocal

En combinant les scénarios classiques de fraude (faux sinistres automobiles) avec les technologies de fake vocal IA, les escrocs peuvent renforcer la crédibilité de leur tromperie.

A voir : Sam Altman, le chef de la direction d’OpenAI, a mis en garde le secteur financier contre une « crise imminente de fraude majeure » en raison de la capacité des outils d’intelligence artificielle (IA) à usurper la voix d’une personne pour contourner les contrôles de sécurité et transférer de l’argent.

Nos derniers articles