in

Jusqu’à présent, l’arnaque la plus courante de l’IA consistait à « cloner » des voix. Vient maintenant le tour des appels vidéo

Il y a quelques semaines, nous avons entendu sur 45secondes.fr comment l’intelligence artificielle est utilisée de diverses manières à des fins frauduleuses. Dans cet article Nous avons raconté l’histoire de Ruth Card, 73 ans, une femme âgée qui a reçu un appel de ce qui semblait être son petit-fils Brandon, mais qui était en fait un groupe d’escrocs : « Grand-mère, je suis en prison, sans portefeuille, sans téléphone. J’ai besoin d’argent pour la caution. » Le thymus a été réalisé à l’aide d’un faux profond de l’audio qui imitait la voix de son petit-fils pendant l’appel.

La chose ne s’est pas arrêtée là. Ce genre d’arnaques a évolué rapidement ces derniers mois avec la création naissante d’outils d’IA et des clones vocaux et même vidéo d’une personne sont déjà utilisés pour arnaquer leurs proches par appel vidéo.

IA dans le but de frauder. Comme le souligne El Mundo dans cet article, un homme du nord de la Chine a reçu un appel vidéo WeChat de sa femme. Celui-ci lui demandait 3 600 euros car il avait eu un accident de voiture et devait régler la situation avec l’autre conducteur. Bien sûr, ce n’était pas sa femme. Et bien qu’il l’ait appelé depuis un autre compte, l’homme est tombé dans le piège puisque le visage qui est apparu dans l’appel vidéo faisant des gestes et parlant avec le même ton de voix était celui de sa femme. Bien que ce soit une autre imitation avec l’IA.

Apparemment, les escrocs avaient observé le couple et connaissaient leurs habitudes, en plus du fait que la femme avait une chaîne de cuisine assez populaire sur un réseau social et à partir de là, ils ont pris les captures d’écran de son visage et de sa voix pour faire le faux profond.

Une tendance mondiale. Une nouvelle vague d’escroqueries utilisant des voix générées par l’IA se développe dans le monde entier. Le Washington Post rassemble plusieurs cas récents et préviens que selon les données FTC, en 2022, ce type d’escroquerie consistant à se faire passer pour une autre personne était le deuxième plus fréquent, avec plus de 36 000 plaintes de personnes trompées (ou presque) par d’autres personnes se faisant passer pour des amis ou des parents. En 2021, une personne réussi à voler 35 millions de dollars à une banque utilisant cette technologie.

Comment ça marche? Les progrès de l’intelligence artificielle permettent déjà reproduire une voix avec un échantillon audio de quelques phrases seulement (quelque chose de très facilement accessible sur les réseaux sociaux de la personne). Un logiciel de génération de parole analyse ce qui rend la voix d’une personne unique (âge, sexe ou accent) et recherche une vaste base de données de voix pour trouver des voix similaires et prédire des modèles. Ensuite vous pouvez recréer la hauteur, le timbre et les sons individuels de la voix d’une personne pour créer un effet similaire. À partir de là, l’escroc peut dire ce qu’il veut avec cette voix.

Dans la plupart des cas, il est presque impossible de le distinguer, encore moins lorsque la personne qui appelle le fait avec une certaine urgence. Et il est encore plus compliqué pour une personne âgée qui ignore ces technologies de se rendre compte du danger. des entreprises comme ElevenLabsune startup de synthèse vocale basée sur l’IA, transforme un court échantillon vocal en une voix générée synthétiquement pour un prix modique allant de 5 euros à 300 par mois, selon la limite audio.

Inquiétudes en Chine. Dans le pays asiatique ce phénomène C’est déjà un sujet d’inquiétude pour les autorités.qui ont commencé à conseiller au public par le biais de messages sur Weibo, le twitter chinois, de « faire preuve de prudence lorsque vous donnez des informations biométriques et de s’abstenir de partager des vidéos et d’autres images d’eux-mêmes sur Internet ». a créé une certaine controverse dans l’industrie du commerce électronique car certains utilisateurs utilisent cette technologie pour cloner les visages de streamers célèbres et vendre leurs produits.

Un autre cas très médiatisé a été l’arrestation d’un homme qui avait utilisé ChatGPT pour créer un faux article sur un accident de train avec neuf morts. Non seulement cela, il avait réussi à le positionner en haut du moteur de recherche Baidu.

législation. C’est le plus grand obstacle pour arrêter ce fléau. Les experts disent que les régulateurs, les forces de l’ordre et les tribunaux ne disposent pas de suffisamment de ressources pour freiner ce phénomène croissant. D’abord parce que il est très difficile d’identifier l’escroc ou de retracer les appels, qui sont situés dans le monde entier et la juridiction d’un pays ne s’étend pas toujours partout. Et deuxièmement, parce que c’est une nouvelle technologie et qu’il n’y a pas assez de jurisprudence pour que les tribunaux en tiennent les entreprises responsables.

En Chine, ils mènent la bataille contre ce type de fraude. Dans le pays asiatique, il a été approuvé une nouvelle loi réglementant les technologies d’IA générative textes, images et vidéos. Cette loi, lancée par la Cyberspace Administration, qui s’occupe du domaine Internet en Chine, a été votée peu de temps après le lancement de ChatGPT, le chatbot OpenAI, lui aussi censuré dans le pays, bien que beaucoup y aient accédé illégalement.

Image:

À 45secondes.fr | Différencier la vraie Chicote de la deepfake Chicote générée par l’IA est déjà presque impossible (et c’est un problème)

45secondes est un nouveau média, n’hésitez pas à partager notre article sur les réseaux sociaux afin de nous donner un solide coup de pouce. ?