Tech

Sur Instagram, une nouvelle arnaque sur fond de deepfake

La police estime qu'il s'agit d'une nouvelle vague de phishing.
Shamani Joshi
Mumbai, IN
i
Photo : sam thomas/Getty 

Une nouvelle arnaque en ligne a été signalée en Inde, qui présente toutes les caractéristiques de l'extorsion sexuelle. En gros, les personnes sont contactées à plusieurs reprises sur Instagram par le biais d'appels vidéo, jusqu'à ce qu'elles répondent, puis il leur est demandé de payer une somme considérable pour éviter que leur visage ne se retrouve dans un porno créé avec des deepfakes, puis envoyé à leur famille et à leurs amis.

Publicité

La police a réduit le champ de son enquête à un gang présumé opérant entre plusieurs États indiens : l'Uttar Pradesh, l'Haryana et le Rajasthan. Elle estime également que ces attaques sont non seulement devenues de plus en plus courantes, mais qu'elles signalent l'arrivée d'une nouvelle vague et d'un nouveau type de phishing

Les enquêtes menées par l'unité de lutte contre la cybercriminalité de la police indienne ont également établi que la zone située à la convergence des trois États est devenue une sorte de « trou noir » pour les réseaux de téléphonie mobile, où il est difficile en pratique de localiser exactement un appareil, compte tenu de la présence de multiples tours de télécommunication. Même l'argent extorqué passe par différents systèmes, portefeuilles en ligne et plateformes de paiement, créant un labyrinthe de transactions de plus en plus difficile à détecter et à retracer.

Ce n'est pas la première fois que de telles escroqueries ont lieu en Inde. Par le passé, les escrocs ont envoyé des mails de phishing ou des liens vers de faux sites web et portails d'achat afin de voler les données des cartes de crédit. Ou ils ont prétendu avoir piraté les webcams des gens pendant qu'ils regardaient du porno

La police a arrêté trois hommes qui, selon elle, sont liés à un réseau plus vaste qui utilise des deepfakes pour cibler ses victimes, créant de fausses vidéos pornographiques dans lesquelles le visage d'une personne est remplacé par celui d'une autre grâce au machine learning et à l'intelligence artificielle. 

Publicité

Rohan Bhasin, 33 ans, a été l'une des victimes de ce crime plutôt raffiné. Le 2 juillet, une femme qu'il ne connaissait pas, mais avec laquelle il avait quelques amis en commun, a commencé à le suivre sur Instagram. Quelques minutes plus tard, il a reçu un DM lui demandant son numéro sur WhatsApp, ce qu’il a refusé de partager.

Plus tard, la femme a commencé à l'appeler sans cesse en vidéo sur Instagram. « Au début, j'ai ignoré les appels, mais après en avoir reçu sept ou huit, j'ai fini par répondre, a-t-il raconté à The Indian Express. Sur l'écran, il y avait une femme nue qui accomplissait des actes sexuels. Il m'a fallu environ 15 secondes pour réaliser ce qui se passait, puis j'ai raccroché. »

Peu après, la femme a commencé à lui envoyer une série de messages de chantage le menaçant de divulguer la vidéo s'il ne la payait pas. Bhasin a refusé et l'a bloquée sur Instagram, mais quinze minutes plus tard, il a commencé à recevoir une avalanche de messages et d'appels de ses amis et de sa famille, qui avaient reçu une vidéo pornographique mettant en scène ce qui semblait être lui.

« Les escrocs avaient pris une photo de mon visage lors de l'appel vidéo et l'avaient superposée au corps de quelqu'un d'autre. Dans la vidéo partagée, on avait l'impression que c'était vraiment moi », dit-il. 

Bhasin a porté plainte peu après, et la police pense que les suspects arrêtés dans l'Haryana sont également impliqués dans cette affaire. 

La police confirme qu'elle reçoit chaque jour des centaines de plaintes similaires, mais qu'elle doit encore unifier et consolider les données relatives à ces affaires. Le portail national de la cybercriminalité mis en place par le ministère indien de l'Intérieur a enregistré plus de 317 000 crimes de ce type entre août 2019 et mars 2021.

VICE France est aussi sur Twitter, Instagram, Facebook et sur Flipboard.
VICE Belgique est sur Instagram et Facebook.