Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Traduit par IA

Incident 1053: Un homme d'affaires de Mumbai aurait été escroqué via une voix prétendument clonée par une IA se faisant passer pour son fils

Traduit par IA
Description:
Traduit par IA
Un homme d'affaires de Mumbai, KT Vinod, aurait perdu 80 000 roupies après avoir reçu un appel d'une personne se faisant passer pour un représentant de l'ambassade d'Inde à Dubaï, annonçant l'arrestation de son fils. L'appelant aurait utilisé un clone vocal généré par intelligence artificielle pour simuler la voix du fils de Vinod, implorant son aide. Convaincu de l'urgence de la situation, Vinod aurait demandé un virement via Google Pay. L'arnaque n'a été découverte qu'après qu'il a contacté directement son fils.
Editor Notes: This incident is reported to have occurred on 03/30/2024. It was added to the database on 05/03/2025.

Outils

Nouveau rapportNouveau rapportNouvelle RéponseNouvelle RéponseDécouvrirDécouvrirVoir l'historiqueVoir l'historique

Entités

Voir toutes les entités
Alleged: Unknown voice cloning technology developer et Unknown deepfake technology developer developed an AI system deployed by Unknown scammers et Unknown fraudsters, which harmed General public of India , Mumbai businessman et Son of Mumbai businessman.
Systèmes d'IA présumés impliqués: Unknown voice cloning technology , Unknown deepfake technology et Google Pay

Statistiques d'incidents

ID
1053
Nombre de rapports
2
Date de l'incident
2024-03-30
Editeurs
Dummy Dummy

Rapports d'incidents

Chronologie du rapport

Incident Occurrencetranslated-fr-Mumbai businessman falls victim to AI voice cloning, loses Rs 80,000translated-fr-Mumbai Man Loses Rs 80,000 In AI Voice Cloning Scam: What Is It, How To Stay Safe
translated-fr-Mumbai businessman falls victim to AI voice cloning, loses Rs 80,000

translated-fr-Mumbai businessman falls victim to AI voice cloning, loses Rs 80,000

timesofindia.indiatimes.com

translated-fr-Mumbai Man Loses Rs 80,000 In AI Voice Cloning Scam: What Is It, How To Stay Safe

translated-fr-Mumbai Man Loses Rs 80,000 In AI Voice Cloning Scam: What Is It, How To Stay Safe

timesnownews.com

translated-fr-Mumbai businessman falls victim to AI voice cloning, loses Rs 80,000
timesofindia.indiatimes.com · 2024
Traduit par IA

translated-fr-MUMBAI: A 68-year-old businessman from Powai fell victim to an artificial intelligence voice cloning scam, losing Rs80,000. The scam involved a fake call, purportedly from the Indian Embassy in Dubai, falsely claiming that the…

translated-fr-Mumbai Man Loses Rs 80,000 In AI Voice Cloning Scam: What Is It, How To Stay Safe
timesnownews.com · 2024
Traduit par IA

translated-fr-A recent incident in Mumbai highlights the growing threat of AI voice cloning scams. Vinod, a businessman, lost Rs 80,000 after being tricked by a fraudster impersonating his son and a representative from the Indian Embassy in…

Variantes

Une "Variante" est un incident de l'IA similaire à un cas connu—il a les mêmes causes, les mêmes dommages et le même système intelligent. Plutôt que de l'énumérer séparément, nous l'incluons sous le premier incident signalé. Contrairement aux autres incidents, les variantes n'ont pas besoin d'avoir été signalées en dehors de la base de données des incidents. En savoir plus sur le document de recherche.
Vous avez vu quelque chose de similaire ?

Incidents similaires

Par similarité textuelle

Did our AI mess up? Flag the unrelated incidents

Reported AI-Cloned Voice Used to Deceive Hong Kong Bank Manager in Purported $35 Million Fraud Scheme

Reported AI-Cloned Voice Used to Deceive Hong Kong Bank Manager in Purported $35 Million Fraud Scheme

Jan 2020 · 6 rapports
Deepfake Obama Introduction of Deepfakes

Deepfake Obama Introduction of Deepfakes

Jul 2017 · 29 rapports
Hackers Break Apple Face ID

Hackers Break Apple Face ID

Sep 2017 · 24 rapports
Incident précédentProchain incident

Incidents similaires

Par similarité textuelle

Did our AI mess up? Flag the unrelated incidents

Reported AI-Cloned Voice Used to Deceive Hong Kong Bank Manager in Purported $35 Million Fraud Scheme

Reported AI-Cloned Voice Used to Deceive Hong Kong Bank Manager in Purported $35 Million Fraud Scheme

Jan 2020 · 6 rapports
Deepfake Obama Introduction of Deepfakes

Deepfake Obama Introduction of Deepfakes

Jul 2017 · 29 rapports
Hackers Break Apple Face ID

Hackers Break Apple Face ID

Sep 2017 · 24 rapports

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur
  • RAIC AIID Taxonomy Policy

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2023 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e4ae132