Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Traducido por IA

Incidente 1053: Un empresario de Mumbai fue estafado al ser víctima de una supuesta clonación de voz por IA que suplantaba a su hijo.

Traducido por IA
Descripción:
Traducido por IA
Un empresario de Mumbai, identificado como KT Vinod, perdió 80.000 rupias tras recibir una llamada de alguien que decía ser representante de la Embajada de la India en Dubái, quien le informó que su hijo había sido arrestado. Supuestamente, la persona que llamó utilizó una clonación de voz generada por IA para simular la voz del hijo de Vinod, pidiendo ayuda. Convencido de la urgencia, Vinod solicitó una transferencia de dinero a través de Google Pay. La estafa se descubrió solo después de que contactara directamente con su hijo.
Editor Notes: This incident is reported to have occurred on 03/30/2024. It was added to the database on 05/03/2025.

Herramientas

Nuevo InformeNuevo InformeNueva RespuestaNueva RespuestaDescubrirDescubrirVer HistorialVer Historial

Entidades

Ver todas las entidades
Alleged: Unknown voice cloning technology developer y Unknown deepfake technology developer developed an AI system deployed by Unknown scammers y Unknown fraudsters, which harmed General public of India , Mumbai businessman y Son of Mumbai businessman.
Sistemas de IA presuntamente implicados: Unknown voice cloning technology , Unknown deepfake technology y Google Pay

Estadísticas de incidentes

ID
1053
Cantidad de informes
2
Fecha del Incidente
2024-03-30
Editores
Dummy Dummy

Informes del Incidente

Cronología de Informes

Incident Occurrencetranslated-es-Mumbai businessman falls victim to AI voice cloning, loses Rs 80,000translated-es-Mumbai Man Loses Rs 80,000 In AI Voice Cloning Scam: What Is It, How To Stay Safe
translated-es-Mumbai businessman falls victim to AI voice cloning, loses Rs 80,000

translated-es-Mumbai businessman falls victim to AI voice cloning, loses Rs 80,000

timesofindia.indiatimes.com

translated-es-Mumbai Man Loses Rs 80,000 In AI Voice Cloning Scam: What Is It, How To Stay Safe

translated-es-Mumbai Man Loses Rs 80,000 In AI Voice Cloning Scam: What Is It, How To Stay Safe

timesnownews.com

translated-es-Mumbai businessman falls victim to AI voice cloning, loses Rs 80,000
timesofindia.indiatimes.com · 2024
Traducido por IA

translated-es-MUMBAI: A 68-year-old businessman from Powai fell victim to an artificial intelligence voice cloning scam, losing Rs80,000. The scam involved a fake call, purportedly from the Indian Embassy in Dubai, falsely claiming that the…

translated-es-Mumbai Man Loses Rs 80,000 In AI Voice Cloning Scam: What Is It, How To Stay Safe
timesnownews.com · 2024
Traducido por IA

translated-es-A recent incident in Mumbai highlights the growing threat of AI voice cloning scams. Vinod, a businessman, lost Rs 80,000 after being tricked by a fraudster impersonating his son and a representative from the Indian Embassy in…

Variantes

Una "Variante" es un incidente de IA similar a un caso conocido—tiene los mismos causantes, daños y sistema de IA. En lugar de enumerarlo por separado, lo agrupamos bajo el primer incidente informado. A diferencia de otros incidentes, las variantes no necesitan haber sido informadas fuera de la AIID. Obtenga más información del trabajo de investigación.
¿Has visto algo similar?

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Reported AI-Cloned Voice Used to Deceive Hong Kong Bank Manager in Purported $35 Million Fraud Scheme

Reported AI-Cloned Voice Used to Deceive Hong Kong Bank Manager in Purported $35 Million Fraud Scheme

Jan 2020 · 6 informes
Deepfake Obama Introduction of Deepfakes

Deepfake Obama Introduction of Deepfakes

Jul 2017 · 29 informes
Hackers Break Apple Face ID

Hackers Break Apple Face ID

Sep 2017 · 24 informes
Incidente AnteriorSiguiente Incidente

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Reported AI-Cloned Voice Used to Deceive Hong Kong Bank Manager in Purported $35 Million Fraud Scheme

Reported AI-Cloned Voice Used to Deceive Hong Kong Bank Manager in Purported $35 Million Fraud Scheme

Jan 2020 · 6 informes
Deepfake Obama Introduction of Deepfakes

Deepfake Obama Introduction of Deepfakes

Jul 2017 · 29 informes
Hackers Break Apple Face ID

Hackers Break Apple Face ID

Sep 2017 · 24 informes

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor
  • RAIC AIID Taxonomy Policy

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2023 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e4ae132