Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Incidente 492: Canadian Parents Tricked out of Thousands Using Their Son's AI Voice

Descripción: Two Canadian residents were scammed by an anonymous caller who used AI voice synthesis to replicate their son's voice asking them for legal fees, disguising as his lawyer.

Herramientas

Nuevo InformeNuevo InformeNueva RespuestaNueva RespuestaDescubrirDescubrirVer HistorialVer Historial

Entidades

Ver todas las entidades
Presunto: un sistema de IA desarrollado e implementado por unknown, perjudicó a Ben Perkin's parents y Perkins family.

Estadísticas de incidentes

ID
492
Cantidad de informes
7
Fecha del Incidente
2023-01-11
Editores
Khoa Lam
Applied Taxonomies
MIT

Clasificaciones de la Taxonomía MIT

Machine-Classified
Detalles de la Taxonomía

Risk Subdomain

A further 23 subdomains create an accessible and understandable classification of hazards and harms associated with AI
 

4.3. Fraud, scams, and targeted manipulation

Risk Domain

The Domain Taxonomy of AI Risks classifies risks into seven AI risk domains: (1) Discrimination & toxicity, (2) Privacy & security, (3) Misinformation, (4) Malicious actors & misuse, (5) Human-computer interaction, (6) Socioeconomic & environmental harms, and (7) AI system safety, failures & limitations.
 
  1. Malicious Actors & Misuse

Entity

Which, if any, entity is presented as the main cause of the risk
 

Human

Timing

The stage in the AI lifecycle at which the risk is presented as occurring
 

Post-deployment

Intent

Whether the risk is presented as occurring as an expected or unexpected outcome from pursuing a goal
 

Intentional

Informes del Incidente

Cronología de Informes

+1
TikTok: @benno56
+1
Pensaron que sus seres queridos pedían ayuda. Fue una estafa de IA.
+3
Según los informes, una pareja en Canadá fue estafada con $ 21,000 después de recibir una llamada de una voz generada por IA que fingía ser su hijo
TikTok: @benno56

TikTok: @benno56

tiktok.com

Pensaron que sus seres queridos pedían ayuda. Fue una estafa de IA.

Pensaron que sus seres queridos pedían ayuda. Fue una estafa de IA.

washingtonpost.com

Los estafadores están utilizando A.I. de clonación de voz. herramientas para sonar como los familiares de las víctimas que necesitan desesperadamente ayuda financiera. Esta funcionando.

Los estafadores están utilizando A.I. de clonación de voz. herramientas para sonar como los familiares de las víctimas que necesitan desesperadamente ayuda financiera. Esta funcionando.

fortune.com

Según los informes, una pareja en Canadá fue estafada con $ 21,000 después de recibir una llamada de una voz generada por IA que fingía ser su hijo

Según los informes, una pareja en Canadá fue estafada con $ 21,000 después de recibir una llamada de una voz generada por IA que fingía ser su hijo

businessinsider.com

Los estafadores están usando voces de IA para robar millones haciéndose pasar por seres queridos

Los estafadores están usando voces de IA para robar millones haciéndose pasar por seres queridos

androidauthority.com

Perder miles de dólares porque AI falsifica la voz de un ser querido

Perder miles de dólares porque AI falsifica la voz de un ser querido

vnexpress.net

Los estafadores usan inteligencia artificial de clonación de voz para engañar a la abuela para que piense que su nieto está en la cárcel

Los estafadores usan inteligencia artificial de clonación de voz para engañar a la abuela para que piense que su nieto está en la cárcel

futurism.com

TikTok: @benno56
tiktok.com · 2023
Traducido por IA

#chatgpt #ai [#scam](https://www.tiktok .com/tag/scam) #estafadores #voiceai #proteger #prevención [#awareness](https://www.tiktok.com/tag/ conciencia) #educación ai y estafadores.

Pensaron que sus seres queridos pedían ayuda. Fue una estafa de IA.
washingtonpost.com · 2023
Traducido por IA

El hombre que llamaba a Ruth Card sonaba igual que su nieto Brandon. Entonces, cuando dijo que estaba en la cárcel, sin billetera ni teléfono celular, y que necesitaba dinero en efectivo para la fianza, Card se apresuró a hacer todo lo posi…

Los estafadores están utilizando A.I. de clonación de voz. herramientas para sonar como los familiares de las víctimas que necesitan desesperadamente ayuda financiera. Esta funcionando.
fortune.com · 2023
Traducido por IA

Es muy posible que en un futuro cercano reciba una llamada de un pariente que necesita ayuda urgente y le pida que le envíe dinero rápidamente. Y puede que estés convencido de que son ellos porque, bueno, conoces su voz.

La inteligencia art…

Según los informes, una pareja en Canadá fue estafada con $ 21,000 después de recibir una llamada de una voz generada por IA que fingía ser su hijo
businessinsider.com · 2023
Traducido por IA

Según los informes, una pareja en Canadá fue estafada con $ 21,000 después de recibir una llamada de alguien que decía ser un abogado que decía que su hijo estaba en la cárcel por matar a un diplomático en un accidente automovilístico.

Benj…

Los estafadores están usando voces de IA para robar millones haciéndose pasar por seres queridos
androidauthority.com · 2023
Traducido por IA
  • El software de generación de voz AI permite a los estafadores imitar la voz de sus seres queridos.
  • Estas suplantaciones han llevado a que las personas sean estafadas por $ 11 millones por teléfono en 2022.
  • Los ancianos constituyen la mayor…
Perder miles de dólares porque AI falsifica la voz de un ser querido
vnexpress.net · 2023
Traducido por IA

Los padres de Benjamin Perkin (Canadá) recibieron una llamada de su hijo, que en realidad era una IA falsa, diciendo que estaba detenido y necesitaba $ 15,000 con urgencia.

La pesadilla de la familia de Perkin, de 39 años, comenzó cuando un…

Los estafadores usan inteligencia artificial de clonación de voz para engañar a la abuela para que piense que su nieto está en la cárcel
futurism.com · 2023
Traducido por IA

Sacar de apuro

Los estafadores despiadados siempre están buscando la próxima gran estafa, y es posible que la hayan encontrado: usar IA para imitar a sus seres queridos por teléfono.

Cuando Ruth Card, de 73 años, escuchó lo que pensó que er…

Variantes

Una "Variante" es un incidente que comparte los mismos factores causales, produce daños similares e involucra los mismos sistemas inteligentes que un incidente de IA conocido. En lugar de indexar las variantes como incidentes completamente separados, enumeramos las variaciones de los incidentes bajo el primer incidente similar enviado a la base de datos. A diferencia de otros tipos de envío a la base de datos de incidentes, no se requiere que las variantes tengan informes como evidencia externa a la base de datos de incidentes. Obtenga más información del trabajo de investigación.

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Detroit Police Wrongfully Arrested Black Man Due To Faulty FRT

Wrongfully Accused by an Algorithm

Jan 2020 · 11 informes
Security Robot Rolls Over Child in Mall

Crime-fighting robot hits, rolls over child at Silicon Valley mall

Jul 2016 · 27 informes
Skating Rink’s Facial Recognition Cameras Misidentified Black Teenager as Banned Troublemaker

Teen turned away from roller rink after AI wrongly identifies her as banned troublemaker

Jul 2021 · 3 informes
Incidente AnteriorSiguiente Incidente

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Detroit Police Wrongfully Arrested Black Man Due To Faulty FRT

Wrongfully Accused by an Algorithm

Jan 2020 · 11 informes
Security Robot Rolls Over Child in Mall

Crime-fighting robot hits, rolls over child at Silicon Valley mall

Jul 2016 · 27 informes
Skating Rink’s Facial Recognition Cameras Misidentified Black Teenager as Banned Troublemaker

Teen turned away from roller rink after AI wrongly identifies her as banned troublemaker

Jul 2021 · 3 informes

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2023 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 30ebe76