Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Incidente 1011: Deepfake of Bermuda Premier David Burt Promotes Investment Scam Using Royal Gazette Branding

Descripción: The Government of Bermuda warned the public about a deepfake video circulating on Facebook that falsely portrayed Premier David Burt promoting a government investment scheme. The deepfake video reportedly mimicked the branding of The Royal Gazette and was linked to fraudulent social media accounts. Authorities confirmed the content was fake and urged the public to report such scams and to be vigilant about them.

Herramientas

Nuevo InformeNuevo InformeNueva RespuestaNueva RespuestaDescubrirDescubrirVer HistorialVer Historial

Entidades

Ver todas las entidades
Alleged: Unknown deepfake technology developer y Unknown voice cloning technology developer developed an AI system deployed by scammers , Fraudsters y Scammers impersonating David Burt, which harmed David Burt , Government of Bermuda , General public of Bermuda y The Royal Gazette.
Sistemas de IA presuntamente implicados: Unknown deepfake app , Unknown voice cloning technology , Facebook y Social media platforms

Estadísticas de incidentes

ID
1011
Cantidad de informes
1
Fecha del Incidente
2025-04-05
Editores

Informes del Incidente

Cronología de Informes

Incident OccurrenceEl Gobierno advierte sobre una estafa de inteligencia artificial en las redes sociales
El Gobierno advierte sobre una estafa de inteligencia artificial en las redes sociales

El Gobierno advierte sobre una estafa de inteligencia artificial en las redes sociales

royalgazette.com

El Gobierno advierte sobre una estafa de inteligencia artificial en las redes sociales
royalgazette.com · 2025
Traducido por IA

El Gobierno ha advertido al público sobre un video falso generado por IA que circula en redes sociales.

El video, visto en Facebook, incluía una imagen que sugería falsamente estar relacionada con un informe de The Royal Gazette e incluía i…

Variantes

Una "Variante" es un incidente que comparte los mismos factores causales, produce daños similares e involucra los mismos sistemas inteligentes que un incidente de IA conocido. En lugar de indexar las variantes como incidentes completamente separados, enumeramos las variaciones de los incidentes bajo el primer incidente similar enviado a la base de datos. A diferencia de otros tipos de envío a la base de datos de incidentes, no se requiere que las variantes tengan informes como evidencia externa a la base de datos de incidentes. Obtenga más información del trabajo de investigación.

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Defamation via AutoComplete

Algorithmic Defamation: The Case of the Shameless Autocomplete

Apr 2011 · 28 informes
Facial Recognition Trial Performed Poorly at Notting Hill Carnival

Don’t Believe the Algorithm

Aug 2017 · 4 informes
Passport checker Detects Asian man's Eyes as Closed

Robot passport checker rejects Asian man's photo for having his eyes closed

Dec 2016 · 22 informes
Incidente AnteriorSiguiente Incidente

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Defamation via AutoComplete

Algorithmic Defamation: The Case of the Shameless Autocomplete

Apr 2011 · 28 informes
Facial Recognition Trial Performed Poorly at Notting Hill Carnival

Don’t Believe the Algorithm

Aug 2017 · 4 informes
Passport checker Detects Asian man's Eyes as Closed

Robot passport checker rejects Asian man's photo for having his eyes closed

Dec 2016 · 22 informes

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2023 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • f28fa7c