Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Incidente 1010: GenNomis AI Database Reportedly Exposes Nearly 100,000 Deepfake and Nudify Images in Public Breach

Descripción: In March 2025, cybersecurity researcher Jeremiah Fowler discovered an unprotected database linked to GenNomis by AI-NOMIS, a South Korean company offering face-swapping and "nudify" AI services. The exposed 47.8GB dataset included nearly 100,000 files. Many depicted explicit deepfake images, some involving minors or celebrities. No personal data was found, but the breach was a serious failure in data security and consent safeguards in AI image-generation platforms.

Herramientas

Nuevo InformeNuevo InformeNueva RespuestaNueva RespuestaDescubrirDescubrirVer HistorialVer Historial

Entidades

Ver todas las entidades
Alleged: GenNomis by AI-NOMIS y AI-NOMIS developed an AI system deployed by GenNomis by AI-NOMIS y GenNomis, which harmed Individuals whose likenesses were used without consent , Public figures and celebrities depicted in explicit AI images , minors y General public.
Sistemas de IA presuntamente implicados: GenNomis y Unnamed cloud database

Estadísticas de incidentes

ID
1010
Cantidad de informes
2
Fecha del Incidente
2025-03-31
Editores

Informes del Incidente

Cronología de Informes

+1
Miles de imágenes de IA y deepfakes expuestas en la filtración de datos del servicio Nudify
El sitio web de GenAI se apaga tras ser expuestas falsificaciones explícitas
Miles de imágenes de IA y deepfakes expuestas en la filtración de datos del servicio Nudify

Miles de imágenes de IA y deepfakes expuestas en la filtración de datos del servicio Nudify

vpnmentor.com

El sitio web de GenAI se apaga tras ser expuestas falsificaciones explícitas

El sitio web de GenAI se apaga tras ser expuestas falsificaciones explícitas

theregister.com

Miles de imágenes de IA y deepfakes expuestas en la filtración de datos del servicio Nudify
vpnmentor.com · 2025
Traducido por IA

El investigador de ciberseguridad Jeremiah Fowler descubrió e informó a vpnMentor sobre una base de datos sin contraseña que contenía poco menos de 100 000 registros pertenecientes a GenNomis de AI-NOMIS, una empresa de inteligencia artific…

El sitio web de GenAI se apaga tras ser expuestas falsificaciones explícitas
theregister.com · 2025
Traducido por IA

Jeremiah Fowler, un experto en sistemas inseguros, afirma haber encontrado un conjunto de imágenes sexualmente explícitas generadas por IA, expuestas al internet público. Todas desaparecieron después de que él alertara al equipo que aparent…

Variantes

Una "Variante" es un incidente que comparte los mismos factores causales, produce daños similares e involucra los mismos sistemas inteligentes que un incidente de IA conocido. En lugar de indexar las variantes como incidentes completamente separados, enumeramos las variaciones de los incidentes bajo el primer incidente similar enviado a la base de datos. A diferencia de otros tipos de envío a la base de datos de incidentes, no se requiere que las variantes tengan informes como evidencia externa a la base de datos de incidentes. Obtenga más información del trabajo de investigación.

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Alleged Issues with Proctorio's Remote-Testing AI Prompted Suspension by University

University of Illinois to Discontinue Remote-Testing Software After Students Complain of Privacy Violation

Jan 2020 · 6 informes
Clearview AI Algorithm Built on Photos Scraped from Social Media Profiles without Consent

ACLU Called Clearview AI’s Facial Recognition Accuracy Study “Absurd”

Jun 2017 · 10 informes
Ever AI Reportedly Deceived Customers about FRT Use in App

Millions of people uploaded photos to the Ever app. Then the company used them to develop facial recognition tools.

Apr 2019 · 7 informes
Incidente AnteriorSiguiente Incidente

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Alleged Issues with Proctorio's Remote-Testing AI Prompted Suspension by University

University of Illinois to Discontinue Remote-Testing Software After Students Complain of Privacy Violation

Jan 2020 · 6 informes
Clearview AI Algorithm Built on Photos Scraped from Social Media Profiles without Consent

ACLU Called Clearview AI’s Facial Recognition Accuracy Study “Absurd”

Jun 2017 · 10 informes
Ever AI Reportedly Deceived Customers about FRT Use in App

Millions of people uploaded photos to the Ever app. Then the company used them to develop facial recognition tools.

Apr 2019 · 7 informes

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2023 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • f28fa7c