Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Incidente 955: Global Cybercrime Network Storm-2139 Allegedly Exploits AI to Generate Deepfake Content

Descripción: A global cybercrime network, Storm-2139, allegedly exploited stolen credentials and developed custom tools to bypass AI safety guardrails. They reportedly generated harmful deepfake content, including nonconsensual intimate images of celebrities, and their software is reported to have disabled content moderation, hijacked AI access, and resold illicit services. Microsoft disrupted the operation and filed a lawsuit in December 2024, later identifying key members of the network in February 2025.
Editor Notes: The date for this incident, 12/19/2024, is the date Microsoft filed its lawsuit, which can be read here: https://www.noticeofpleadings.net/fizzdog/files/COMPLAINT_AND_SUMMONS/2024.12.19_DE_001_%5BMicrosoft%5D_Complaint.pdf. However, the lawsuit explains, "Defendants conspired to operate the Azure Abuse Enterprise through a pattern of racketeering activity in furtherance of the common purpose of the Enterprise sometime prior to July 2024." Additionally, it details allegations of wire fraud (18 U.S.C. § 1343), stating that prior to July 2024, the defendants stole authentication information from Microsoft customers to fraudulently access the Azure OpenAI Service and deplete account balances (page 36). For information on a specific timeline, Microsoft's lawsuit also explains that "[f]rom July 26, 2024, to at least September 17, 2024, Defendants transmitted and/or caused to be transmitted by means of wire communication in interstate and foreign commerce writings, signals, and pictures for the purpose of executing their scheme to defraud" (page 37).

Herramientas

Nuevo InformeNuevo InformeNueva RespuestaNueva RespuestaDescubrirDescubrirVer HistorialVer Historial

Entidades

Ver todas las entidades
Presunto: un sistema de IA desarrollado e implementado por Unidentified Storm-2139 actor from Illinois , Unidentified Storm-2139 actor from Florida , Storm-2139 , Ricky Yuen (cg-dot) , Phát Phùng Tấn (Asakuri) , Arian Yadegarnia (Fiz) , Alan Krysiak (Drago) , Proxy and credential abuse networks , Microsoft Azure OpenAI Service , Generative AI platforms , Content moderation systems , Azure Abuse Enterprise , API authentication mechanisms y AI safety guardrails, perjudicó a Victims of deepfake abuse , OpenAI , Microsoft , celebrities , Azure OpenAI customers y AI service providers.
Sistemas de IA presuntamente implicados: Proxy and credential abuse networks , Microsoft Azure OpenAI Service , Generative AI platforms , Content moderation systems , Azure Abuse Enterprise , API authentication mechanisms y AI safety guardrails

Estadísticas de incidentes

ID
955
Cantidad de informes
5
Fecha del Incidente
2024-12-19
Editores

Informes del Incidente

Cronología de Informes

Incident Occurrence+4
Desmantelamiento de una red global de ciberdelincuencia que abusa de la IA generativa
Desmantelamiento de una red global de ciberdelincuencia que abusa de la IA generativa

Desmantelamiento de una red global de ciberdelincuencia que abusa de la IA generativa

blogs.microsoft.com

Microsoft identifica a los desarrolladores detrás de un supuesto plan de piratería informática de IA generativa a sueldo

Microsoft identifica a los desarrolladores detrás de un supuesto plan de piratería informática de IA generativa a sueldo

cyberscoop.com

Microsoft interrumpe Storm-2139 por LLMjacking y explotación de Azure AI

Microsoft interrumpe Storm-2139 por LLMjacking y explotación de Azure AI

hackread.com

Microsoft amplía sus acciones legales contra la red de abuso de IA Storm-2139

Microsoft amplía sus acciones legales contra la red de abuso de IA Storm-2139

techmonitor.ai

Microsoft nombra a los desarrolladores de herramientas de jailbreaking con IA en la ofensiva legal contra Storm-2139

Microsoft nombra a los desarrolladores de herramientas de jailbreaking con IA en la ofensiva legal contra Storm-2139

enterprisesecuritytech.com

Desmantelamiento de una red global de ciberdelincuencia que abusa de la IA generativa
blogs.microsoft.com · 2025
Traducido por IA

En una demanda enmendada a un reciente litigio civil, Microsoft nombra a los principales desarrolladores de herramientas maliciosas diseñadas para eludir las barreras de protección de los servicios de IA generativa, incluido el servicio Azu…

Microsoft identifica a los desarrolladores detrás de un supuesto plan de piratería informática de IA generativa a sueldo
cyberscoop.com · 2025
Traducido por IA

Microsoft ha identificado a personas de Irán, China, Vietnam y el Reino Unido como los principales actores de un supuesto plan internacional para secuestrar y vender cuentas de Microsoft que podrían eludir las normas de seguridad de las her…

Microsoft interrumpe Storm-2139 por LLMjacking y explotación de Azure AI
hackread.com · 2025
Traducido por IA

Microsoft expone Storm-2139, una red de cibercrimen que explota la IA de Azure mediante LLMjacking. Descubra cómo las claves API robadas permitieron la generación de contenido dañino y las acciones legales de Microsoft.

Microsoft ha emprend…

Microsoft amplía sus acciones legales contra la red de abuso de IA Storm-2139
techmonitor.ai · 2025
Traducido por IA

Microsoft ha ampliado sus acciones legales contra un grupo de ciberdelincuentes acusado de desarrollar herramientas que eluden las medidas de seguridad en servicios de IA generativa (GenAI). En una denuncia actualizada, la compañía ha ident…

Microsoft nombra a los desarrolladores de herramientas de jailbreaking con IA en la ofensiva legal contra Storm-2139
enterprisesecuritytech.com · 2025
Traducido por IA

En una medida histórica contra la explotación de la IA, Microsoft ha desenmascarado a los desarrolladores clave detrás de Storm-2139, una red global de ciberdelincuencia acusada de manipular modelos generativos de IA para actividades ilícit…

Variantes

Una "Variante" es un incidente que comparte los mismos factores causales, produce daños similares e involucra los mismos sistemas inteligentes que un incidente de IA conocido. En lugar de indexar las variantes como incidentes completamente separados, enumeramos las variaciones de los incidentes bajo el primer incidente similar enviado a la base de datos. A diferencia de otros tipos de envío a la base de datos de incidentes, no se requiere que las variantes tengan informes como evidencia externa a la base de datos de incidentes. Obtenga más información del trabajo de investigación.

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Defamation via AutoComplete

Algorithmic Defamation: The Case of the Shameless Autocomplete

Apr 2011 · 28 informes
Alleged Issues with Proctorio's Remote-Testing AI Prompted Suspension by University

University of Illinois to Discontinue Remote-Testing Software After Students Complain of Privacy Violation

Jan 2020 · 6 informes
COMPAS Algorithm Performs Poorly in Crime Recidivism Prediction

A Popular Algorithm Is No Better at Predicting Crimes Than Random People

May 2016 · 22 informes
Incidente AnteriorSiguiente Incidente

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Defamation via AutoComplete

Algorithmic Defamation: The Case of the Shameless Autocomplete

Apr 2011 · 28 informes
Alleged Issues with Proctorio's Remote-Testing AI Prompted Suspension by University

University of Illinois to Discontinue Remote-Testing Software After Students Complain of Privacy Violation

Jan 2020 · 6 informes
COMPAS Algorithm Performs Poorly in Crime Recidivism Prediction

A Popular Algorithm Is No Better at Predicting Crimes Than Random People

May 2016 · 22 informes

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2023 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 30ebe76