Incidente 1018: translated-es-OpenAI’s 4o Model Allegedly Used to Generate Fake Receipts and Prescriptions
Descripción: translated-es-OpenAI’s new image generator, 4o, was reportedly used to produce realistic fraudulent documents, including fake restaurant receipts, prescriptions for controlled substances, and potentially other identity or financial documents. Users demonstrated how the model could be prompted to bypass safety restrictions to be misused for expense fraud, medical forgery, and other various forms of document falsification.
Entidades
Ver todas las entidadesAlleged: OpenAI developed an AI system deployed by scammers y Fraudsters, which harmed Regulatory agencies , Pharmacists , Law enforcement , healthcare providers , General public , Expense management platforms y Employers.
Sistemas de IA presuntamente implicados: Prescription validation systems , OpenAI 4o image generator , Expense reporting systems y Document verification systems
Estadísticas de incidentes
ID
1018
Cantidad de informes
2
Fecha del Incidente
2025-03-31
Editores
Dummy Dummy
Informes del Incidente
Cronología de Informes

El último modelo 4o de generación de imágenes de OpenAI es sorprendentemente bueno generando texto dentro de imágenes, una hazaña que había resultado particularmente difícil para sus muchos predecesores.
Y eso lo convierte en una herramient…

GPT-4o de OpenAI ha recibido atención por sus avanzadas habilidades visuales y su potencial de uso indebido. GPT-4o se distingue de los modelos anteriores porque produce texto dentro de imágenes con una apariencia auténtica y legible, lo qu…
Variantes
Una "Variante" es un incidente de IA similar a un caso conocido—tiene los mismos causantes, daños y sistema de IA. En lugar de enumerarlo por separado, lo agrupamos bajo el primer incidente informado. A diferencia de otros incidentes, las variantes no necesitan haber sido informadas fuera de la AIID. Obtenga más información del trabajo de investigación.
¿Has visto algo similar?
Incidentes Similares
Did our AI mess up? Flag the unrelated incidents

Hackers Break Apple Face ID
· 24 informes

Fake LinkedIn Profiles Created Using GAN Photos
· 4 informes

Images of Black People Labeled as Gorillas
· 24 informes
Incidentes Similares
Did our AI mess up? Flag the unrelated incidents

Hackers Break Apple Face ID
· 24 informes

Fake LinkedIn Profiles Created Using GAN Photos
· 4 informes

Images of Black People Labeled as Gorillas
· 24 informes