Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Traducido por IA

Incidente 1238: Se informa que los modelos OpenAI ChatGPT fueron liberados para proporcionar instrucciones sobre armas químicas, biológicas y nucleares.

Traducido por IA
Descripción:
Traducido por IA
Una investigación de NBC News descubrió que los modelos de lenguaje de OpenAI o4-mini, GPT-5-mini, oss-20b y oss-120b podían ser liberados en condiciones normales de uso para eludir las medidas de seguridad y generar instrucciones detalladas para la creación de armas químicas, biológicas y nucleares. Mediante un mensaje de liberación documentado públicamente, los reporteros obtuvieron repetidamente resultados peligrosos, como pasos para sintetizar patógenos o maximizar el daño con agentes químicos. Los hallazgos revelaron importantes fallos de seguridad en situaciones reales, lo que impulsó a OpenAI a implementar nuevas medidas de mitigación.

Herramientas

Nuevo InformeNuevo InformeNueva RespuestaNueva RespuestaDescubrirDescubrirVer HistorialVer Historial

Entidades

Ver todas las entidades
Presunto: un sistema de IA desarrollado e implementado por OpenAI , oss-20b , oss-120b , GPT-5-mini , ChatGPT y 04-mini, perjudicó a Public safety , National security stakeholders y General public.
Sistemas de IA presuntamente implicados: oss-20b , oss-120b , GPT-5-mini , ChatGPT y 04-mini

Estadísticas de incidentes

ID
1238
Cantidad de informes
1
Fecha del Incidente
2025-10-10
Editores
Dummy Dummy

Informes del Incidente

Cronología de Informes

+1
Los sistemas de seguridad de ChatGPT se pueden eludir para obtener instrucciones sobre armas
Loading...
Los sistemas de seguridad de ChatGPT se pueden eludir para obtener instrucciones sobre armas

Los sistemas de seguridad de ChatGPT se pueden eludir para obtener instrucciones sobre armas

nbcnews.com

Loading...
Los sistemas de seguridad de ChatGPT se pueden eludir para obtener instrucciones sobre armas
nbcnews.com · 2025
Traducido por IA

ChatGPT de OpenAI cuenta con barreras de seguridad que, supuestamente, impiden que los usuarios generen información que pueda utilizarse con fines catastróficos, como la fabricación de armas biológicas o nucleares.

Sin embargo, estas barrer…

Variantes

Una "Variante" es un incidente de IA similar a un caso conocido—tiene los mismos causantes, daños y sistema de IA. En lugar de enumerarlo por separado, lo agrupamos bajo el primer incidente informado. A diferencia de otros incidentes, las variantes no necesitan haber sido informadas fuera de la AIID. Obtenga más información del trabajo de investigación.
¿Has visto algo similar?

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Loading...
Fake LinkedIn Profiles Created Using GAN Photos

Fake LinkedIn Profiles Created Using GAN Photos

Feb 2022 · 4 informes
Loading...
Hackers Break Apple Face ID

Hackers Break Apple Face ID

Sep 2017 · 24 informes
Loading...
OpenAI's GPT-3 Associated Muslims with Violence

OpenAI's GPT-3 Associated Muslims with Violence

Aug 2020 · 3 informes
Incidente AnteriorSiguiente Incidente

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Loading...
Fake LinkedIn Profiles Created Using GAN Photos

Fake LinkedIn Profiles Created Using GAN Photos

Feb 2022 · 4 informes
Loading...
Hackers Break Apple Face ID

Hackers Break Apple Face ID

Sep 2017 · 24 informes
Loading...
OpenAI's GPT-3 Associated Muslims with Violence

OpenAI's GPT-3 Associated Muslims with Violence

Aug 2020 · 3 informes

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Project and Community test

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor
  • RAIC AIID Taxonomy Policy

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2023 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 5f34726