Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Bienvenido a
la base de datos de incidentes de IA

Loading...
OpenAI afirma que cientos de miles de usuarios de ChatGPT podrían mostrar signos de crisis maníaca o psic�ótica cada semana.

Incidente 1253: Supuestas crisis de salud mental a gran escala asociadas con interacciones de ChatGPT

Traducido por IA
“OpenAI afirma que cientos de miles de usuarios de ChatGPT podrían mostrar signos de crisis maníaca o psicótica cada semana.”Último informe
wired.com2025-10-31

Por primera vez, OpenAI ha publicado una estimación aproximada de cuántos usuarios de ChatGPT en todo el mundo podrían mostrar signos de sufrir una crisis de salud mental grave en una semana típica. La compañía anunció el lunes que colaboró con expertos de todo el mundo para actualizar el chatbot y así mejorar su capacidad para reconocer con mayor precisión los indicadores de malestar psicológico y orientar a los usuarios hacia apoyo en el mundo real.

En los últimos meses, un número creciente de personas han terminado hospitalizadas, divorciadas o fallecidas tras mantener conversaciones largas e intensas con ChatGPT. Algunos de sus seres queridos alegan que el chatbot alimentó sus delirios y paranoia. Psiquiatras y otros profesionales de la salud mental han expresado su alarma ante este fenómeno, a veces denominado psicosis por IA, pero hasta ahora no se disponía de datos sólidos sobre su posible alcance.

En una semana determinada, OpenAI estimó que alrededor del 0,07 % de los usuarios activos de ChatGPT mostraban posibles signos de crisis de salud mental relacionadas con psicosis o manía, y el 0,15 % mantenían conversaciones con indicadores explícitos de posible planificación o intención suicida.

OpenAI también analizó la proporción de usuarios de ChatGPT que parecen tener una dependencia emocional excesiva del chatbot, a costa de sus relaciones en la vida real, su bienestar o sus obligaciones. Descubrió que aproximadamente el 0,15 % de los usuarios activos muestran un comportamiento que indica un posible nivel elevado de apego emocional a ChatGPT semanalmente. La empresa advierte que estos mensajes pueden ser difíciles de detectar y medir debido a su baja frecuencia, y que podría haber cierta superposición entre las tres categorías.

El director ejecutivo de OpenAI, Sam Altman, declaró a principios de este mes que ChatGPT cuenta ahora con 800 millones de usuarios activos semanales. Según las estimaciones de la compañía, cada siete días, alrededor de 560.000 personas podrían estar intercambiando mensajes con ChatGPT que indican que experimentan manía o psicosis. Aproximadamente 1,2 millones más podrían estar expresando ideas suicidas, y otros 1,2 millones podrían estar priorizando hablar con ChatGPT sobre sus seres queridos, la escuela o el trabajo.

OpenAI afirma haber colaborado con más de 170 psiquiatras, psicólogos y médicos de atención primaria que ejercen en decenas de países para mejorar la respuesta de ChatGPT en conversaciones que implican riesgos graves para la salud mental. Si alguien parece tener pensamientos delirantes, la última versión de GPT-5 está diseñada para expresar empatía, evitando al mismo tiempo afirmar creencias sin fundamento en la realidad.

En un ejemplo hipotético citado por OpenAI, un usuario le dice a ChatGPT que siente que aviones sobrevuelan su casa. ChatGPT le agradece al usuario por compartir sus sentimientos, pero señala que "ninguna aeronave ni fuerza externa puede robar ni insertar sus pensamientos".

OpenAI afirma que los expertos médicos revisaron más de 1800 respuestas del modelo relacionadas con psicosis potencial, suicidio y apego emocional, y compararon las respuestas de la última versión de GPT-5 con las generadas por GPT-40. Si bien los médicos no siempre coincidieron, en general, OpenAI indica que el nuevo modelo redujo las respuestas no deseadas entre un 39 % y un 52 % en todas las categorías.

«Ahora, esperamos que muchas más personas que luchan contra estas afecciones o que experimentan estas crisis de salud mental tan intensas puedan acceder a ayuda profesional y tengan más probabilidades de recibirla, o de recibirla antes de lo que lo habrían hecho de otra manera», declaró Johannes Heidecke, responsable de sistemas de seguridad de OpenAI, a WIRED.

Aunque OpenAI parece haber logrado que ChatGPT sea más seguro, los datos que compartió presentan limitaciones importantes. La empresa diseñó sus propios parámetros de referencia, y no está claro cómo se traducen estas métricas en resultados reales. Aunque el modelo produjera mejores respuestas en las evaluaciones médicas, no hay forma de saber si los usuarios que experimentan psicosis, pensamientos suicidas o apego emocional poco saludable buscarán ayuda más rápidamente o modificarán su comportamiento.

OpenAI no ha revelado con precisión cómo identifica cuándo los usuarios pueden estar sufriendo angustia mental, pero la empresa afirma que tiene la capacidad de considerar el historial completo de chat de la persona. Por ejemplo, si un usuario que nunca ha hablado de ciencia con ChatGPT afirma repentinamente haber hecho un descubrimiento digno de un Premio Nobel, esto podría ser un indicio de posible pensamiento delirante.

También existen varios factores que parecen compartir los casos reportados de psicosis inducida por IA. Muchas personas que afirman que ChatGPT reforzó sus pensamientos delirantes describen haber pasado horas hablando con el chatbot, a menudo hasta altas horas de la noche. Esto representó un desafío para OpenAI, ya que se ha demostrado que los modelos de lenguaje complejos generalmente pierden rendimiento a medida que las conversaciones se alargan. Sin embargo, la empresa afirma haber logrado avances significativos para abordar este problema.

«Ahora observamos una disminución mucho menor de esta disminución gradual en la fiabilidad a medida que las conversaciones se prolongan», afirma Heidecke. Añade que aún hay margen de mejora.

Actualizado: 28/10/2025, 15:28 PST: Aproximadamente 1,2 millones de usuarios de ChatGPT en una semana típica podrían estar expresando ideas suicidas, y otros 1,2 millones podrían tener dependencia emocional de ChatGPT. Esta noticia se ha actualizado para presentar estas cifras individualmente, en lugar de como un número combinado.

Leer Más
Loading...
Alerta de estafa en Mayo: Estafadores clonan a candidatos presidenciales en videos falsos de inversión.

Incidente 1207: Supuesta falsificación profunda generada por IA de la candidata presidencial del Fine Gael irlandés, Heather Humphreys, utilizada en videos falsos de inversión en plataformas meta.

Traducido por IA
“Alerta de estafa en Mayo: Estafadores clonan a candidatos presidenciales en videos falsos de inversión.”
con-telegraph.ie2025-09-21

Los estafadores ya están utilizando tecnología deepfake para clonar la imagen y la voz de la candidata presidencial Heather Humphreys en vídeos falsos de inversión que circulan online.

El Banco de Irlanda advierte a los consumidores que estén atentos a la aparición de más anuncios de este tipo, principalmente procedentes de plataformas Meta, en las próximas semanas.

El vídeo muestra falsamente a Heather Humphreys respaldando un plan de inversión de alta rentabilidad, con contenido completamente fabricado mediante clonación de voz e imagen mediante IA.

Nicola Sadlier, directora de Fraude del Banco de Irlanda, declaró: «Esto es profundamente preocupante. Estamos presenciando una oleada de estafas que explotan la confianza del público en figuras conocidas.

Estos vídeos son muy convincentes, diseñados para atraer a personas desprevenidas a planes fraudulentos. Insto al público a permanecer alerta, ya que podría haber más en las próximas semanas. Si ve este tipo de contenido, no participe.» Mientras la UE explora nuevas iniciativas para animar a los consumidores a invertir, también debe hacer frente a la creciente ola de estafas en línea que amenazan con socavar la confianza pública.

Un paso fundamental es exigir responsabilidades a las plataformas de redes sociales. Antes de publicar anuncios de servicios financieros, se debería exigir a las plataformas que verifiquen que el anunciante esté autorizado por un organismo regulador reconocido.

Esta simple comprobación podría impedir que miles de promociones fraudulentas lleguen al público.

Se recomienda a los consumidores que ignoren cualquier oferta de inversión no solicitada en línea y que siempre verifiquen los productos financieros a través de su banco o asesor financiero de confianza. Asegúrese de que la empresa de inversión esté regulada consultando el registro del Banco Central de Irlanda (ROI). Si una empresa no figura en la lista, no invierta. El Banco de Irlanda ofrece asistencia telefónica 24/7 para clientes en caso de fraude en el 1800 946 764, disponible todos los días del año.

Leer Más
Loading...
Nada se compara con la realidad: Funcionarios advierten sobre el uso de IA para la regulación de la caza.

Incidente 1251: Supuestos errores en la regulación de la caza generados por IA habrían provocado una citación en Idaho y advertencias de agencias de vida silvestre en varios estados.

Traducido por IA
“Nada se compara con la realidad: Funcionarios advierten sobre el uso de IA para la regulación de la caza.”
spokesman.com2025-10-29

Hay al menos una cosa que la inteligencia artificial aún no está lista para reemplazar:

El humilde folleto de reglamentos de caza.

A principios de este mes, el Departamento de Pesca y Caza de Idaho advirtió a los cazadores que no confiaran en la IA para interpretar las regulaciones estatales de caza y pesca, y que los guardas forestales se habían encontrado con personas en el campo que habían recibido información errónea de la IA.

Roger Phillips, portavoz del Departamento de Pesca y Caza de Idaho, declaró el viernes que el incidente que motivó la advertencia ocurrió en el sureste de Idaho, donde un cazador de aves acuáticas fue sorprendido cazando un día antes de la fecha de apertura.

Al ser interrogado por los guardas, el cazador afirmó haber obtenido la fecha de apertura mediante una búsqueda en línea.

Phillips explicó que los guardas descubrieron que la búsqueda le había proporcionado una respuesta de la IA que extraía información de una propuesta rechazada, no de la decisión final de la agencia ni de su reglamento.

Esto despertó el interés del personal del Departamento de Pesca y Caza de Idaho por investigar qué otros errores cometía la IA. Encontraron varios ejemplos de fallos de los robots. Entre ellos: una búsqueda de normas sobre un río específico en Idaho arrojó resultados para un río con un nombre similar en Arkansas.

Ahí radica el problema, afirmó Phillips.

Sin importar los parámetros de la búsqueda, no siempre se puede confiar en que la IA seleccione la fuente correcta entre las infinitas opciones disponibles en el ciberespacio.

“Tiene un alcance muy amplio”, dijo.

Funcionarios de vida silvestre en otros estados también han detectado problemas con la IA. Autoridades en lugares como Illinois y Maine han advertido a la población sobre el uso de la IA para responder preguntas sobre las normas de caza.

Esta misma semana, el Departamento de Caza y Pesca de Wyoming informó en un comunicado de prensa que la agencia ha sido alertada sobre “varios resultados de búsqueda inexactos generados por IA”.

Según el comunicado, varios de los errores se debieron a proyectos de ley rechazados que figuraban en el sitio web de la Legislatura Estatal de Wyoming. Los resultados de búsqueda creados por la IA hacían referencia a algunos proyectos de ley rechazados como si hubieran sido aprobados y se hubieran convertido en ley.

Aaron Kerr, supervisor de la aplicación de la ley del Departamento de Caza y Pesca de Wyoming, declaró en un comunicado que confiar en información errónea no exime a nadie de las consecuencias de infringir las normas de caza o pesca.

«Los cazadores y pescadores son responsables de cumplir las normas y reglamentos publicados», afirmó Kerr. «El incumplimiento de estos conlleva la posibilidad de multas, penas de cárcel o la suspensión de los privilegios de caza y pesca».

Alan Myers, capitán de policía del Departamento de Pesca y Vida Silvestre de Washington para el este del estado, declaró no tener conocimiento de ningún caso de infracciones relacionadas con interpretaciones de las normas de caza de Washington realizadas por inteligencia artificial.

Sin embargo, la gran cantidad de desinformación en internet es anterior al auge de la inteligencia artificial. Myers indicó que ha habido casos en el pasado en los que la defensa de un cazador o pescador ante una infracción se basó en un resultado de búsqueda erróneo o en algo que había leído en redes sociales.

Phillips atribuye todo esto a la tendencia humana a resolver cualquier problema con una búsqueda en Google.

«Cuando quiero saber si un restaurante está a punto de cerrar, simplemente lo busco en Google», concluyó Phillips. “Nos acostumbramos a hacer estas cosas, y luego, cuando vamos de caza o pesca, solemos llevar esos hábitos con nosotros”.

Google introdujo su herramienta de IA en 2024 y comenzó a ofrecer resúmenes generados por IA en respuesta a numerosas búsquedas. Estos resúmenes ofrecen respuestas rápidas, pero no siempre las correctas, ni con el nivel de detalle que incluyen las normas de caza y pesca.

“Cuando tienes un manual de 125 páginas sobre la normativa de caza mayor que abarca la caza controlada, la caza general, las temporadas de arquería, las temporadas de avancarga y las temporadas de rifle”, dijo Phillips, “es fácil ver cómo la IA se vería rápidamente sobrepasada por la complejidad de las normas de caza”.

Existe al menos una herramienta de IA diseñada para ayudar a las personas a comprender las complejidades de las normas de caza.

Llamada Scout, esta herramienta fue creada por la Asociación Internacional de Educación para Cazadores. Se lanzó el año pasado y permite a los usuarios hacer preguntas específicas a un chatbot sobre las normas y reglamentos de caza en un estado en particular.

Los usuarios seleccionan un estado de un menú desplegable y luego formulan su pregunta. El bot busca en los reglamentos de un estado determinado y ofrece una respuesta. Esta respuesta también cita las páginas de donde proviene la información. El reglamento aparece en un visor de PDF debajo de la respuesta, y el sitio también permite a los usuarios descargar PDFs de cualquier estado.

Lograr que la gente utilice la fuente oficial es la única solución. Incluso los resultados de búsqueda de la IA, a veces erróneos, suelen incluir una advertencia que insta a consultar los reglamentos.

Ningún reglamento abarca todo lo que un cazador o pescador necesita saber. Cada año se crean publicaciones independientes para la pesca, la caza mayor, las aves migratorias, los pavos y más.

Sin embargo, son gratuitas y fáciles de encontrar en línea y en tiendas físicas.

«En cualquier lugar donde se vendan licencias y permisos», dijo Phillips.

Leer Más
Loading...
Jueces federales que utilizaron IA presentaron órdenes judiciales con citas falsas y nombres ficticios.

Incidente 1252: Jueces de Nueva Jersey y Mississippi admiten que las herramientas de IA produjeron documentos judiciales federales erróneos.

Traducido por IA
“Jueces federales que utilizaron IA presentaron órdenes judiciales con citas falsas y nombres ficticios.”
washingtonpost.com2025-10-29

Dos jueces federales de Nueva Jersey y Misisipi admitieron este mes que sus oficinas utilizaron inteligencia artificial para redactar documentos judiciales con errores de hecho, incluyendo citas falsas y litigantes ficticios, lo que provocó una reprimenda del presidente del Comité Judicial del Senado.

"Nunca he visto ni oído hablar de algo así en ningún tribunal federal", declaró el senador Chuck Grassley (republicano por Iowa) en un discurso ante el Senado el lunes.

El comité anunció el jueves que los jueces, Henry T. Wingate del Distrito Sur de Misisipi y Julien Xavier Neals del Distrito de Nueva Jersey, admitieron que sus oficinas utilizaron IA para preparar los documentos plagados de errores durante el verano. Atribuyeron los errores a un asistente legal y a un estudiante de derecho en prácticas, respectivamente, según las cartas que los jueces enviaron en respuesta a una investigación del Senado.

Ambos documentos judiciales defectuosos fueron registrados y tuvieron que ser retirados apresuradamente después de que los demandados alertaran a los jueces sobre los errores. Ninguno de los jueces explicó la causa de los errores hasta que el comité se puso en contacto con ellos.

El uso de inteligencia artificial generativa se ha vuelto más común en el sistema judicial estadounidense. Wingate y Neal se suman a decenas de abogados y litigantes que han sido reprendidos por usar IA para generar documentos legales plagados de errores.

Los grupos jurídicos aún se están poniendo al día. La Oficina Administrativa de los Tribunales de EE. UU., que apoya al sistema judicial federal, emitió en julio una guía provisional que sugiere a los usuarios "considerar si se debe divulgar el uso de IA" en las funciones judiciales. También ha creado un grupo de trabajo para emitir directrices adicionales sobre el uso de IA en los tribunales federales.

Grassley declaró el lunes que los tribunales federales deben establecer normas sobre el uso de IA en los litigios.

"Exhorto a todos los jueces de Estados Unidos a que se tomen este asunto en serio y formalicen medidas para prevenir el mal uso de la inteligencia artificial en sus juzgados", afirmó.

Wingate y Neals indicaron en sus cartas que tomaron medidas correctivas tras ser alertados sobre los errores e implementarán revisiones adicionales de los documentos judiciales antes de su presentación. Neals afirmó haber establecido una política escrita en su despacho que prohíbe el uso de inteligencia artificial generativa en la investigación jurídica o la redacción de documentos judiciales.

Wingate no respondió de inmediato a la solicitud de comentarios. La oficina de Neals declinó hacer comentarios.

Wingate, a quien el presidente Ronald Reagan nombró para el tribunal en 1985, supervisaba un caso presentado por la Federación de Maestros de Jackson y otros grupos de defensa contra la Junta Estatal de Educación de Mississippi y otros organismos estatales. La demanda impugnaba una ley estatal que prohibía a las escuelas públicas impartir "ideología transgénero" y "formación en diversidad" sobre temas de raza, género y orientación sexual.

El 20 de julio, Wingate concedió una orden de restricción temporal que impedía al estado aplicar partes de la prohibición. Dos días después, en una moción de aclaración, los abogados de Mississippi afirmaron que la orden de Wingate estaba plagada de errores.

La orden judicial nombraba a varios demandantes y demandados, entre ellos una hermandad universitaria, un padre de familia de Mississippi, estudiantes y funcionarios gubernamentales, quienes no eran parte del caso, según la respuesta de los abogados de Mississippi. La orden describía alegaciones que no figuraban en la demanda del demandante y citaba falsamente el proyecto de ley como bloqueado, señalaron los abogados. La orden también citaba declaraciones de personas en apoyo de una orden de restricción que no existía.

La oficina de Wingate emitió una orden de restricción corregida esa misma noche e indicó a las partes que ignoraran la anterior. El caso sigue en curso; Wingate concedió una medida cautelar contra el proyecto de ley en agosto, la cual fue apelada por los abogados de Mississippi.

Neals, quien fue designado por el presidente Joe Biden en 2021, emitió una opinión con errores en una demanda colectiva federal por valores contra CorMedix, una compañía farmacéutica, por alegaciones de que engañó a los inversionistas sobre un producto médico.

El 30 de junio, Neals denegó una moción de CorMedix para desestimar la demanda. Aproximadamente un mes después, los abogados de CorMedix escribieron que la opinión de Neals contenía casos inventados y citas inexistentes de casos reales que citaba para fundamentar su fallo. Además, presentaba información errónea sobre los resultados de los casos y sobre si se habían concedido las mociones de apelación para desestimar la demanda. También atribuía citas falsas a CorMedix, según la carta.

La opinión de Neals también se presentó como "autoridad complementaria" en apoyo de otra demanda colectiva, cuyos demandados también plantearon los mismos problemas con su escrito, según la carta.

Neals afirmó que la opinión se emitió por error y la retiró del expediente judicial. El caso sigue en curso.

Los errores en las resoluciones de ambos jueces fueron similares a los causados por las alucinaciones de la IA, donde la IA generativa, que produce texto prediciendo la secuencia de palabras a partir del análisis del contenido escrito, inventa con seguridad hechos y citas falsas. Los observadores rápidamente especularon que los errores provenían del uso de la IA.

Al principio, ante las preguntas de abogados y litigantes, ninguno de los jueces admitió que los errores estuvieran relacionados con la IA. Grassley, en su discurso del lunes, calificó su "falta de transparencia... asombrosa".

Según se informó, el Comité Judicial del Senado se dirigió por escrito a Neals y Wingate a principios de octubre para solicitar información sobre los errores. Ambos jueces respondieron que los errores se debieron a la IA, pero que los documentos presentados eran borradores que se publicaron por error antes de su revisión.

Wingate escribió que un asistente legal de su oficina utilizó la herramienta de IA Perplexity como un "asistente de redacción básico" para sintetizar la información pública disponible en el expediente judicial. Neals escribió que un estudiante de derecho en prácticas utilizó ChatGPT para realizar investigaciones jurídicas.

(The Washington Post tiene acuerdos de colaboración con Perplexity y OpenAI, creador de ChatGPT).

"Gestiono un expediente muy concurrido y me esfuerzo por mantener la confianza pública administrando justicia de manera justa y transparente", escribió Wingate. "Dado que me exijo a mí mismo y a mi personal los más altos estándares de conducta, no espero que un error como este vuelva a ocurrir".

"Si bien mi experiencia en el caso CorMedix fue sumamente desafortunada e imprevisible, espero que, al menos, sirva de base para el trabajo continuo del Grupo de Trabajo de la [Oficina Administrativa de los Tribunales] y, en última instancia, conduzca a nuevas políticas significativas para todos los tribunales federales", escribió Neals.

Leer Más
Loading...
Estudiante estadounidense esposado después de que un sistema de IA aparentemente confundiera una bolsa de papas fritas con un arma

Incidente 1250: Un supuesto falso positivo del sistema de detección de armas Omnilert AI provoca un registro policial en la escuela secundaria del condado de Baltimore.

Traducido por IA
“Estudiante estadounidense esposado después de que un sistema de IA aparentemente confundiera una bolsa de papas fritas con un arma”
theguardian.com2025-10-24

Un sistema de inteligencia artificial (IA) aparentemente confundió la bolsa de Doritos de un estudiante de secundaria con un arma de fuego y llamó a la policía local para informarles que el alumno estaba armado.

Taki Allen estaba sentado con amigos el lunes por la noche afuera de la escuela secundaria Kenwood en Baltimore, comiendo algo, cuando unos policías armados se le acercaron.

"Al principio, no sabía adónde iban hasta que empezaron a caminar hacia mí con armas, diciéndome: '¡Al suelo!', y yo me quedé perplejo", declaró Allen a la cadena de televisión WBAL-TV 11 News.

Allen añadió que lo obligaron a arrodillarse, lo esposaron y lo registraron, sin encontrar nada. Luego le mostraron una copia de la foto que había activado la alerta.

"Solo sostenía una bolsa de Doritos; se veían dos manos con un dedo extendido, y dijeron que parecía un arma", concluyó Allen.

El año pasado, las escuelas secundarias del condado de Baltimore comenzaron a utilizar un sistema de detección de armas que emplea cámaras escolares e inteligencia artificial para detectar posibles armas. Si el sistema detecta algo que considera sospechoso, envía una alerta a la escuela y a las autoridades policiales.

En una carta dirigida a las familias de la escuela, obtenida por WBAL TV 11 News, la escuela escribió: «Comprendemos lo perturbador que fue esto para la persona que fue registrada, así como para los demás estudiantes que presenciaron el incidente. Nuestros consejeros brindarán apoyo directo a los estudiantes involucrados y también están disponibles para hablar con cualquier estudiante que necesite ayuda».

La policía del condado de Baltimore informó al medio: «Agentes de la Comisaría 11-Essex acudieron al instituto Kenwood tras recibir un aviso sobre una persona sospechosa con un arma. Al llegar al lugar, se registró a la persona y se determinó que no portaba ningún arma».

Lamont Davis, abuelo de Allen, declaró a la cadena de televisión: «Nadie quiere que esto le pase a su hijo. Nadie quiere que esto pase».

Este artículo fue corregido el 24 de octubre de 2025. Una versión anterior mostraba la imagen de un vehículo de la policía de la ciudad de Baltimore, si bien el condado de Baltimore no incluye la ciudad de Baltimore.

Leer Más
Enviar URL Rapidamente

Los enlaces enviados se agregan a una cola de revisión para que se resuelvan en un registro de incidente nuevo o existente. Los incidentes enviados con detalles completos se procesan antes que las URL que no poseen los detalles completos.
Acerca de la Base de Datos

La base de datos de incidentes de IA está dedicada a indexar el historial colectivo de daños o casi daños realizados en el mundo real por el despliegue de sistemas de inteligencia artificial. Al igual que bases de datos similares en aviación y seguridad informática, la base de datos de incidentes de IA tiene como objetivo aprender de la experiencia para que podamos prevenir o mitigar los malos resultados.

Estás invitado a enviar informes de incidentes, después de lo cual los envíos se indexarán y se harán visibles para el mundo. La inteligencia artificial solo será un beneficio para las personas y la sociedad si registramos colectivamente y aprendemos de sus fallas. (Más información)

post-image
Researching AI Incidents to Build a Safer Future: The Digital Safety Research Institute partners with the Responsible AI Collaborative

By TheCollab Board of Directors

2024-02-20

The Digital Safety Research Institute (DSRI) of UL Research Institutes is partnering with the Responsible AI Collaborative (TheCollab) to ad...

Leer Más
La Base de Datos en la Prensa

Lea acerca de la base de datos en PAI Blog, Vice News, Venture Beat, Wired y arXiv entre otros puntos de venta.

Arxiv LogoVenture Beat LogoWired LogoVice logoVice logo
Rankings de Reportadores de Incidentes

Estas son las personas y entidades acreditadas con la creación y presentación de informes de incidentes. Hay más detalles disponibles en la página de rankings.

Nuevos incidentes aportados
  • 🥇

    Daniel Atherton

    614
  • 🥈

    Anonymous

    152
  • 🥉

    Khoa Lam

    93
Reportes agregados a Incidentes Existentes
  • 🥇

    Daniel Atherton

    703
  • 🥈

    Khoa Lam

    230
  • 🥉

    Anonymous

    225
Informe total de contribuciones
  • 🥇

    Daniel Atherton

    2813
  • 🥈

    Anonymous

    959
  • 🥉

    Khoa Lam

    456
El Informe de Incidentes de IA
An envelope with a neural net diagram on its left

Create an account to subscribe to new incident notifications and other updates.

Incidentes Aleatorios
Loading...
Predictive Policing Biases of PredPol
Predictive Policing Biases of PredPol
Loading...
Aledo High School Student Allegedly Generates and Distributes Deepfake Nudes of Seven Female Classmates
Aledo High School Student Allegedly Generates and Distributes Deepfake Nudes of Seven Female Classmates
Loading...
ChatGPT Reportedly Introduces Errors in Critical Child Protection Court Report
ChatGPT Reportedly Introduces Errors in Critical Child Protection Court Report
Loading...
Child Sexual Abuse Material Taints Image Generators
Child Sexual Abuse Material Taints Image Generators
Loading...
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court
El Colaborativo de IA Responsable

La base de datos de incidentes de IA es un proyecto de Responsible AI Collaborative, una organización autorizada para promover la base de datos de incidentes de IA. La gobernanza de la Colaborativa se estructura en torno a la participación en su programación de impacto. Para obtener más detalles, lo invitamos a leer el informe de fundación y obtener más información sobre nuestro and learn more on our.

Vea el Formulario 990 de la Colaborativa de IA Responsable y la solicitud de exención de impuestos.

Patrocinador fundador de la organización
Patrocinador fundador de la base de datos
Patrocinadores y subvenciones
Patrocinadores similares

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Project and Community test

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor
  • RAIC AIID Taxonomy Policy

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2023 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • d071502