Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Bienvenido a
la base de datos de incidentes de IA

Loading...
Alerta de estafa en Mayo: Estafadores clonan a candidatos presidenciales en videos falsos de inversión.

Incidente 1207: Supuesta falsificación profunda generada por IA de la candidata presidencial del Fine Gael irlandés, Heather Humphreys, utilizada en videos falsos de inversión en plataformas meta.

Traducido por IA
“Alerta de estafa en Mayo: Estafadores clonan a candidatos presidenciales en videos falsos de inversión.”Último informe
con-telegraph.ie2025-09-21

Los estafadores ya están utilizando tecnología deepfake para clonar la imagen y la voz de la candidata presidencial Heather Humphreys en vídeos falsos de inversión que circulan online.

El Banco de Irlanda advierte a los consumidores que estén atentos a la aparición de más anuncios de este tipo, principalmente procedentes de plataformas Meta, en las próximas semanas.

El vídeo muestra falsamente a Heather Humphreys respaldando un plan de inversión de alta rentabilidad, con contenido completamente fabricado mediante clonación de voz e imagen mediante IA.

Nicola Sadlier, directora de Fraude del Banco de Irlanda, declaró: «Esto es profundamente preocupante. Estamos presenciando una oleada de estafas que explotan la confianza del público en figuras conocidas.

Estos vídeos son muy convincentes, diseñados para atraer a personas desprevenidas a planes fraudulentos. Insto al público a permanecer alerta, ya que podría haber más en las próximas semanas. Si ve este tipo de contenido, no participe.» Mientras la UE explora nuevas iniciativas para animar a los consumidores a invertir, también debe hacer frente a la creciente ola de estafas en línea que amenazan con socavar la confianza pública.

Un paso fundamental es exigir responsabilidades a las plataformas de redes sociales. Antes de publicar anuncios de servicios financieros, se debería exigir a las plataformas que verifiquen que el anunciante esté autorizado por un organismo regulador reconocido.

Esta simple comprobación podría impedir que miles de promociones fraudulentas lleguen al público.

Se recomienda a los consumidores que ignoren cualquier oferta de inversión no solicitada en línea y que siempre verifiquen los productos financieros a través de su banco o asesor financiero de confianza. Asegúrese de que la empresa de inversión esté regulada consultando el registro del Banco Central de Irlanda (ROI). Si una empresa no figura en la lista, no invierta. El Banco de Irlanda ofrece asistencia telefónica 24/7 para clientes en caso de fraude en el 1800 946 764, disponible todos los días del año.

Leer Más
Loading...
Nada se compara con la realidad: Funcionarios advierten sobre el uso de IA para la regulación de la caza.

Incidente 1251: Supuestos errores en la regulación de la caza generados por IA habrían provocado una citación en Idaho y advertencias de agencias de vida silvestre en varios estados.

Traducido por IA
“Nada se compara con la realidad: Funcionarios advierten sobre el uso de IA para la regulación de la caza.”
spokesman.com2025-10-29

Hay al menos una cosa que la inteligencia artificial aún no está lista para reemplazar:

El humilde folleto de reglamentos de caza.

A principios de este mes, el Departamento de Pesca y Caza de Idaho advirtió a los cazadores que no confiaran en la IA para interpretar las regulaciones estatales de caza y pesca, y que los guardas forestales se habían encontrado con personas en el campo que habían recibido información errónea de la IA.

Roger Phillips, portavoz del Departamento de Pesca y Caza de Idaho, declaró el viernes que el incidente que motivó la advertencia ocurrió en el sureste de Idaho, donde un cazador de aves acuáticas fue sorprendido cazando un día antes de la fecha de apertura.

Al ser interrogado por los guardas, el cazador afirmó haber obtenido la fecha de apertura mediante una búsqueda en línea.

Phillips explicó que los guardas descubrieron que la búsqueda le había proporcionado una respuesta de la IA que extraía información de una propuesta rechazada, no de la decisión final de la agencia ni de su reglamento.

Esto despertó el interés del personal del Departamento de Pesca y Caza de Idaho por investigar qué otros errores cometía la IA. Encontraron varios ejemplos de fallos de los robots. Entre ellos: una búsqueda de normas sobre un río específico en Idaho arrojó resultados para un río con un nombre similar en Arkansas.

Ahí radica el problema, afirmó Phillips.

Sin importar los parámetros de la búsqueda, no siempre se puede confiar en que la IA seleccione la fuente correcta entre las infinitas opciones disponibles en el ciberespacio.

“Tiene un alcance muy amplio”, dijo.

Funcionarios de vida silvestre en otros estados también han detectado problemas con la IA. Autoridades en lugares como Illinois y Maine han advertido a la población sobre el uso de la IA para responder preguntas sobre las normas de caza.

Esta misma semana, el Departamento de Caza y Pesca de Wyoming informó en un comunicado de prensa que la agencia ha sido alertada sobre “varios resultados de búsqueda inexactos generados por IA”.

Según el comunicado, varios de los errores se debieron a proyectos de ley rechazados que figuraban en el sitio web de la Legislatura Estatal de Wyoming. Los resultados de búsqueda creados por la IA hacían referencia a algunos proyectos de ley rechazados como si hubieran sido aprobados y se hubieran convertido en ley.

Aaron Kerr, supervisor de la aplicación de la ley del Departamento de Caza y Pesca de Wyoming, declaró en un comunicado que confiar en información errónea no exime a nadie de las consecuencias de infringir las normas de caza o pesca.

«Los cazadores y pescadores son responsables de cumplir las normas y reglamentos publicados», afirmó Kerr. «El incumplimiento de estos conlleva la posibilidad de multas, penas de cárcel o la suspensión de los privilegios de caza y pesca».

Alan Myers, capitán de policía del Departamento de Pesca y Vida Silvestre de Washington para el este del estado, declaró no tener conocimiento de ningún caso de infracciones relacionadas con interpretaciones de las normas de caza de Washington realizadas por inteligencia artificial.

Sin embargo, la gran cantidad de desinformación en internet es anterior al auge de la inteligencia artificial. Myers indicó que ha habido casos en el pasado en los que la defensa de un cazador o pescador ante una infracción se basó en un resultado de búsqueda erróneo o en algo que había leído en redes sociales.

Phillips atribuye todo esto a la tendencia humana a resolver cualquier problema con una búsqueda en Google.

«Cuando quiero saber si un restaurante está a punto de cerrar, simplemente lo busco en Google», concluyó Phillips. “Nos acostumbramos a hacer estas cosas, y luego, cuando vamos de caza o pesca, solemos llevar esos hábitos con nosotros”.

Google introdujo su herramienta de IA en 2024 y comenzó a ofrecer resúmenes generados por IA en respuesta a numerosas búsquedas. Estos resúmenes ofrecen respuestas rápidas, pero no siempre las correctas, ni con el nivel de detalle que incluyen las normas de caza y pesca.

“Cuando tienes un manual de 125 páginas sobre la normativa de caza mayor que abarca la caza controlada, la caza general, las temporadas de arquería, las temporadas de avancarga y las temporadas de rifle”, dijo Phillips, “es fácil ver cómo la IA se vería rápidamente sobrepasada por la complejidad de las normas de caza”.

Existe al menos una herramienta de IA diseñada para ayudar a las personas a comprender las complejidades de las normas de caza.

Llamada Scout, esta herramienta fue creada por la Asociación Internacional de Educación para Cazadores. Se lanzó el año pasado y permite a los usuarios hacer preguntas específicas a un chatbot sobre las normas y reglamentos de caza en un estado en particular.

Los usuarios seleccionan un estado de un menú desplegable y luego formulan su pregunta. El bot busca en los reglamentos de un estado determinado y ofrece una respuesta. Esta respuesta también cita las páginas de donde proviene la información. El reglamento aparece en un visor de PDF debajo de la respuesta, y el sitio también permite a los usuarios descargar PDFs de cualquier estado.

Lograr que la gente utilice la fuente oficial es la única solución. Incluso los resultados de búsqueda de la IA, a veces erróneos, suelen incluir una advertencia que insta a consultar los reglamentos.

Ningún reglamento abarca todo lo que un cazador o pescador necesita saber. Cada año se crean publicaciones independientes para la pesca, la caza mayor, las aves migratorias, los pavos y más.

Sin embargo, son gratuitas y fáciles de encontrar en línea y en tiendas físicas.

«En cualquier lugar donde se vendan licencias y permisos», dijo Phillips.

Leer Más
Loading...
Jueces federales que utilizaron IA presentaron órdenes judiciales con citas falsas y nombres ficticios.

Incidente 1252: Jueces de Nueva Jersey y Mississippi admiten que las herramientas de IA produjeron documentos judiciales federales erróneos.

Traducido por IA
“Jueces federales que utilizaron IA presentaron órdenes judiciales con citas falsas y nombres ficticios.”
washingtonpost.com2025-10-29

Dos jueces federales de Nueva Jersey y Misisipi admitieron este mes que sus oficinas utilizaron inteligencia artificial para redactar documentos judiciales con errores de hecho, incluyendo citas falsas y litigantes ficticios, lo que provocó una reprimenda del presidente del Comité Judicial del Senado.

"Nunca he visto ni oído hablar de algo así en ningún tribunal federal", declaró el senador Chuck Grassley (republicano por Iowa) en un discurso ante el Senado el lunes.

El comité anunció el jueves que los jueces, Henry T. Wingate del Distrito Sur de Misisipi y Julien Xavier Neals del Distrito de Nueva Jersey, admitieron que sus oficinas utilizaron IA para preparar los documentos plagados de errores durante el verano. Atribuyeron los errores a un asistente legal y a un estudiante de derecho en prácticas, respectivamente, según las cartas que los jueces enviaron en respuesta a una investigación del Senado.

Ambos documentos judiciales defectuosos fueron registrados y tuvieron que ser retirados apresuradamente después de que los demandados alertaran a los jueces sobre los errores. Ninguno de los jueces explicó la causa de los errores hasta que el comité se puso en contacto con ellos.

El uso de inteligencia artificial generativa se ha vuelto más común en el sistema judicial estadounidense. Wingate y Neal se suman a decenas de abogados y litigantes que han sido reprendidos por usar IA para generar documentos legales plagados de errores.

Los grupos jurídicos aún se están poniendo al día. La Oficina Administrativa de los Tribunales de EE. UU., que apoya al sistema judicial federal, emitió en julio una guía provisional que sugiere a los usuarios "considerar si se debe divulgar el uso de IA" en las funciones judiciales. También ha creado un grupo de trabajo para emitir directrices adicionales sobre el uso de IA en los tribunales federales.

Grassley declaró el lunes que los tribunales federales deben establecer normas sobre el uso de IA en los litigios.

"Exhorto a todos los jueces de Estados Unidos a que se tomen este asunto en serio y formalicen medidas para prevenir el mal uso de la inteligencia artificial en sus juzgados", afirmó.

Wingate y Neals indicaron en sus cartas que tomaron medidas correctivas tras ser alertados sobre los errores e implementarán revisiones adicionales de los documentos judiciales antes de su presentación. Neals afirmó haber establecido una política escrita en su despacho que prohíbe el uso de inteligencia artificial generativa en la investigación jurídica o la redacción de documentos judiciales.

Wingate no respondió de inmediato a la solicitud de comentarios. La oficina de Neals declinó hacer comentarios.

Wingate, a quien el presidente Ronald Reagan nombró para el tribunal en 1985, supervisaba un caso presentado por la Federación de Maestros de Jackson y otros grupos de defensa contra la Junta Estatal de Educación de Mississippi y otros organismos estatales. La demanda impugnaba una ley estatal que prohibía a las escuelas públicas impartir "ideología transgénero" y "formación en diversidad" sobre temas de raza, género y orientación sexual.

El 20 de julio, Wingate concedió una orden de restricción temporal que impedía al estado aplicar partes de la prohibición. Dos días después, en una moción de aclaración, los abogados de Mississippi afirmaron que la orden de Wingate estaba plagada de errores.

La orden judicial nombraba a varios demandantes y demandados, entre ellos una hermandad universitaria, un padre de familia de Mississippi, estudiantes y funcionarios gubernamentales, quienes no eran parte del caso, según la respuesta de los abogados de Mississippi. La orden describía alegaciones que no figuraban en la demanda del demandante y citaba falsamente el proyecto de ley como bloqueado, señalaron los abogados. La orden también citaba declaraciones de personas en apoyo de una orden de restricción que no existía.

La oficina de Wingate emitió una orden de restricción corregida esa misma noche e indicó a las partes que ignoraran la anterior. El caso sigue en curso; Wingate concedió una medida cautelar contra el proyecto de ley en agosto, la cual fue apelada por los abogados de Mississippi.

Neals, quien fue designado por el presidente Joe Biden en 2021, emitió una opinión con errores en una demanda colectiva federal por valores contra CorMedix, una compañía farmacéutica, por alegaciones de que engañó a los inversionistas sobre un producto médico.

El 30 de junio, Neals denegó una moción de CorMedix para desestimar la demanda. Aproximadamente un mes después, los abogados de CorMedix escribieron que la opinión de Neals contenía casos inventados y citas inexistentes de casos reales que citaba para fundamentar su fallo. Además, presentaba información errónea sobre los resultados de los casos y sobre si se habían concedido las mociones de apelación para desestimar la demanda. También atribuía citas falsas a CorMedix, según la carta.

La opinión de Neals también se presentó como "autoridad complementaria" en apoyo de otra demanda colectiva, cuyos demandados también plantearon los mismos problemas con su escrito, según la carta.

Neals afirmó que la opinión se emitió por error y la retiró del expediente judicial. El caso sigue en curso.

Los errores en las resoluciones de ambos jueces fueron similares a los causados por las alucinaciones de la IA, donde la IA generativa, que produce texto prediciendo la secuencia de palabras a partir del análisis del contenido escrito, inventa con seguridad hechos y citas falsas. Los observadores rápidamente especularon que los errores provenían del uso de la IA.

Al principio, ante las preguntas de abogados y litigantes, ninguno de los jueces admitió que los errores estuvieran relacionados con la IA. Grassley, en su discurso del lunes, calificó su "falta de transparencia... asombrosa".

Según se informó, el Comité Judicial del Senado se dirigió por escrito a Neals y Wingate a principios de octubre para solicitar información sobre los errores. Ambos jueces respondieron que los errores se debieron a la IA, pero que los documentos presentados eran borradores que se publicaron por error antes de su revisión.

Wingate escribió que un asistente legal de su oficina utilizó la herramienta de IA Perplexity como un "asistente de redacción básico" para sintetizar la información pública disponible en el expediente judicial. Neals escribió que un estudiante de derecho en prácticas utilizó ChatGPT para realizar investigaciones jurídicas.

(The Washington Post tiene acuerdos de colaboración con Perplexity y OpenAI, creador de ChatGPT).

"Gestiono un expediente muy concurrido y me esfuerzo por mantener la confianza pública administrando justicia de manera justa y transparente", escribió Wingate. "Dado que me exijo a mí mismo y a mi personal los más altos estándares de conducta, no espero que un error como este vuelva a ocurrir".

"Si bien mi experiencia en el caso CorMedix fue sumamente desafortunada e imprevisible, espero que, al menos, sirva de base para el trabajo continuo del Grupo de Trabajo de la [Oficina Administrativa de los Tribunales] y, en última instancia, conduzca a nuevas políticas significativas para todos los tribunales federales", escribió Neals.

Leer Más
Loading...
Estudiante estadounidense esposado después de que un sistema de IA aparentemente confundiera una bolsa de papas fritas con un arma

Incidente 1250: Un supuesto falso positivo del sistema de detección de armas Omnilert AI provoca un registro policial en la escuela secundaria del condado de Baltimore.

Traducido por IA
“Estudiante estadounidense esposado después de que un sistema de IA aparentemente confundiera una bolsa de papas fritas con un arma”
theguardian.com2025-10-24

Un sistema de inteligencia artificial (IA) aparentemente confundió la bolsa de Doritos de un estudiante de secundaria con un arma de fuego y llamó a la policía local para informarles que el alumno estaba armado.

Taki Allen estaba sentado con amigos el lunes por la noche afuera de la escuela secundaria Kenwood en Baltimore, comiendo algo, cuando unos policías armados se le acercaron.

"Al principio, no sabía adónde iban hasta que empezaron a caminar hacia mí con armas, diciéndome: '¡Al suelo!', y yo me quedé perplejo", declaró Allen a la cadena de televisión WBAL-TV 11 News.

Allen añadió que lo obligaron a arrodillarse, lo esposaron y lo registraron, sin encontrar nada. Luego le mostraron una copia de la foto que había activado la alerta.

"Solo sostenía una bolsa de Doritos; se veían dos manos con un dedo extendido, y dijeron que parecía un arma", concluyó Allen.

El año pasado, las escuelas secundarias del condado de Baltimore comenzaron a utilizar un sistema de detección de armas que emplea cámaras escolares e inteligencia artificial para detectar posibles armas. Si el sistema detecta algo que considera sospechoso, envía una alerta a la escuela y a las autoridades policiales.

En una carta dirigida a las familias de la escuela, obtenida por WBAL TV 11 News, la escuela escribió: «Comprendemos lo perturbador que fue esto para la persona que fue registrada, así como para los demás estudiantes que presenciaron el incidente. Nuestros consejeros brindarán apoyo directo a los estudiantes involucrados y también están disponibles para hablar con cualquier estudiante que necesite ayuda».

La policía del condado de Baltimore informó al medio: «Agentes de la Comisaría 11-Essex acudieron al instituto Kenwood tras recibir un aviso sobre una persona sospechosa con un arma. Al llegar al lugar, se registró a la persona y se determinó que no portaba ningún arma».

Lamont Davis, abuelo de Allen, declaró a la cadena de televisión: «Nadie quiere que esto le pase a su hijo. Nadie quiere que esto pase».

Este artículo fue corregido el 24 de octubre de 2025. Una versión anterior mostraba la imagen de un vehículo de la policía de la ciudad de Baltimore, si bien el condado de Baltimore no incluye la ciudad de Baltimore.

Leer Más
Loading...
Starbuck contra Meta

Incidente 1247: Meta AI generó afirmaciones supuestamente falsas que vinculaban al activista Robby Starbuck con los disturbios del 6 de enero, lo que provocó una demanda por difamación.

Traducido por IA
“Starbuck contra Meta”
dhillonlaw.com2025-10-22

DOVER, DELAWARE — 28 de abril de 2025 — Hoy, Dhillon Law Group, en representación de Robby Starbuck, cineasta, periodista y activista estadounidense, presentó una demanda por difamación contra Meta Platforms, Inc. (“Meta”) ante el Tribunal Superior de Delaware. La demanda alega que Meta AI, la herramienta de inteligencia artificial de Meta, publicó repetidamente, y continúa publicando, declaraciones demostrablemente falsas y difamatorias que acusan falsamente a Starbuck de participar en los disturbios del Capitolio del 6 de enero y de haber sido arrestado por un delito menor.

Starbuck, quien se encontraba en su domicilio en Tennessee el 6 de enero de 2021, nunca había sido acusado de ningún delito, y mucho menos de la actividad delictiva que Meta AI le atribuyó falsamente. A pesar de las súplicas directas de Starbuck para que Meta se retractara y corrigiera las falsedades, Meta se negó a asumir la responsabilidad. Incluso después de acusar recibo de la demanda legal formal de Starbuck en agosto de 2024, Meta permitió que su IA continuara difamándolo durante meses, ampliando finalmente la narrativa falsa para incluir acusaciones inventadas como el negacionismo del Holocausto y la afirmación de que no era apto para criar a sus propios hijos.

“Este caso subraya el profundo impacto que la IA tiene en la vida de los estadounidenses y la urgente necesidad de responsabilizar a las empresas de IA por difundir falsedades de forma imprudente”, declaró Krista Baughman, socia de Dhillon Law Group. “Con esta demanda, pretendemos sentar un precedente para el desarrollo y la supervisión responsables de la IA, protegiendo al Sr. Starbuck y a todos los consumidores de las devastadoras consecuencias de la desinformación sobre IA sin control”.

“La IA de Meta me difamó maliciosamente, presentándome falsamente como un criminal y negacionista del Holocausto, e incluso después de ser notificada, Meta continuó con su difamación personal”, declaró Robby Starbuck. Esta pesadilla debe terminar. Si Meta quiere llegar a un acuerdo, debe comprometerse a realizar cambios a largo plazo para proteger a todos de la difamación causada por la IA. Este caso deja una línea clara: la IA debe tener barreras de contención. Insto a Mark Zuckerberg y a los líderes de Meta a que reflexionen y solucionen esto por el bien de la próxima generación. Se merecen algo mejor.

La continua publicación de estas mentiras por parte de Meta ha provocado una serie de amenazas de muerte contra Starbuck y su familia, graves daños a su reputación y carrera profesional, y la pérdida de oportunidades comerciales cruciales. La demanda busca daños compensatorios y punitivos, así como medidas cautelares para obligar a Meta a eliminar la información falsa de sus sistemas de IA y evitar daños mayores.

La amenaza de desinformación sobre IA continúa aumentando mientras Meta se prepara para expandir su oferta de productos de IA a decenas de millones de usuarios en todo Estados Unidos.

Leer Más
Enviar URL Rapidamente

Los enlaces enviados se agregan a una cola de revisión para que se resuelvan en un registro de incidente nuevo o existente. Los incidentes enviados con detalles completos se procesan antes que las URL que no poseen los detalles completos.
Acerca de la Base de Datos

La base de datos de incidentes de IA está dedicada a indexar el historial colectivo de daños o casi daños realizados en el mundo real por el despliegue de sistemas de inteligencia artificial. Al igual que bases de datos similares en aviación y seguridad informática, la base de datos de incidentes de IA tiene como objetivo aprender de la experiencia para que podamos prevenir o mitigar los malos resultados.

Estás invitado a enviar informes de incidentes, después de lo cual los envíos se indexarán y se harán visibles para el mundo. La inteligencia artificial solo será un beneficio para las personas y la sociedad si registramos colectivamente y aprendemos de sus fallas. (Más información)

post-image
Researching AI Incidents to Build a Safer Future: The Digital Safety Research Institute partners with the Responsible AI Collaborative

By TheCollab Board of Directors

2024-02-20

The Digital Safety Research Institute (DSRI) of UL Research Institutes is partnering with the Responsible AI Collaborative (TheCollab) to ad...

Leer Más
La Base de Datos en la Prensa

Lea acerca de la base de datos en PAI Blog, Vice News, Venture Beat, Wired y arXiv entre otros puntos de venta.

Arxiv LogoVenture Beat LogoWired LogoVice logoVice logo
Rankings de Reportadores de Incidentes

Estas son las personas y entidades acreditadas con la creación y presentación de informes de incidentes. Hay más detalles disponibles en la página de rankings.

Nuevos incidentes aportados
  • 🥇

    Daniel Atherton

    613
  • 🥈

    Anonymous

    152
  • 🥉

    Khoa Lam

    93
Reportes agregados a Incidentes Existentes
  • 🥇

    Daniel Atherton

    702
  • 🥈

    Khoa Lam

    230
  • 🥉

    Anonymous

    225
Informe total de contribuciones
  • 🥇

    Daniel Atherton

    2812
  • 🥈

    Anonymous

    958
  • 🥉

    Khoa Lam

    456
El Informe de Incidentes de IA
An envelope with a neural net diagram on its left

Create an account to subscribe to new incident notifications and other updates.

Incidentes Aleatorios
Loading...
Predictive Policing Biases of PredPol
Predictive Policing Biases of PredPol
Loading...
Aledo High School Student Allegedly Generates and Distributes Deepfake Nudes of Seven Female Classmates
Aledo High School Student Allegedly Generates and Distributes Deepfake Nudes of Seven Female Classmates
Loading...
ChatGPT Reportedly Introduces Errors in Critical Child Protection Court Report
ChatGPT Reportedly Introduces Errors in Critical Child Protection Court Report
Loading...
Child Sexual Abuse Material Taints Image Generators
Child Sexual Abuse Material Taints Image Generators
Loading...
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court
El Colaborativo de IA Responsable

La base de datos de incidentes de IA es un proyecto de Responsible AI Collaborative, una organización autorizada para promover la base de datos de incidentes de IA. La gobernanza de la Colaborativa se estructura en torno a la participación en su programación de impacto. Para obtener más detalles, lo invitamos a leer el informe de fundación y obtener más información sobre nuestro and learn more on our.

Vea el Formulario 990 de la Colaborativa de IA Responsable y la solicitud de exención de impuestos.

Patrocinador fundador de la organización
Patrocinador fundador de la base de datos
Patrocinadores y subvenciones
Patrocinadores similares

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Project and Community test

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor
  • RAIC AIID Taxonomy Policy

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2023 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 5f34726