Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Incidente 960: Plaintiffs' Lawyers Admit AI Generated Erroneous Case Citations in Federal Court Filing Against Walmart

Descripción: Lawyers Rudwin Ayala, T. Michael Morgan (Morgan & Morgan), and Taly Goody (Goody Law Group) were fined a total of $5,000 after their Wyoming federal lawsuit filing against Walmart cited fake cases "hallucinated" by AI. Judge Kelly Rankin sanctioned them, removing Ayala from the case and noting attorneys must verify AI sources. The filing, flagged by Walmart’s legal team, led to its withdrawal and an internal review.
Editor Notes: Judge Kelly Rankin's "Order to Show Cause Why Plaintiffs’ Attorneys Should Not Be Sanctioned or Other Disciplinary Action Should Not Issue" of February 6th, 2025 can be accessed at the following URL: https://storage.courtlistener.com/recap/gov.uscourts.wyd.64014/gov.uscourts.wyd.64014.156.0_1.pdf. The later "Order on Sanctions and Other Disciplinary Action" of February 24th, 2025 can be accessed here: https://storage.courtlistener.com/recap/gov.uscourts.wyd.64014/gov.uscourts.wyd.64014.181.0_1.pdf.

Herramientas

Nuevo InformeNuevo InformeNueva RespuestaNueva RespuestaDescubrirDescubrirVer HistorialVer Historial

Entidades

Ver todas las entidades
Alleged: Unspecified large language model developer developed an AI system deployed by Taly Goody , T. Michael Morgan , Rudwin Ayala , Morgan & Morgan y Goody Law Group, which harmed Taly Goody , T. Michael Morgan , Rudwin Ayala , Plaintiffs in Wyoming Walmart Hoverboard Lawsuit , Legal system , Judicial integrity , Clients of Morgan & Morgan y Clients of Goody Law Group.
Sistema de IA presuntamente implicado: Unspecified large language model

Estadísticas de incidentes

ID
960
Cantidad de informes
11
Fecha del Incidente
2025-02-06
Editores

Informes del Incidente

Cronología de Informes

+1
Fallo de ChatGPT en un importante bufete de abogados
El error de ChatGPT afecta a la firma de lesiones más grande de Estados Unidos+1
Los abogados en la demanda contra Walmart admiten que la IA "alucinó" las citas del caso
Abogados admiten que IA “alucinó” casos presentados contra WalmartUna IA que inventa casos puede hacer que despidan a los abogados, advierte un bufete escandalizado+3
Sanciones a abogados por presentar mociones que incluyan casos alucinados por IA
Abogado expulsado del caso tras presentar un escrito falso generado por IA
Fallo de ChatGPT en un importante bufete de abogados

Fallo de ChatGPT en un importante bufete de abogados

davidlat.substack.com

El error de ChatGPT afecta a la firma de lesiones más grande de Estados Unidos

El error de ChatGPT afecta a la firma de lesiones más grande de Estados Unidos

lawfuel.com

Los abogados en la demanda contra Walmart admiten que la IA "alucinó" las citas del caso

Los abogados en la demanda contra Walmart admiten que la IA "alucinó" las citas del caso

reuters.com

Despacho de abogados número 42 por número de empleados sancionado por citaciones de casos falsos generadas por IA

Despacho de abogados número 42 por número de empleados sancionado por citaciones de casos falsos generadas por IA

abajournal.com

Abogados admiten que IA “alucinó” casos presentados contra Walmart

Abogados admiten que IA “alucinó” casos presentados contra Walmart

5newsonline.com

Una IA que inventa casos puede hacer que despidan a los abogados, advierte un bufete escandalizado

Una IA que inventa casos puede hacer que despidan a los abogados, advierte un bufete escandalizado

arstechnica.com

Sanciones a abogados por presentar mociones que incluyan casos alucinados por IA

Sanciones a abogados por presentar mociones que incluyan casos alucinados por IA

reason.com

Juez multa a abogados en demanda contra Walmart por casos falsos generados con inteligencia artificial

Juez multa a abogados en demanda contra Walmart por casos falsos generados con inteligencia artificial

reuters.com

Juez federal sanciona a abogados de Morgan & Morgan por casos falsos generados con inteligencia artificial en presentación judicial

Juez federal sanciona a abogados de Morgan & Morgan por casos falsos generados con inteligencia artificial en presentación judicial

lawnext.com

Fallo de inteligencia artificial: los abogados de Morgan & Morgan citan ocho casos ficticios gracias a un chatbot | Comentario

Fallo de inteligencia artificial: los abogados de Morgan & Morgan citan ocho casos ficticios gracias a un chatbot | Comentario

orlandosentinel.com

Abogado expulsado del caso tras presentar un escrito falso generado por IA

Abogado expulsado del caso tras presentar un escrito falso generado por IA

washingtontimes.com

Fallo de ChatGPT en un importante bufete de abogados
davidlat.substack.com · 2025
Traducido por IA

Todos conocemos la tristemente célebre historia de los abogados que presentaron un escrito lleno de casos inexistentes, cortesía de ChatGPT, la herramienta de inteligencia artificial que inventó, también conocida como “alucinación”, las cit…

El error de ChatGPT afecta a la firma de lesiones más grande de Estados Unidos
lawfuel.com · 2025
Traducido por IA

El ajuste de cuentas de la profesión jurídica con ChatGPT ha ido más allá de los errores de las pequeñas empresas. En un ejemplo sorprendente de cómo la IA puede llevar a los abogados a un montón de líos, los abogados de Morgan & Morgan (la…

Los abogados en la demanda contra Walmart admiten que la IA "alucinó" las citas del caso
reuters.com · 2025
Traducido por IA

10 feb (Reuters) - Los abogados que representan a los demandantes en una demanda contra Walmart (WMT.N), abre nueva pestaña por supuestas lesiones causadas por un juguete defectuoso dijeron el lunes que, sin darse cuenta, incluyeron casos i…

Despacho de abogados número 42 por número de empleados sancionado por citaciones de casos falsos generadas por IA
abajournal.com · 2025
Traducido por IA

Actualizado: Los abogados del bufete de abogados de los demandantes Morgan & Morgan han sido sancionados por una moción que citaba ocho casos inexistentes, al menos algunos de los cuales aparentemente fueron generados por inteligencia artif…

Abogados admiten que IA “alucinó” casos presentados contra Walmart
5newsonline.com · 2025
Traducido por IA

WYOMING, EE. UU. — Los abogados que representan a una familia de Wyoming en una demanda contra Walmart y Jetson Electric Bikes admitieron haber usado inteligencia artificial para generar una moción previa al juicio después de que un juez fe…

Una IA que inventa casos puede hacer que despidan a los abogados, advierte un bufete escandalizado
arstechnica.com · 2025
Traducido por IA

Morgan & Morgan, que se autodenomina "el bufete de abogados especializado en lesiones más grande de Estados Unidos" que lucha "por la gente", aprendió a las malas este mes que incluso un solo abogado que cite ciegamente una jurisprudencia g…

Sanciones a abogados por presentar mociones que incluyan casos alucinados por IA
reason.com · 2025
Traducido por IA

De la Orden de la jueza Kelly Rankin sobre sanciones y otras medidas disciplinarias presentada ayer en Wadsworth v. Walmart Inc. (D. Wyo.):

La investigación jurídica ha mejorado con el tiempo, pasando del uso de libros de resumen a bases d…

Juez multa a abogados en demanda contra Walmart por casos falsos generados con inteligencia artificial
reuters.com · 2025
Traducido por IA

25 feb (Reuters) - Tres abogados que demandaron a Walmart por lesiones personales deben pagar multas por un total de 5.000 dólares por citar casos falsos generados por inteligencia artificial en una presentación judicial, dictaminó un juez …

Juez federal sanciona a abogados de Morgan & Morgan por casos falsos generados con inteligencia artificial en presentación judicial
lawnext.com · 2025
Traducido por IA

Es posible que haya escuchado la noticia a principios de este mes de que los abogados del bufete de abogados de los demandantes Morgan & Morgan (el 42.º bufete de abogados más grande de Estados Unidos por número de empleados) se enfrentaban…

Fallo de inteligencia artificial: los abogados de Morgan & Morgan citan ocho casos ficticios gracias a un chatbot | Comentario
orlandosentinel.com · 2025
Traducido por IA

Si tiene alguna duda sobre el poder y los peligros de la inteligencia artificial, tengo un caso judicial que le dará escalofríos.

Se trata de la conocida firma de abogados Morgan & Morgan, que presentó un escrito legal que citaba nueve caso…

Abogado expulsado del caso tras presentar un escrito falso generado por IA
washingtontimes.com · 2025
Traducido por IA

Un juez expulsó a un abogado de un caso después de que presentó un escrito que contenía citas de casos falsos inventados por inteligencia artificial.

El juez de distrito de EE. UU. Kelly H. Rankin también impuso una multa de $3000 al abogad…

Variantes

Una "Variante" es un incidente que comparte los mismos factores causales, produce daños similares e involucra los mismos sistemas inteligentes que un incidente de IA conocido. En lugar de indexar las variantes como incidentes completamente separados, enumeramos las variaciones de los incidentes bajo el primer incidente similar enviado a la base de datos. A diferencia de otros tipos de envío a la base de datos de incidentes, no se requiere que las variantes tengan informes como evidencia externa a la base de datos de incidentes. Obtenga más información del trabajo de investigación.

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Northpointe Risk Models

Machine Bias - ProPublica

May 2016 · 15 informes
Defamation via AutoComplete

Algorithmic Defamation: The Case of the Shameless Autocomplete

Apr 2011 · 28 informes
Employee Automatically Terminated by Computer Program

The man who was fired by a machine

Oct 2014 · 20 informes
Incidente AnteriorSiguiente Incidente

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Northpointe Risk Models

Machine Bias - ProPublica

May 2016 · 15 informes
Defamation via AutoComplete

Algorithmic Defamation: The Case of the Shameless Autocomplete

Apr 2011 · 28 informes
Employee Automatically Terminated by Computer Program

The man who was fired by a machine

Oct 2014 · 20 informes

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2023 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 30ebe76