Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Incident 960: Plaintiffs' Lawyers Admit AI Generated Erroneous Case Citations in Federal Court Filing Against Walmart

Description: Lawyers Rudwin Ayala, T. Michael Morgan (Morgan & Morgan), and Taly Goody (Goody Law Group) were fined a total of $5,000 after their Wyoming federal lawsuit filing against Walmart cited fake cases "hallucinated" by AI. Judge Kelly Rankin sanctioned them, removing Ayala from the case and noting attorneys must verify AI sources. The filing, flagged by Walmart’s legal team, led to its withdrawal and an internal review.
Editor Notes: Judge Kelly Rankin's "Order to Show Cause Why Plaintiffs’ Attorneys Should Not Be Sanctioned or Other Disciplinary Action Should Not Issue" of February 6th, 2025 can be accessed at the following URL: https://storage.courtlistener.com/recap/gov.uscourts.wyd.64014/gov.uscourts.wyd.64014.156.0_1.pdf. The later "Order on Sanctions and Other Disciplinary Action" of February 24th, 2025 can be accessed here: https://storage.courtlistener.com/recap/gov.uscourts.wyd.64014/gov.uscourts.wyd.64014.181.0_1.pdf.

Outils

Nouveau rapportNouveau rapportNouvelle RéponseNouvelle RéponseDécouvrirDécouvrirVoir l'historiqueVoir l'historique

Entités

Voir toutes les entités
Alleged: Unspecified large language model developer developed an AI system deployed by Taly Goody , T. Michael Morgan , Rudwin Ayala , Morgan & Morgan et Goody Law Group, which harmed Taly Goody , T. Michael Morgan , Rudwin Ayala , Plaintiffs in Wyoming Walmart Hoverboard Lawsuit , Legal system , Judicial integrity , Clients of Morgan & Morgan et Clients of Goody Law Group.
Système d'IA présumé impliqué: Unspecified large language model

Statistiques d'incidents

ID
960
Nombre de rapports
11
Date de l'incident
2025-02-06
Editeurs

Rapports d'incidents

Chronologie du rapport

+1
L’échec de ChatGPT pour un grand cabinet d’avocats
L'erreur de ChatGPT frappe le plus grand cabinet d'avocats américain spécialisé dans les dommages corporels+1
Les avocats impliqués dans le procès contre Walmart admettent que l'IA a « halluciné » les citations des affaires
Les avocats admettent que l'IA a « halluciné » des affaires dans une requête déposée contre WalmartL'IA qui invente des dossiers peut entraîner le licenciement d'avocats, prévient un cabinet d'avocats scandalisé+3
Un juge inflige une amende aux avocats dans le cadre d'un procès contre Walmart pour de fausses affaires générées par l'IA
Un avocat renvoyé de l'affaire après avoir soumis un faux mémoire généré par l'IA
L’échec de ChatGPT pour un grand cabinet d’avocats

L’échec de ChatGPT pour un grand cabinet d’avocats

davidlat.substack.com

L'erreur de ChatGPT frappe le plus grand cabinet d'avocats américain spécialisé dans les dommages corporels

L'erreur de ChatGPT frappe le plus grand cabinet d'avocats américain spécialisé dans les dommages corporels

lawfuel.com

Les avocats impliqués dans le procès contre Walmart admettent que l'IA a « halluciné » les citations des affaires

Les avocats impliqués dans le procès contre Walmart admettent que l'IA a « halluciné » les citations des affaires

reuters.com

Le 42e cabinet d'avocats en termes d'effectifs a été sanctionné pour de fausses citations de cas générées par l'IA

Le 42e cabinet d'avocats en termes d'effectifs a été sanctionné pour de fausses citations de cas générées par l'IA

abajournal.com

Les avocats admettent que l'IA a « halluciné » des affaires dans une requête déposée contre Walmart

Les avocats admettent que l'IA a « halluciné » des affaires dans une requête déposée contre Walmart

5newsonline.com

L'IA qui invente des dossiers peut entraîner le licenciement d'avocats, prévient un cabinet d'avocats scandalisé

L'IA qui invente des dossiers peut entraîner le licenciement d'avocats, prévient un cabinet d'avocats scandalisé

arstechnica.com

Un juge inflige une amende aux avocats dans le cadre d'un procès contre Walmart pour de fausses affaires générées par l'IA

Un juge inflige une amende aux avocats dans le cadre d'un procès contre Walmart pour de fausses affaires générées par l'IA

reuters.com

Sanctions contre les avocats qui ont déposé une requête contenant des cas hallucinés par l'IA

Sanctions contre les avocats qui ont déposé une requête contenant des cas hallucinés par l'IA

reason.com

Un juge fédéral sanctionne les avocats de Morgan & Morgan pour avoir généré de fausses affaires par l'IA dans un dossier judiciaire

Un juge fédéral sanctionne les avocats de Morgan & Morgan pour avoir généré de fausses affaires par l'IA dans un dossier judiciaire

lawnext.com

Échec de l'IA : les avocats de Morgan & Morgan citent 8 cas fictifs, grâce à un chatbot | Commentaire

Échec de l'IA : les avocats de Morgan & Morgan citent 8 cas fictifs, grâce à un chatbot | Commentaire

orlandosentinel.com

Un avocat renvoyé de l'affaire après avoir soumis un faux mémoire généré par l'IA

Un avocat renvoyé de l'affaire après avoir soumis un faux mémoire généré par l'IA

washingtontimes.com

L’échec de ChatGPT pour un grand cabinet d’avocats
davidlat.substack.com · 2025
Traduit par IA

Nous connaissons tous la tristement célèbre histoire des avocats qui ont déposé un dossier rempli de fausses affaires, grâce à ChatGPT, l’outil d’IA qui a inventé ou « halluciné » les fausses citations. Au final, le juge Kevin Castel (S.D.N…

L'erreur de ChatGPT frappe le plus grand cabinet d'avocats américain spécialisé dans les dommages corporels
lawfuel.com · 2025
Traduit par IA

Le jugement de la profession juridique sur ChatGPT ne se limite plus aux faux pas des petits cabinets. Dans un exemple frappant de la façon dont l’IA peut conduire les avocats dans de nombreux ennuis, les avocats de Morgan & Morgan – le plu…

Les avocats impliqués dans le procès contre Walmart admettent que l'IA a « halluciné » les citations des affaires
reuters.com · 2025
Traduit par IA

10 février (Reuters) - Les avocats représentant les plaignants dans un procès contre Walmart (WMT.N), ouvre un nouvel onglet pour des blessures présumées causées par un jouet hoverboard défectueux ont déclaré lundi qu'ils avaient par inadve…

Le 42e cabinet d'avocats en termes d'effectifs a été sanctionné pour de fausses citations de cas générées par l'IA
abajournal.com · 2025
Traduit par IA

Mise à jour : Les avocats du cabinet d'avocats Morgan & Morgan ont été sanctionnés pour une requête qui citait huit cas inexistants, dont au moins certains étaient apparemment générés par l'intelligence artificielle.

La juge de district amé…

Les avocats admettent que l'IA a « halluciné » des affaires dans une requête déposée contre Walmart
5newsonline.com · 2025
Traduit par IA

WYOMING, USA — Les avocats représentant une famille du Wyoming dans un procès contre Walmart et Jetson Electric Bikes ont admis avoir utilisé l'intelligence artificielle pour générer une requête préliminaire après qu'un juge fédéral a décla…

L'IA qui invente des dossiers peut entraîner le licenciement d'avocats, prévient un cabinet d'avocats scandalisé
arstechnica.com · 2025
Traduit par IA

Morgan & Morgan, qui se présente comme « le plus grand cabinet d'avocats spécialisé dans les dommages corporels aux États-Unis » qui se bat « pour le peuple », a appris à ses dépens ce mois-ci que même un avocat citant aveuglément une juris…

Un juge inflige une amende aux avocats dans le cadre d'un procès contre Walmart pour de fausses affaires générées par l'IA
reuters.com · 2025
Traduit par IA

25 février (Reuters) - Trois avocats poursuivant Walmart pour préjudice corporel doivent payer des amendes totalisant 5 000 dollars pour avoir cité de faux cas générés par l'intelligence artificielle dans un dossier judiciaire, a décidé un …

Sanctions contre les avocats qui ont déposé une requête contenant des cas hallucinés par l'IA
reason.com · 2025
Traduit par IA

Extrait de l'ordonnance du juge Kelly Rankin sur les sanctions et autres mesures disciplinaires déposée hier dans Wadsworth v. Walmart Inc. (D. Wyo.) :

La recherche juridique s'est améliorée au fil du temps, passant de l'utilisation de liv…

Un juge fédéral sanctionne les avocats de Morgan & Morgan pour avoir généré de fausses affaires par l'IA dans un dossier judiciaire
lawnext.com · 2025
Traduit par IA

Vous avez peut-être entendu la nouvelle plus tôt ce mois-ci selon laquelle les avocats du cabinet d'avocats Morgan & Morgan — le 42e plus grand cabinet d'avocats américain en termes d'effectifs — étaient confrontés à des sanctions pour avoi…

Échec de l'IA : les avocats de Morgan & Morgan citent 8 cas fictifs, grâce à un chatbot | Commentaire
orlandosentinel.com · 2025
Traduit par IA

Si vous avez des doutes sur le pouvoir et les pièges de l’intelligence artificielle, j’ai une affaire judiciaire qui vous fait frémir.

Il s’agit du célèbre cabinet d’avocats Morgan & Morgan qui a déposé un mémoire juridique citant neuf cas …

Un avocat renvoyé de l'affaire après avoir soumis un faux mémoire généré par l'IA
washingtontimes.com · 2025
Traduit par IA

Un juge a renvoyé un avocat d'une affaire après qu'il a soumis un mémoire contenant de fausses citations de cas fabriquées par l'intelligence artificielle.

Le juge de district américain Kelly H. Rankin a également infligé une amende de 3 00…

Variantes

Une "Variante" est un incident qui partage les mêmes facteurs de causalité, produit des dommages similaires et implique les mêmes systèmes intelligents qu'un incident d'IA connu. Plutôt que d'indexer les variantes comme des incidents entièrement distincts, nous listons les variations d'incidents sous le premier incident similaire soumis à la base de données. Contrairement aux autres types de soumission à la base de données des incidents, les variantes ne sont pas tenues d'avoir des rapports en preuve externes à la base de données des incidents. En savoir plus sur le document de recherche.

Incidents similaires

Par similarité textuelle

Did our AI mess up? Flag the unrelated incidents

Northpointe Risk Models

Machine Bias - ProPublica

May 2016 · 15 rapports
Defamation via AutoComplete

Algorithmic Defamation: The Case of the Shameless Autocomplete

Apr 2011 · 28 rapports
Employee Automatically Terminated by Computer Program

The man who was fired by a machine

Oct 2014 · 20 rapports
Incident précédentProchain incident

Incidents similaires

Par similarité textuelle

Did our AI mess up? Flag the unrelated incidents

Northpointe Risk Models

Machine Bias - ProPublica

May 2016 · 15 rapports
Defamation via AutoComplete

Algorithmic Defamation: The Case of the Shameless Autocomplete

Apr 2011 · 28 rapports
Employee Automatically Terminated by Computer Program

The man who was fired by a machine

Oct 2014 · 20 rapports

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2023 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • f28fa7c