Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
組織

Legal system

影響を受けたインシデント

インシデント 96011 Report
Plaintiffs' Lawyers Admit AI Generated Erroneous Case Citations in Federal Court Filing Against Walmart

2025-02-06

Lawyers Rudwin Ayala, T. Michael Morgan (Morgan & Morgan), and Taly Goody (Goody Law Group) were fined a total of $5,000 after their Wyoming federal lawsuit filing against Walmart cited fake cases "hallucinated" by AI. Judge Kelly Rankin sanctioned them, removing Ayala from the case and noting attorneys must verify AI sources. The filing, flagged by Walmart’s legal team, led to its withdrawal and an internal review.

もっと

インシデント 6154 Report
Colorado Lawyer Filed a Motion Citing Hallucinated ChatGPT Cases

2023-06-13

A Colorado Springs attorney, Zachariah Crabill, mistakenly used hallucinated ChatGPT-generated legal cases in court documents. The AI software provided false case citations, leading to the denial of a motion and legal repercussions for Crabill, highlighting risks in using AI for legal research.

もっと

インシデント 7042 Report
Study Highlights Persistent Hallucinations in Legal AI Systems

2024-05-23

Stanford University’s Human-Centered AI Institute (HAI) conducted a study in which they designed a "pre-registered dataset of over 200 open-ended legal queries" to test AI products by LexisNexis (creator of Lexis+ AI) and Thomson Reuters (creator of Westlaw AI-Assisted Research and Ask Practical Law AI). The researchers found that these legal models hallucinate in 1 out of 6 (or more) benchmarking queries.

もっと

関連団体
同じインシデントに関連するその他のエンティティ。たとえば、インシデントの開発者がこのエンティティで、デプロイヤーが別のエンティティである場合、それらは関連エンティティとしてマークされます。
 

Entity

Zachariah Crabill

影響を受けたインシデント
  • インシデント 615
    4 レポート

    Colorado Lawyer Filed a Motion Citing Hallucinated ChatGPT Cases

Incidents involved as Deployer
  • インシデント 615
    4 レポート

    Colorado Lawyer Filed a Motion Citing Hallucinated ChatGPT Cases

もっと
Entity

OpenAI

Incidents involved as Developer
  • インシデント 615
    4 レポート

    Colorado Lawyer Filed a Motion Citing Hallucinated ChatGPT Cases

もっと
Entity

ChatGPT

Incidents involved as Developer
  • インシデント 615
    4 レポート

    Colorado Lawyer Filed a Motion Citing Hallucinated ChatGPT Cases

もっと
Entity

Zachariah Crabill's client

影響を受けたインシデント
  • インシデント 615
    4 レポート

    Colorado Lawyer Filed a Motion Citing Hallucinated ChatGPT Cases

もっと
Entity

Legal professionals

影響を受けたインシデント
  • インシデント 704
    2 レポート

    Study Highlights Persistent Hallucinations in Legal AI Systems

Incidents involved as Deployer
  • インシデント 704
    2 レポート

    Study Highlights Persistent Hallucinations in Legal AI Systems

もっと
Entity

Law firms

Incidents involved as Deployer
  • インシデント 704
    2 レポート

    Study Highlights Persistent Hallucinations in Legal AI Systems

もっと
Entity

Organizations requiring legal research

Incidents involved as Deployer
  • インシデント 704
    2 レポート

    Study Highlights Persistent Hallucinations in Legal AI Systems

もっと
Entity

Thomson Reuters

Incidents involved as Developer
  • インシデント 704
    2 レポート

    Study Highlights Persistent Hallucinations in Legal AI Systems

もっと
Entity

LexisNexis

Incidents involved as Developer
  • インシデント 704
    2 レポート

    Study Highlights Persistent Hallucinations in Legal AI Systems

もっと
Entity

Clients of lawyers

影響を受けたインシデント
  • インシデント 704
    2 レポート

    Study Highlights Persistent Hallucinations in Legal AI Systems

もっと
Entity

Taly Goody

影響を受けたインシデント
  • インシデント 960
    11 レポート

    Plaintiffs' Lawyers Admit AI Generated Erroneous Case Citations in Federal Court Filing Against Walmart

Incidents involved as Deployer
  • インシデント 960
    11 レポート

    Plaintiffs' Lawyers Admit AI Generated Erroneous Case Citations in Federal Court Filing Against Walmart

もっと
Entity

T. Michael Morgan

影響を受けたインシデント
  • インシデント 960
    11 レポート

    Plaintiffs' Lawyers Admit AI Generated Erroneous Case Citations in Federal Court Filing Against Walmart

Incidents involved as Deployer
  • インシデント 960
    11 レポート

    Plaintiffs' Lawyers Admit AI Generated Erroneous Case Citations in Federal Court Filing Against Walmart

もっと
Entity

Rudwin Ayala

影響を受けたインシデント
  • インシデント 960
    11 レポート

    Plaintiffs' Lawyers Admit AI Generated Erroneous Case Citations in Federal Court Filing Against Walmart

Incidents involved as Deployer
  • インシデント 960
    11 レポート

    Plaintiffs' Lawyers Admit AI Generated Erroneous Case Citations in Federal Court Filing Against Walmart

もっと
Entity

Morgan & Morgan

Incidents involved as Deployer
  • インシデント 960
    11 レポート

    Plaintiffs' Lawyers Admit AI Generated Erroneous Case Citations in Federal Court Filing Against Walmart

もっと
Entity

Goody Law Group

Incidents involved as Deployer
  • インシデント 960
    11 レポート

    Plaintiffs' Lawyers Admit AI Generated Erroneous Case Citations in Federal Court Filing Against Walmart

もっと
Entity

Unspecified large language model developer

Incidents involved as Developer
  • インシデント 960
    11 レポート

    Plaintiffs' Lawyers Admit AI Generated Erroneous Case Citations in Federal Court Filing Against Walmart

もっと
Entity

Plaintiffs in Wyoming Walmart Hoverboard Lawsuit

影響を受けたインシデント
  • インシデント 960
    11 レポート

    Plaintiffs' Lawyers Admit AI Generated Erroneous Case Citations in Federal Court Filing Against Walmart

もっと
Entity

Judicial integrity

影響を受けたインシデント
  • インシデント 960
    11 レポート

    Plaintiffs' Lawyers Admit AI Generated Erroneous Case Citations in Federal Court Filing Against Walmart

もっと
Entity

Clients of Morgan & Morgan

影響を受けたインシデント
  • インシデント 960
    11 レポート

    Plaintiffs' Lawyers Admit AI Generated Erroneous Case Citations in Federal Court Filing Against Walmart

もっと
Entity

Clients of Goody Law Group

影響を受けたインシデント
  • インシデント 960
    11 レポート

    Plaintiffs' Lawyers Admit AI Generated Erroneous Case Citations in Federal Court Filing Against Walmart

もっと
Entity

Unspecified large language model

Incidents implicated systems
  • インシデント 960
    11 レポート

    Plaintiffs' Lawyers Admit AI Generated Erroneous Case Citations in Federal Court Filing Against Walmart

もっと

リサーチ

  • “AIインシデント”の定義
  • “AIインシデントレスポンス”の定義
  • データベースのロードマップ
  • 関連研究
  • 全データベースのダウンロード

プロジェクトとコミュニティ

  • AIIDについて
  • コンタクトとフォロー
  • アプリと要約
  • エディタのためのガイド

インシデント

  • 全インシデントの一覧
  • フラグの立ったインシデント
  • 登録待ち一覧
  • クラスごとの表示
  • 分類法

2023 - AI Incident Database

  • 利用規約
  • プライバシーポリシー
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 5fc5e5b