Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる

インシデント 964: AI-Powered 'Insights' Feature for the Los Angeles Times Allegedly Justifies Ku Klux Klan’s History

概要: The Los Angeles Times removed its AI-generated “insights” feature after it is alleged to have produced a defense of the Ku Klux Klan. The AI reportedly framed the hate group as a product of societal change rather than an extremist movement. The AI tool, developed by Perplexity and promoted by owner Patrick Soon-Shiong, was designed to provide “different views” on opinion pieces.

ツール

新しいレポート新しいレポート新しいレスポンス新しいレスポンス発見する発見する履歴を表示履歴を表示

組織

すべての組織を表示
Alleged: Perplexity developed an AI system deployed by Los Angeles Times と Patrick Soon-Shiong, which harmed Los Angeles Times , Los Angeles Times readers と General public.
関与が疑われるAIシステム: Los Angeles Times insights feature

インシデントのステータス

インシデントID
964
レポート数
1
インシデント発生日
2025-03-04
エディタ

インシデントレポート

レポートタイムライン

+1
MAGA新聞社のオーナーのAIボットがKKKを擁護
MAGA新聞社のオーナーのAIボットがKKKを擁護

MAGA新聞社のオーナーのAIボットがKKKを擁護

thedailybeast.com

MAGA新聞社のオーナーのAIボットがKKKを擁護
thedailybeast.com · 2025
自動翻訳済み

ロサンゼルス・タイムズは、AIを活用した新しい「インサイト」機能をコラムから削除した。このツールがクー・クラックス・クラン(KKK)を擁護しようとしたためだ。

コラムニストのグスタボ・アレラーノ氏の2月25日のコラムは、アナハイム市議会がKKK所属の市議会議員4人を同団体から追放してから100周年を認めなかったことを受けて、アナハイムと同憎悪団体の歴史を振り返った。

アレラーノ氏は、同団体が市内に存在することが同市の歴史に「汚点」を残したと指摘したが、指導者らは「暴政と白人至…

バリアント

「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください

よく似たインシデント

テキスト類似度による

Did our AI mess up? Flag the unrelated incidents

Images of Black People Labeled as Gorillas

When It Comes to Gorillas, Google Photos Remains Blind

Jun 2015 · 24 レポート
Amazon Censors Gay Books

Amazon Censors Gay Books

May 2008 · 24 レポート
Clearview AI Algorithm Built on Photos Scraped from Social Media Profiles without Consent

ACLU Called Clearview AI’s Facial Recognition Accuracy Study “Absurd”

Jun 2017 · 10 レポート
前のインシデント次のインシデント

よく似たインシデント

テキスト類似度による

Did our AI mess up? Flag the unrelated incidents

Images of Black People Labeled as Gorillas

When It Comes to Gorillas, Google Photos Remains Blind

Jun 2015 · 24 レポート
Amazon Censors Gay Books

Amazon Censors Gay Books

May 2008 · 24 レポート
Clearview AI Algorithm Built on Photos Scraped from Social Media Profiles without Consent

ACLU Called Clearview AI’s Facial Recognition Accuracy Study “Absurd”

Jun 2017 · 10 レポート

リサーチ

  • “AIインシデント”の定義
  • “AIインシデントレスポンス”の定義
  • データベースのロードマップ
  • 関連研究
  • 全データベースのダウンロード

プロジェクトとコミュニティ

  • AIIDについて
  • コンタクトとフォロー
  • アプリと要約
  • エディタのためのガイド

インシデント

  • 全インシデントの一覧
  • フラグの立ったインシデント
  • 登録待ち一覧
  • クラスごとの表示
  • 分類法

2023 - AI Incident Database

  • 利用規約
  • プライバシーポリシー
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 8b8f151