Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
組織

LinkedIn users

影響を受けたインシデント

インシデント 1744 Report
Fake LinkedIn Profiles Created Using GAN Photos

2022-02-28

More than a thousand inauthentic LinkedIn profiles using allegedly GAN-generated photos were notified by researchers at Stanford to LinkedIn’s staff, and many of which were removed for violating rules against creating fake profiles and falsifying information.

もっと

インシデント 4693 Report
Automated Adult Content Detection Tools Showed Bias against Women Bodies

2006-02-25

Automated content moderation tools to detect sexual explicitness or "raciness" reportedly exhibited bias against women bodies, resulting in suppression of reach despite not breaking platform policies.

もっと

インシデント 1682 Report
Collaborative Filtering Prone to Popularity Bias, Resulting in Overrepresentation of Popular Items in the Recommendation Outputs

2022-03-01

Collaborative filtering prone to popularity bias, resulting in overrepresentation of popular items in the recommendation outputs.

もっと

関連団体
同じインシデントに関連するその他のエンティティ。たとえば、インシデントの開発者がこのエンティティで、デプロイヤーが別のエンティティである場合、それらは関連エンティティとしてマークされます。
 

Entity

Facebook

開発者と提供者の両方の立場で関わったインシデント
  • インシデント 168
    2 レポート

    Collaborative Filtering Prone to Popularity Bias, Resulting in Overrepresentation of Popular Items in the Recommendation Outputs

Incidents involved as Deployer
  • インシデント 469
    3 レポート

    Automated Adult Content Detection Tools Showed Bias against Women Bodies

もっと
Entity

LinkedIn

開発者と提供者の両方の立場で関わったインシデント
  • インシデント 168
    2 レポート

    Collaborative Filtering Prone to Popularity Bias, Resulting in Overrepresentation of Popular Items in the Recommendation Outputs

Incidents involved as Deployer
  • インシデント 469
    3 レポート

    Automated Adult Content Detection Tools Showed Bias against Women Bodies

もっと
Entity

YouTube

開発者と提供者の両方の立場で関わったインシデント
  • インシデント 168
    2 レポート

    Collaborative Filtering Prone to Popularity Bias, Resulting in Overrepresentation of Popular Items in the Recommendation Outputs

もっと
Entity

Twitter

開発者と提供者の両方の立場で関わったインシデント
  • インシデント 168
    2 レポート

    Collaborative Filtering Prone to Popularity Bias, Resulting in Overrepresentation of Popular Items in the Recommendation Outputs

もっと
Entity

Netflix

開発者と提供者の両方の立場で関わったインシデント
  • インシデント 168
    2 レポート

    Collaborative Filtering Prone to Popularity Bias, Resulting in Overrepresentation of Popular Items in the Recommendation Outputs

もっと
Entity

Facebook users

影響を受けたインシデント
  • インシデント 469
    3 レポート

    Automated Adult Content Detection Tools Showed Bias against Women Bodies

  • インシデント 168
    2 レポート

    Collaborative Filtering Prone to Popularity Bias, Resulting in Overrepresentation of Popular Items in the Recommendation Outputs

もっと
Entity

YouTube users

影響を受けたインシデント
  • インシデント 168
    2 レポート

    Collaborative Filtering Prone to Popularity Bias, Resulting in Overrepresentation of Popular Items in the Recommendation Outputs

もっと
Entity

Twitter Users

影響を受けたインシデント
  • インシデント 168
    2 レポート

    Collaborative Filtering Prone to Popularity Bias, Resulting in Overrepresentation of Popular Items in the Recommendation Outputs

もっと
Entity

Netflix users

影響を受けたインシデント
  • インシデント 168
    2 レポート

    Collaborative Filtering Prone to Popularity Bias, Resulting in Overrepresentation of Popular Items in the Recommendation Outputs

もっと
Entity

unknown

開発者と提供者の両方の立場で関わったインシデント
  • インシデント 174
    4 レポート

    Fake LinkedIn Profiles Created Using GAN Photos

もっと
Entity

Meta

Incidents involved as Deployer
  • インシデント 469
    3 レポート

    Automated Adult Content Detection Tools Showed Bias against Women Bodies

もっと
Entity

Instagram

Incidents involved as Deployer
  • インシデント 469
    3 レポート

    Automated Adult Content Detection Tools Showed Bias against Women Bodies

もっと
Entity

Microsoft

Incidents involved as Developer
  • インシデント 469
    3 レポート

    Automated Adult Content Detection Tools Showed Bias against Women Bodies

もっと
Entity

Google

Incidents involved as Developer
  • インシデント 469
    3 レポート

    Automated Adult Content Detection Tools Showed Bias against Women Bodies

もっと
Entity

Amazon

Incidents involved as Developer
  • インシデント 469
    3 レポート

    Automated Adult Content Detection Tools Showed Bias against Women Bodies

もっと
Entity

Instagram users

影響を受けたインシデント
  • インシデント 469
    3 レポート

    Automated Adult Content Detection Tools Showed Bias against Women Bodies

もっと

リサーチ

  • “AIインシデント”の定義
  • “AIインシデントレスポンス”の定義
  • データベースのロードマップ
  • 関連研究
  • 全データベースのダウンロード

プロジェクトとコミュニティ

  • AIIDについて
  • コンタクトとフォロー
  • アプリと要約
  • エディタのためのガイド

インシデント

  • 全インシデントの一覧
  • フラグの立ったインシデント
  • 登録待ち一覧
  • クラスごとの表示
  • 分類法

2023 - AI Incident Database

  • 利用規約
  • プライバシーポリシー
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 5fc5e5b