Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる

CSETv0

GMF分類とは何か?

GMF(Goals, Methods, and Failures:目標、方法、失敗)分類は、システムの展開の目標、システムの方法、およびそれらの可能性のある失敗を相互に関連付ける失敗原因分析分類です。 このプロセスの詳細は、SafeAI論文で最近発表された作業で利用可能です。

分類をどのように探索しますか?

すべての分類は、Discoverアプリケーション内でインシデントレポートをフィルタリングするために使用できます。分類フィルターは、Eコマースウェブサイトで製品をフィルタリングする方法と同様に機能します。「分類」タブの下部にある検索フィールドを使用して、フィルタリングしたい分類フィールドを見つけ、希望する値をクリックしてフィルターを適用します。

責任あるAIコラボレーションについて

AIインシデントデータベースは、多くの人々と組織の共同プロジェクトです。この特定の分類に貢献している人々と組織の詳細はここに表示されますが、コラボ自体については、インシデントデータベースのホームページおよび約ページで詳しく知ることができます。

この分類のメンテナーには、以下の方々が含まれます。

  • Nikiforos Pittaras
  • Sean McGregor

分類フィールド

Overall severity of harm Discoverアプリケーションで検索可能

発見する:
  • Negligible
    46 インシデント
  • Minor
    18 インシデント
  • Unclear/unknown
    16 インシデント
  • Moderate
    12 インシデント
  • Severe
    6 インシデント

定義: An estimate of the overall severity of harm caused. "Negligible" harm means minor inconvenience or expense, easily remedied. “Minor” harm means limited damage to property, social stability, the political system, or civil liberties occurred or nearly occurred. "Moderate" harm means that humans were injured (but not killed) or nearly injured, or that financial, property, social, or political interests or civil liberties were materially affected (or nearly so affected). "Severe" harm means that a small number of humans were or were almost gravely injured or killed, or that financial, property, social, or political interests or civil liberties were significantly disrupted at at least a regional or national scale (or nearly so disrupted). "Critical" harm means that many humans were or were almost killed, or that financial, property, social, or political interests were seriously disrupted at a national or global scale (or nearly so disrupted).

Uneven distribution of harms basis Discoverアプリケーションで検索可能

発見する:
  • Race
    23 インシデント
  • Sex
    13 インシデント
  • Religion
    6 インシデント
  • National origin or immigrant status
    6 インシデント
  • Age
    5 インシデント

定義: If harms were unevenly distributed, this field indicates the basis or bases on which they were unevenly distributed.

Harm type Discoverアプリケーションで検索可能

発見する:
  • Harm to social or political systems
    19 インシデント
  • Psychological harm
    17 インシデント
  • Harm to physical health/safety
    17 インシデント
  • Harm to civil liberties
    16 インシデント
  • Financial harm
    12 インシデント

定義: Indicates the type(s) of harm caused or nearly caused by the incident.

System developer Discoverアプリケーションで検索可能

発見する:
  • Google
    17 インシデント
  • Amazon
    6 インシデント
  • Facebook
    4 インシデント
  • Tesla
    4 インシデント
  • Apple
    3 インシデント

定義: The entity that created the AI system.

Sector of deployment Discoverアプリケーションで検索可能

発見する:
  • 情報通信業
    25 インシデント
  • 芸術・娯楽及びレクリエーション
    13 インシデント
  • 運輸・保管業
    13 インシデント
  • 公務及び国防
    12 インシデント
  • 管理・支援サービス業
    7 インシデント

定義: The primary economic sector in which the AI system(s) involved in the incident were operating.

Relevant AI functions Discoverアプリケーションで検索可能

発見する:
  • Cognition
    79 インシデント
  • Perception
    65 インシデント
  • Action
    56 インシデント
  • Unclear
    7 インシデント

定義: Indicates whether the AI system(s) were intended to perform any of the following high-level functions: "Perception," i.e. sensing and understanding the environment; "Cognition," i.e. making decisions; or "Action," i.e. carrying out decisions through physical or digital means.

AI tools and techniques used Discoverアプリケーションで検索可能

発見する:
  • machine learning
    19 インシデント
  • Facial recognition
    6 インシデント
  • open-source
    6 インシデント
  • natural language processing
    5 インシデント
  • Machine learning
    5 インシデント

定義: Open-ended tags that indicate the hardware and software involved in the AI system(s).

AI functions and applications used Discoverアプリケーションで検索可能

発見する:
  • decision support
    10 インシデント
  • autonomous driving
    9 インシデント
  • Facial recognition
    8 インシデント
  • recommendation engine
    8 インシデント
  • image recognition
    7 インシデント

定義: Open-ended tags that describe the functions and applications of the AI system.

Location Discoverアプリケーションで検索可能

発見する:
  • Global
    26 インシデント
  • United States
    6 インシデント
  • New Zealand
    2 インシデント
  • Los Angeles, CA
    2 インシデント
  • United Kingdom
    2 インシデント
Loading...

定義: The location or locations where the incident played out.

Named entities Discoverアプリケーションで検索可能

発見する:
  • Google
    17 インシデント
  • Amazon
    8 インシデント
  • Microsoft
    6 インシデント
  • Facebook
    4 インシデント
  • Tesla
    4 インシデント

定義: All named entities (such as people, organizations, locations, and products - generally proper nouns) that seem to have a significant relationship with this event, as indicated by the available evidence.

Party responsible for AI system Discoverアプリケーションで検索可能

発見する:
  • Google
    18 インシデント
  • Amazon
    7 インシデント
  • Tesla
    5 インシデント
  • Facebook
    4 インシデント
  • Apple
    4 インシデント

定義: A list of parties (up to three) that were responsible for the relevant AI tool or system, i.e. that had operational control over the AI-related system causing harm (or control over those who did).

Harm nearly missed? Discoverアプリケーションで検索可能

発見する:
  • Unclear/unknown
    44 インシデント
  • Harm caused
    40 インシデント
  • Near miss
    15 インシデント

定義: Was harm caused, or was it a near miss?

Probable level of intent Discoverアプリケーションで検索可能

発見する:
  • Accident
    72 インシデント
  • Unclear
    24 インシデント
  • Deliberate or expected
    3 インシデント

定義: Indicates whether the incident was deliberate/expected or accidental, based on the available evidence. "Deliberate or expected" applies if it is established or highly likely that the system acted more or less as expected, from the perspective of at least one of the people or entities responsible for it. “Accident” applies if it is established or highly likely that the harm arose from the system acting in an unexpected way. "Unclear" applies if the evidence is contradictory or too thin to apply either of the above labels.

Human lives lost Discoverアプリケーションで検索可能

発見する:
  • false
    91 インシデント
  • true
    8 インシデント

定義: Marked "trur" if one or more people died as a result of the accident, "false" if there is no evidence of lives being lost, "unclear" otherwise.

Critical infrastructure sectors affected Discoverアプリケーションで検索可能

発見する:
  • Transportation
    10 インシデント
  • Healthcare and public health
    4 インシデント
  • Government facilities
    2 インシデント
  • Communications
    2 インシデント
  • Information technology
    1 インシデント

定義: Where applicable, this field indicates if the incident caused harm to any of the economic sectors designated by the U.S. government as critical infrastructure.

Public sector deployment Discoverアプリケーションで検索可能

発見する:
  • false
    87 インシデント
  • true
    12 インシデント

定義: "Yes" if the AI system(s) involved in the accident were being used by the public sector or for the administration of public goods (for example, public transportation). "No" if the system(s) were being used in the private sector or for commercial purposes (for example, a ride-sharing company), on the other.

Nature of end user Discoverアプリケーションで検索可能

発見する:
  • Amateur
    72 インシデント
  • Expert
    18 インシデント

定義: "Expert" if users with special training or technical expertise were the ones meant to benefit from the AI system(s)’ operation; "Amateur" if the AI systems were primarily meant to benefit the general public or untrained users.

Level of autonomy Discoverアプリケーションで検索可能

発見する:
  • Medium
    36 インシデント
  • High
    30 インシデント
  • Low
    14 インシデント
  • Unclear/unknown
    10 インシデント

定義: The degree to which the AI system(s) functions independently from human intervention. "High" means there is no human involved in the system action execution; "Medium" means the system generates a decision and a human oversees the resulting action; "low" means the system generates decision-support output and a human makes a decision and executes an action.

Physical system Discoverアプリケーションで検索可能

発見する:
  • Software only
    65 インシデント
  • Vehicle/mobile robot
    16 インシデント
  • Consumer device
    7 インシデント
  • Unknown/unclear
    2 インシデント
  • Other:CCTV cameras, displays
    1 インシデント

定義: Where relevant, indicates whether the AI system(s) was embedded into or tightly associated with specific types of hardware.

Causative factors within AI system Discoverアプリケーションで検索可能

発見する:
  • Specification
    45 インシデント
  • Robustness
    34 インシデント
  • Unknown/unclear
    22 インシデント
  • Assurance
    15 インシデント

定義: Indicates which, if any, of the following types of AI failure describe the incident: "Specification," i.e. the system's behavior did not align with the true intentions of its designer, operator, etc; "Robustness," i.e. the system operated unsafely because of features or changes in its environment, or in the inputs the system received; "Assurance," i.e. the system could not be adequately monitored or controlled during operation.

Full description of the incident

定義: A plain-language description of the incident in one paragraph or less.

Short description of the incident

定義: A one-sentence description of the incident.

Description of AI system involved

定義: A brief description of the AI system(s) involved in the incident, including the system’s intended function, the context in which it was deployed, and any available details about the algorithms, hardware, and training data involved in the system.

Beginning date

定義: The date the incident began.

Ending date

定義: The date the incident ended.

Total financial cost

定義: The stated or estimated financial cost of the incident, if reported.

Laws covering the incident

定義: Relevant laws under which entities involved in the incident may face legal liability as a result of the incident.

Description of the data inputs to the AI systems

定義: A brief description of the data that the AI system(s) used or were trained on.

リサーチ

  • “AIインシデント”の定義
  • “AIインシデントレスポンス”の定義
  • データベースのロードマップ
  • 関連研究
  • 全データベースのダウンロード

プロジェクトとコミュニティ

  • AIIDについて
  • コンタクトとフォロー
  • アプリと要約
  • エディタのためのガイド

インシデント

  • 全インシデントの一覧
  • フラグの立ったインシデント
  • 登録待ち一覧
  • クラスごとの表示
  • 分類法

2023 - AI Incident Database

  • 利用規約
  • プライバシーポリシー
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 9d70fba