Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
組織

Meta

開発者と提供者の両方の立場で関わったインシデント

インシデント 4718 Report
Facebook Allegedly Failed to Police Hate Speech Content That Contributed to Ethnic Violence in Ethiopia

2019-06-22

Facebook allegedly did not adequately remove hate speech, some of which was extremely violent and dehumanizing, on its platform including through automated means, contributing to the violence faced by ethnic communities in Ethiopia.

もっと

インシデント 1695 Report
Facebook Allegedly Failed to Police Anti-Rohingya Hate Speech Content That Contributed to Violence in Myanmar

2018-08-15

Facebook allegedly did not adequately remove anti-Rohingya hate speech, some of which was extremely violent and dehumanizing, on its platform, contributing to the violence faced by Rohingya communities in Myanmar.

もっと

インシデント 8855 Report
Meta AI Characters Allegedly Exhibited Racism, Fabricated Identities, and Exploited User Trust

2025-01-03

Meta deployed AI-generated profiles on its platforms, including Instagram and Facebook, as part of an experiment. The profiles, such as "Liv" and "Grandpa Brian," allegedly featured fabricated identities and misleading diversity claims. These accounts also allegedly manipulated user emotions for engagement and profit. Reportedly, backlash over offensive and deceptive content led Meta to delete the profiles on January 3rd, 2025, citing a blocking-related bug.

もっと

インシデント 7344 Report
Leading AI Models Reportedly Found to Mimic Russian Disinformation in 33% of Cases and to Cite Fake Moscow News Sites

2024-06-18

An audit by NewsGuard revealed that leading chatbots, including ChatGPT-4, You.com’s Smart Assistant, and others, repeated Russian disinformation narratives in one-third of their responses. These narratives originated from a network of fake news sites created by John Mark Dougan (Incident 701). The audit tested 570 prompts across 10 AI chatbots, showing that AI remains a tool for spreading disinformation despite efforts to prevent misuse.

もっと

影響を受けたインシデント

インシデント 3993 Report
Meta AI's Scientific Paper Generator Reportedly Produced Inaccurate and Harmful Content

2022-11-15

Meta AI trained and hosted a scientific paper generator that sometimes produced bad science and prohibited queries on topics and groups that are likely to produce offensive or harmful content.

もっと

インシデント 7122 Report
Meta AI Hallucinates Harassment Allegations Against New York Politicians

2024-04-26

Meta's AI chatbot in Facebook Messenger falsely accused multiple state lawmakers of sexual harassment, fabricating incidents, investigations, and consequences that never occurred. These fabricated stories, discovered by City & State, sparked outrage among the affected lawmakers and raised concerns about the reliability of the chatbot. Meta acknowledged the errors and committed to ongoing improvements.

もっと

Incidents involved as Developer

インシデント 96825 Report
'Pravda' Network, Successor to 'Portal Kombat,' Allegedly Seeding AI Models with Kremlin Disinformation

2022-02-24

A Moscow-based disinformation network, Pravda, allegedly infiltrated AI models by flooding the internet with pro-Kremlin falsehoods. A NewsGuard audit found that 10 major AI chatbots repeated these narratives 33% of the time, citing Pravda sources as legitimate. The tactic, called "LLM grooming," manipulates AI training data to embed Russian propaganda. Pravda is part of Portal Kombat, a larger Russian disinformation network identified by VIGINUM in February 2024, but in operation since February 2022.

もっと

インシデント 9396 Report
AI-Powered Chinese Surveillance Campaign 'Peer Review' Used for Real-Time Monitoring of Anti-State Speech on Western Social Media

2025-02-21

OpenAI reportedly uncovered evidence of a Chinese state-linked AI-powered surveillance campaign, dubbed "Peer Review," designed to monitor and report anti-state speech on Western social media in real time. The system, believed to be built on Meta’s open-source Llama model, was detected when a developer allegedly used OpenAI’s technology to debug its code. OpenAI also reportedly identified disinformation efforts targeting Chinese dissidents and spreading propaganda in Latin America.

もっと

インシデント 5781 Report
Alleged Exploitation of Meta's Open-Source LLaMA Model for NSFW and Violent Content

2023-06-26

Meta's open-source large language model, LLaMA, is allegedly being used to create graphic and explicit chatbots that indulge in violent and illegal sexual fantasies. The Washington Post highlighted the example of "Allie," a chatbot that participates in text-based role-playing allegedly involving violent scenarios like rape and abuse. The issue raises ethical questions about open-source AI models, their regulation, and the responsibility of developers and deployers in mitigating harmful usage.

もっと

インシデント 8461 Report
Social Media Algorithms Amplified Disinformation Campaign in Honduras Election

2021-10-06

In October 2021, a coordinated network of over 317 fake Twitter accounts leveraged AI-driven algorithms to amplify disinformation about the Honduran presidential election, targeting opposition candidate Xiomara Castro. The campaign spread false narratives to suppress voter turnout and undermine the election's integrity. Social media platforms, including Twitter and Facebook, removed the accounts only after being alerted, which also raised concerns about inadequate moderation.

もっと

Incidents involved as Deployer

インシデント 4693 Report
Automated Adult Content Detection Tools Showed Bias against Women Bodies

2006-02-25

Automated content moderation tools to detect sexual explicitness or "raciness" reportedly exhibited bias against women bodies, resulting in suppression of reach despite not breaking platform policies.

もっと

インシデント 5761 Report
Alleged Misuse of PicSo AI for Generating Inappropriate Content Emphasizing "Girls"

2023-10-24

PicSo AI, which appears to be getting advertised by Meta over Instagram, is allegedly being used for generating inappropriate content with an emphasis on "girls." This raises concerns about the misuse of generative AI technologies for creating offensive and potentially sexually explicit material that could be used for nefarious and criminal purposes.

もっと

関連団体
同じインシデントに関連するその他のエンティティ。たとえば、インシデントの開発者がこのエンティティで、デプロイヤーが別のエンティティである場合、それらは関連エンティティとしてマークされます。
 

Entity

Facebook

開発者と提供者の両方の立場で関わったインシデント
  • インシデント 471
    8 レポート

    Facebook Allegedly Failed to Police Hate Speech Content That Contributed to Ethnic Violence in Ethiopia

  • インシデント 169
    5 レポート

    Facebook Allegedly Failed to Police Anti-Rohingya Hate Speech Content That Contributed to Violence in Myanmar

影響を受けたインシデント
  • インシデント 399
    3 レポート

    Meta AI's Scientific Paper Generator Reportedly Produced Inaccurate and Harmful Content

  • インシデント 399
    3 レポート

    Meta AI's Scientific Paper Generator Reportedly Produced Inaccurate and Harmful Content

Incidents involved as Developer
  • インシデント 846
    1 レポート

    Social Media Algorithms Amplified Disinformation Campaign in Honduras Election

Incidents involved as Deployer
  • インシデント 469
    3 レポート

    Automated Adult Content Detection Tools Showed Bias against Women Bodies

Incidents implicated systems
  • インシデント 885
    5 レポート

    Meta AI Characters Allegedly Exhibited Racism, Fabricated Identities, and Exploited User Trust

もっと
Entity

Rohingya people

影響を受けたインシデント
  • インシデント 169
    5 レポート

    Facebook Allegedly Failed to Police Anti-Rohingya Hate Speech Content That Contributed to Violence in Myanmar

もっと
Entity

Rohingya Facebook users

影響を受けたインシデント
  • インシデント 169
    5 レポート

    Facebook Allegedly Failed to Police Anti-Rohingya Hate Speech Content That Contributed to Violence in Myanmar

もっと
Entity

Myanmar public

影響を受けたインシデント
  • インシデント 169
    5 レポート

    Facebook Allegedly Failed to Police Anti-Rohingya Hate Speech Content That Contributed to Violence in Myanmar

もっと
Entity

Facebook users in Myanmar

影響を受けたインシデント
  • インシデント 169
    5 レポート

    Facebook Allegedly Failed to Police Anti-Rohingya Hate Speech Content That Contributed to Violence in Myanmar

もっと
Entity

Burmese-speaking Facebook users

影響を受けたインシデント
  • インシデント 169
    5 レポート

    Facebook Allegedly Failed to Police Anti-Rohingya Hate Speech Content That Contributed to Violence in Myanmar

もっと
Entity

Jewish people

影響を受けたインシデント
  • インシデント 278
    3 レポート

    Meta’s BlenderBot 3 Chatbot Demo Made Offensive Antisemitic Comments

もっと
Entity

BlenderBot 3 users

影響を受けたインシデント
  • インシデント 278
    3 レポート

    Meta’s BlenderBot 3 Chatbot Demo Made Offensive Antisemitic Comments

もっと
Entity

Marietje Schaake

影響を受けたインシデント
  • インシデント 313
    2 レポート

    BlenderBot 3 Cited Dutch Politician as a Terrorist

もっと
Entity

LinkedIn

Incidents involved as Deployer
  • インシデント 469
    3 レポート

    Automated Adult Content Detection Tools Showed Bias against Women Bodies

もっと
Entity

Instagram

開発者と提供者の両方の立場で関わったインシデント
  • インシデント 583
    1 レポート

    Instagram Algorithms Allegedly Promote Accounts Facilitating Child Sex Abuse Content

Incidents involved as Deployer
  • インシデント 469
    3 レポート

    Automated Adult Content Detection Tools Showed Bias against Women Bodies

  • インシデント 723
    2 レポート

    Instagram Algorithms Reportedly Directed Children's Merchandise Ad Campaign to Adult Men and Sex Offenders

Incidents implicated systems
  • インシデント 885
    5 レポート

    Meta AI Characters Allegedly Exhibited Racism, Fabricated Identities, and Exploited User Trust

もっと
Entity

Microsoft

開発者と提供者の両方の立場で関わったインシデント
  • インシデント 734
    4 レポート

    Leading AI Models Reportedly Found to Mimic Russian Disinformation in 33% of Cases and to Cite Fake Moscow News Sites

Incidents involved as Developer
  • インシデント 968
    25 レポート

    'Pravda' Network, Successor to 'Portal Kombat,' Allegedly Seeding AI Models with Kremlin Disinformation

  • インシデント 469
    3 レポート

    Automated Adult Content Detection Tools Showed Bias against Women Bodies

もっと
Entity

Google

開発者と提供者の両方の立場で関わったインシデント
  • インシデント 734
    4 レポート

    Leading AI Models Reportedly Found to Mimic Russian Disinformation in 33% of Cases and to Cite Fake Moscow News Sites

  • インシデント 718
    1 レポート

    OpenAI, Google, and Meta Alleged to Have Overstepped Legal Boundaries for Training AI

Incidents involved as Developer
  • インシデント 968
    25 レポート

    'Pravda' Network, Successor to 'Portal Kombat,' Allegedly Seeding AI Models with Kremlin Disinformation

  • インシデント 469
    3 レポート

    Automated Adult Content Detection Tools Showed Bias against Women Bodies

もっと
Entity

Amazon

Incidents involved as Developer
  • インシデント 469
    3 レポート

    Automated Adult Content Detection Tools Showed Bias against Women Bodies

もっと
Entity

LinkedIn users

影響を受けたインシデント
  • インシデント 469
    3 レポート

    Automated Adult Content Detection Tools Showed Bias against Women Bodies

もっと
Entity

Instagram users

影響を受けたインシデント
  • インシデント 885
    5 レポート

    Meta AI Characters Allegedly Exhibited Racism, Fabricated Identities, and Exploited User Trust

  • インシデント 469
    3 レポート

    Automated Adult Content Detection Tools Showed Bias against Women Bodies

もっと
Entity

Facebook users

影響を受けたインシデント
  • インシデント 885
    5 レポート

    Meta AI Characters Allegedly Exhibited Racism, Fabricated Identities, and Exploited User Trust

  • インシデント 796
    3 レポート

    Facebook's Content Moderation System Flagged and Removed Emergency Updates as Spam During Wildfires

Incidents involved as Developer
  • インシデント 712
    2 レポート

    Meta AI Hallucinates Harassment Allegations Against New York Politicians

  • インシデント 712
    2 レポート

    Meta AI Hallucinates Harassment Allegations Against New York Politicians

もっと
Entity

Meta AI

開発者と提供者の両方の立場で関わったインシデント
  • インシデント 399
    3 レポート

    Meta AI's Scientific Paper Generator Reportedly Produced Inaccurate and Harmful Content

影響を受けたインシデント
  • インシデント 399
    3 レポート

    Meta AI's Scientific Paper Generator Reportedly Produced Inaccurate and Harmful Content

  • インシデント 399
    3 レポート

    Meta AI's Scientific Paper Generator Reportedly Produced Inaccurate and Harmful Content

Incidents implicated systems
  • インシデント 968
    25 レポート

    'Pravda' Network, Successor to 'Portal Kombat,' Allegedly Seeding AI Models with Kremlin Disinformation

  • インシデント 734
    4 レポート

    Leading AI Models Reportedly Found to Mimic Russian Disinformation in 33% of Cases and to Cite Fake Moscow News Sites

もっと
Entity

Minority Groups

影響を受けたインシデント
  • インシデント 399
    3 レポート

    Meta AI's Scientific Paper Generator Reportedly Produced Inaccurate and Harmful Content

  • インシデント 399
    3 レポート

    Meta AI's Scientific Paper Generator Reportedly Produced Inaccurate and Harmful Content

もっと
Entity

Tigrinya-speaking Facebook users

影響を受けたインシデント
  • インシデント 471
    8 レポート

    Facebook Allegedly Failed to Police Hate Speech Content That Contributed to Ethnic Violence in Ethiopia

もっと
Entity

Facebook users in Ethiopia

影響を受けたインシデント
  • インシデント 471
    8 レポート

    Facebook Allegedly Failed to Police Hate Speech Content That Contributed to Ethnic Violence in Ethiopia

もっと
Entity

Ethiopian public

影響を受けたインシデント
  • インシデント 471
    8 レポート

    Facebook Allegedly Failed to Police Hate Speech Content That Contributed to Ethnic Violence in Ethiopia

もっと
Entity

Afaan Oromo-speaking Facebook users

影響を受けたインシデント
  • インシデント 471
    8 レポート

    Facebook Allegedly Failed to Police Hate Speech Content That Contributed to Ethnic Violence in Ethiopia

もっと
Entity

Facebook's children users

影響を受けたインシデント
  • インシデント 534
    2 レポート

    Facebook Alleged in Lawsuit Misleading Public about Effects of Algorithms on Children

もっと
Entity

Instagram's children users

影響を受けたインシデント
  • インシデント 534
    2 レポート

    Facebook Alleged in Lawsuit Misleading Public about Effects of Algorithms on Children

もっと
Entity

Children

影響を受けたインシデント
  • インシデント 723
    2 レポート

    Instagram Algorithms Reportedly Directed Children's Merchandise Ad Campaign to Adult Men and Sex Offenders

  • インシデント 583
    1 レポート

    Instagram Algorithms Allegedly Promote Accounts Facilitating Child Sex Abuse Content

もっと
Entity

General public

影響を受けたインシデント
  • インシデント 968
    25 レポート

    'Pravda' Network, Successor to 'Portal Kombat,' Allegedly Seeding AI Models with Kremlin Disinformation

  • インシデント 734
    4 レポート

    Leading AI Models Reportedly Found to Mimic Russian Disinformation in 33% of Cases and to Cite Fake Moscow News Sites

もっと
Entity

minors

影響を受けたインシデント
  • インシデント 583
    1 レポート

    Instagram Algorithms Allegedly Promote Accounts Facilitating Child Sex Abuse Content

  • インシデント 957
    1 レポート

    Alleged Instagram Algorithm Malfunction Floods Users’ Reels Feeds with Violent and Graphic Content

もっと
Entity

teenagers

影響を受けたインシデント
  • インシデント 583
    1 レポート

    Instagram Algorithms Allegedly Promote Accounts Facilitating Child Sex Abuse Content

もっと
Entity

Facebook Messenger users

影響を受けたインシデント
  • インシデント 570
    1 レポート

    Facebook Messenger AI Stickers Generate Ethical and Content Moderation Concerns

もっと
Entity

Individual developers or creators using Meta's LLaMA model

Incidents involved as Deployer
  • インシデント 578
    1 レポート

    Alleged Exploitation of Meta's Open-Source LLaMA Model for NSFW and Violent Content

もっと
Entity

PicSo AI

Incidents involved as Developer
  • インシデント 576
    1 レポート

    Alleged Misuse of PicSo AI for Generating Inappropriate Content Emphasizing "Girls"

もっと
Entity

Potentially exploited groups

影響を受けたインシデント
  • インシデント 576
    1 レポート

    Alleged Misuse of PicSo AI for Generating Inappropriate Content Emphasizing "Girls"

もっと
Entity

Consumers

影響を受けたインシデント
  • インシデント 576
    1 レポート

    Alleged Misuse of PicSo AI for Generating Inappropriate Content Emphasizing "Girls"

もっと
Entity

Asian People

影響を受けたインシデント
  • インシデント 686
    2 レポート

    Meta AI Image Generator Reportedly Fails to Accurately Represent Interracial Relationships

もっと
Entity

Interracial couples

影響を受けたインシデント
  • インシデント 686
    2 レポート

    Meta AI Image Generator Reportedly Fails to Accurately Represent Interracial Relationships

もっと
Entity

Facebook users in online support communities

影響を受けたインシデント
  • インシデント 700
    2 レポート

    Meta's AI Chatbots Are Entering Online Support Communities Uninvited

もっと
Entity

Auschwitz Memorial Museum

影響を受けたインシデント
  • インシデント 710
    1 レポート

    Facebook AI Mislabels Auschwitz Photos as "Bullying" and "Nudity"

もっと
Entity

Survivors of Holocaust victims

影響を受けたインシデント
  • インシデント 710
    1 レポート

    Facebook AI Mislabels Auschwitz Photos as "Bullying" and "Nudity"

もっと
Entity

Kristen Gonzalez

影響を受けたインシデント
  • インシデント 712
    2 レポート

    Meta AI Hallucinates Harassment Allegations Against New York Politicians

  • インシデント 712
    2 レポート

    Meta AI Hallucinates Harassment Allegations Against New York Politicians

もっと
Entity

Clyde Vanel

影響を受けたインシデント
  • インシデント 712
    2 レポート

    Meta AI Hallucinates Harassment Allegations Against New York Politicians

  • インシデント 712
    2 レポート

    Meta AI Hallucinates Harassment Allegations Against New York Politicians

もっと
Entity

New York lawmakers

影響を受けたインシデント
  • インシデント 712
    2 レポート

    Meta AI Hallucinates Harassment Allegations Against New York Politicians

  • インシデント 712
    2 レポート

    Meta AI Hallucinates Harassment Allegations Against New York Politicians

もっと
Entity

OpenAI

開発者と提供者の両方の立場で関わったインシデント
  • インシデント 734
    4 レポート

    Leading AI Models Reportedly Found to Mimic Russian Disinformation in 33% of Cases and to Cite Fake Moscow News Sites

  • インシデント 997
    4 レポート

    Meta and OpenAI Accused of Using LibGen’s Pirated Books to Train AI Models

Incidents involved as Developer
  • インシデント 968
    25 レポート

    'Pravda' Network, Successor to 'Portal Kombat,' Allegedly Seeding AI Models with Kremlin Disinformation

  • インシデント 939
    6 レポート

    AI-Powered Chinese Surveillance Campaign 'Peer Review' Used for Real-Time Monitoring of Anti-State Speech on Western Social Media

もっと
Entity

YouTube creators

影響を受けたインシデント
  • インシデント 718
    1 レポート

    OpenAI, Google, and Meta Alleged to Have Overstepped Legal Boundaries for Training AI

もっと
Entity

Content creators

影響を受けたインシデント
  • インシデント 718
    1 レポート

    OpenAI, Google, and Meta Alleged to Have Overstepped Legal Boundaries for Training AI

もっと
Entity

Perplexity

開発者と提供者の両方の立場で関わったインシデント
  • インシデント 734
    4 レポート

    Leading AI Models Reportedly Found to Mimic Russian Disinformation in 33% of Cases and to Cite Fake Moscow News Sites

  • インシデント 750
    1 レポート

    AI Chatbots Reportedly Inaccurately Conveyed Real-Time Political News

Incidents involved as Developer
  • インシデント 968
    25 レポート

    'Pravda' Network, Successor to 'Portal Kombat,' Allegedly Seeding AI Models with Kremlin Disinformation

もっと
Entity

Journalism

影響を受けたインシデント
  • インシデント 968
    25 レポート

    'Pravda' Network, Successor to 'Portal Kombat,' Allegedly Seeding AI Models with Kremlin Disinformation

  • インシデント 750
    1 レポート

    AI Chatbots Reportedly Inaccurately Conveyed Real-Time Political News

もっと
Entity

Chatbot users

影響を受けたインシデント
  • インシデント 968
    25 レポート

    'Pravda' Network, Successor to 'Portal Kombat,' Allegedly Seeding AI Models with Kremlin Disinformation

  • インシデント 750
    1 レポート

    AI Chatbots Reportedly Inaccurately Conveyed Real-Time Political News

もっと
Entity

Women

影響を受けたインシデント
  • インシデント 580
    1 レポート

    Alleged Gender Discrimination in Facebook Job Ads Algorithm

もっと
Entity

Underrepresented genders

影響を受けたインシデント
  • インシデント 580
    1 レポート

    Alleged Gender Discrimination in Facebook Job Ads Algorithm

もっと
Entity

Advertisers

影響を受けたインシデント
  • インシデント 580
    1 レポート

    Alleged Gender Discrimination in Facebook Job Ads Algorithm

  • インシデント 696
    1 レポート

    Meta's AI Ad Platform Reportedly Causes Overspending and Poor Performance

もっと
Entity

scammers

Incidents involved as Deployer
  • インシデント 655
    1 レポート

    Scams Reportedly Impersonating Wealthy Investors Proliferating on Facebook

もっと
Entity

Investors

影響を受けたインシデント
  • インシデント 655
    1 レポート

    Scams Reportedly Impersonating Wealthy Investors Proliferating on Facebook

もっと
Entity

Bill Ackman

影響を受けたインシデント
  • インシデント 655
    1 レポート

    Scams Reportedly Impersonating Wealthy Investors Proliferating on Facebook

もっと
Entity

Cathie Wood

影響を受けたインシデント
  • インシデント 655
    1 レポート

    Scams Reportedly Impersonating Wealthy Investors Proliferating on Facebook

もっと
Entity

Steve Cohen

影響を受けたインシデント
  • インシデント 655
    1 レポート

    Scams Reportedly Impersonating Wealthy Investors Proliferating on Facebook

もっと
Entity

Peter Lynch

影響を受けたインシデント
  • インシデント 655
    1 レポート

    Scams Reportedly Impersonating Wealthy Investors Proliferating on Facebook

もっと
Entity

Ray Dalio

影響を受けたインシデント
  • インシデント 655
    1 レポート

    Scams Reportedly Impersonating Wealthy Investors Proliferating on Facebook

もっと
Entity

Peter Bourget

影響を受けたインシデント
  • インシデント 655
    1 レポート

    Scams Reportedly Impersonating Wealthy Investors Proliferating on Facebook

もっと
Entity

small businesses

影響を受けたインシデント
  • インシデント 696
    1 レポート

    Meta's AI Ad Platform Reportedly Causes Overspending and Poor Performance

もっと
Entity

Instagram sellers

影響を受けたインシデント
  • インシデント 723
    2 レポート

    Instagram Algorithms Reportedly Directed Children's Merchandise Ad Campaign to Adult Men and Sex Offenders

もっと
Entity

You.com

開発者と提供者の両方の立場で関わったインシデント
  • インシデント 734
    4 レポート

    Leading AI Models Reportedly Found to Mimic Russian Disinformation in 33% of Cases and to Cite Fake Moscow News Sites

Incidents involved as Developer
  • インシデント 968
    25 レポート

    'Pravda' Network, Successor to 'Portal Kombat,' Allegedly Seeding AI Models with Kremlin Disinformation

もっと
Entity

xAI

開発者と提供者の両方の立場で関わったインシデント
  • インシデント 734
    4 レポート

    Leading AI Models Reportedly Found to Mimic Russian Disinformation in 33% of Cases and to Cite Fake Moscow News Sites

Incidents involved as Developer
  • インシデント 968
    25 レポート

    'Pravda' Network, Successor to 'Portal Kombat,' Allegedly Seeding AI Models with Kremlin Disinformation

もっと
Entity

Mistral

開発者と提供者の両方の立場で関わったインシデント
  • インシデント 734
    4 レポート

    Leading AI Models Reportedly Found to Mimic Russian Disinformation in 33% of Cases and to Cite Fake Moscow News Sites

  • インシデント 859
    1 レポート

    AI Models Reportedly Found to Provide Misinformation on Election Processes in Spanish

Incidents involved as Developer
  • インシデント 968
    25 レポート

    'Pravda' Network, Successor to 'Portal Kombat,' Allegedly Seeding AI Models with Kremlin Disinformation

もっと
Entity

John Mark Dougan

Incidents involved as Deployer
  • インシデント 968
    25 レポート

    'Pravda' Network, Successor to 'Portal Kombat,' Allegedly Seeding AI Models with Kremlin Disinformation

  • インシデント 734
    4 レポート

    Leading AI Models Reportedly Found to Mimic Russian Disinformation in 33% of Cases and to Cite Fake Moscow News Sites

もっと
Entity

Inflection

開発者と提供者の両方の立場で関わったインシデント
  • インシデント 734
    4 レポート

    Leading AI Models Reportedly Found to Mimic Russian Disinformation in 33% of Cases and to Cite Fake Moscow News Sites

Incidents involved as Developer
  • インシデント 968
    25 レポート

    'Pravda' Network, Successor to 'Portal Kombat,' Allegedly Seeding AI Models with Kremlin Disinformation

もっと
Entity

Anthropic

開発者と提供者の両方の立場で関わったインシデント
  • インシデント 734
    4 レポート

    Leading AI Models Reportedly Found to Mimic Russian Disinformation in 33% of Cases and to Cite Fake Moscow News Sites

  • インシデント 859
    1 レポート

    AI Models Reportedly Found to Provide Misinformation on Election Processes in Spanish

Incidents involved as Developer
  • インシデント 968
    25 レポート

    'Pravda' Network, Successor to 'Portal Kombat,' Allegedly Seeding AI Models with Kremlin Disinformation

もっと
Entity

Western democracies

影響を受けたインシデント
  • インシデント 734
    4 レポート

    Leading AI Models Reportedly Found to Mimic Russian Disinformation in 33% of Cases and to Cite Fake Moscow News Sites

もっと
Entity

Volodymyr Zelenskyy

影響を受けたインシデント
  • インシデント 734
    4 レポート

    Leading AI Models Reportedly Found to Mimic Russian Disinformation in 33% of Cases and to Cite Fake Moscow News Sites

もっと
Entity

Ukraine

影響を受けたインシデント
  • インシデント 734
    4 レポート

    Leading AI Models Reportedly Found to Mimic Russian Disinformation in 33% of Cases and to Cite Fake Moscow News Sites

もっと
Entity

Secret Service

影響を受けたインシデント
  • インシデント 734
    4 レポート

    Leading AI Models Reportedly Found to Mimic Russian Disinformation in 33% of Cases and to Cite Fake Moscow News Sites

もっと
Entity

Researchers

影響を受けたインシデント
  • インシデント 734
    4 レポート

    Leading AI Models Reportedly Found to Mimic Russian Disinformation in 33% of Cases and to Cite Fake Moscow News Sites

もっと
Entity

Media consumers

影響を受けたインシデント
  • インシデント 968
    25 レポート

    'Pravda' Network, Successor to 'Portal Kombat,' Allegedly Seeding AI Models with Kremlin Disinformation

  • インシデント 734
    4 レポート

    Leading AI Models Reportedly Found to Mimic Russian Disinformation in 33% of Cases and to Cite Fake Moscow News Sites

もっと
Entity

Electoral integrity

影響を受けたインシデント
  • インシデント 734
    4 レポート

    Leading AI Models Reportedly Found to Mimic Russian Disinformation in 33% of Cases and to Cite Fake Moscow News Sites

  • インシデント 859
    1 レポート

    AI Models Reportedly Found to Provide Misinformation on Election Processes in Spanish

もっと
Entity

AI companies facing reputational damage

影響を受けたインシデント
  • インシデント 734
    4 レポート

    Leading AI Models Reportedly Found to Mimic Russian Disinformation in 33% of Cases and to Cite Fake Moscow News Sites

もっと
Entity

You.com Smart Assistant

Incidents implicated systems
  • インシデント 968
    25 レポート

    'Pravda' Network, Successor to 'Portal Kombat,' Allegedly Seeding AI Models with Kremlin Disinformation

  • インシデント 734
    4 レポート

    Leading AI Models Reportedly Found to Mimic Russian Disinformation in 33% of Cases and to Cite Fake Moscow News Sites

もっと
Entity

xAI Grok

Incidents implicated systems
  • インシデント 968
    25 レポート

    'Pravda' Network, Successor to 'Portal Kombat,' Allegedly Seeding AI Models with Kremlin Disinformation

  • インシデント 734
    4 レポート

    Leading AI Models Reportedly Found to Mimic Russian Disinformation in 33% of Cases and to Cite Fake Moscow News Sites

もっと
Entity

Perplexity Answer Engine

Incidents implicated systems
  • インシデント 968
    25 レポート

    'Pravda' Network, Successor to 'Portal Kombat,' Allegedly Seeding AI Models with Kremlin Disinformation

  • インシデント 734
    4 レポート

    Leading AI Models Reportedly Found to Mimic Russian Disinformation in 33% of Cases and to Cite Fake Moscow News Sites

もっと
Entity

Mistral le Chat

Incidents implicated systems
  • インシデント 968
    25 レポート

    'Pravda' Network, Successor to 'Portal Kombat,' Allegedly Seeding AI Models with Kremlin Disinformation

  • インシデント 734
    4 レポート

    Leading AI Models Reportedly Found to Mimic Russian Disinformation in 33% of Cases and to Cite Fake Moscow News Sites

もっと
Entity

Inflection AI Pi

Incidents implicated systems
  • インシデント 734
    4 レポート

    Leading AI Models Reportedly Found to Mimic Russian Disinformation in 33% of Cases and to Cite Fake Moscow News Sites

もっと
Entity

Gemini

Incidents implicated systems
  • インシデント 968
    25 レポート

    'Pravda' Network, Successor to 'Portal Kombat,' Allegedly Seeding AI Models with Kremlin Disinformation

  • インシデント 734
    4 レポート

    Leading AI Models Reportedly Found to Mimic Russian Disinformation in 33% of Cases and to Cite Fake Moscow News Sites

もっと
Entity

Copilot

Incidents implicated systems
  • インシデント 968
    25 レポート

    'Pravda' Network, Successor to 'Portal Kombat,' Allegedly Seeding AI Models with Kremlin Disinformation

  • インシデント 734
    4 レポート

    Leading AI Models Reportedly Found to Mimic Russian Disinformation in 33% of Cases and to Cite Fake Moscow News Sites

もっと
Entity

ChatGPT

Incidents implicated systems
  • インシデント 968
    25 レポート

    'Pravda' Network, Successor to 'Portal Kombat,' Allegedly Seeding AI Models with Kremlin Disinformation

  • インシデント 939
    6 レポート

    AI-Powered Chinese Surveillance Campaign 'Peer Review' Used for Real-Time Monitoring of Anti-State Speech on Western Social Media

もっと
Entity

Anthropic Claude

Incidents implicated systems
  • インシデント 968
    25 レポート

    'Pravda' Network, Successor to 'Portal Kombat,' Allegedly Seeding AI Models with Kremlin Disinformation

  • インシデント 734
    4 レポート

    Leading AI Models Reportedly Found to Mimic Russian Disinformation in 33% of Cases and to Cite Fake Moscow News Sites

もっと
Entity

167 fake local news websites operated by John Mark Dougan

Incidents implicated systems
  • インシデント 734
    4 レポート

    Leading AI Models Reportedly Found to Mimic Russian Disinformation in 33% of Cases and to Cite Fake Moscow News Sites

もっと
Entity

California residents

影響を受けたインシデント
  • インシデント 796
    3 レポート

    Facebook's Content Moderation System Flagged and Removed Emergency Updates as Spam During Wildfires

もっと
Entity

Wildfire evacuees

影響を受けたインシデント
  • インシデント 796
    3 レポート

    Facebook's Content Moderation System Flagged and Removed Emergency Updates as Spam During Wildfires

もっと
Entity

Emergency responders

影響を受けたインシデント
  • インシデント 796
    3 レポート

    Facebook's Content Moderation System Flagged and Removed Emergency Updates as Spam During Wildfires

もっと
Entity

Disaster relief workers

影響を受けたインシデント
  • インシデント 796
    3 レポート

    Facebook's Content Moderation System Flagged and Removed Emergency Updates as Spam During Wildfires

もっと
Entity

Fire safety coordinators

影響を受けたインシデント
  • インシデント 796
    3 レポート

    Facebook's Content Moderation System Flagged and Removed Emergency Updates as Spam During Wildfires

もっと
Entity

Facebook users in disaster zones

影響を受けたインシデント
  • インシデント 796
    3 レポート

    Facebook's Content Moderation System Flagged and Removed Emergency Updates as Spam During Wildfires

もっと
Entity

The Record-Argus

影響を受けたインシデント
  • インシデント 789
    1 レポート

    Independent News Sites Flagged as Spam by Facebook's AI Moderation System

もっと
Entity

wlkp24.info

影響を受けたインシデント
  • インシデント 789
    1 レポート

    Independent News Sites Flagged as Spam by Facebook's AI Moderation System

もっと
Entity

Top Fight

影響を受けたインシデント
  • インシデント 789
    1 レポート

    Independent News Sites Flagged as Spam by Facebook's AI Moderation System

もっと
Entity

Noticias Maia

影響を受けたインシデント
  • インシデント 789
    1 レポート

    Independent News Sites Flagged as Spam by Facebook's AI Moderation System

もっと
Entity

City Magazine

影響を受けたインシデント
  • インシデント 789
    1 レポート

    Independent News Sites Flagged as Spam by Facebook's AI Moderation System

もっと
Entity

Birkenhead News

影響を受けたインシデント
  • インシデント 789
    1 レポート

    Independent News Sites Flagged as Spam by Facebook's AI Moderation System

もっと
Entity

Bishop’s Stortford Independent

影響を受けたインシデント
  • インシデント 789
    1 レポート

    Independent News Sites Flagged as Spam by Facebook's AI Moderation System

もっと
Entity

UK Defence Journal

影響を受けたインシデント
  • インシデント 789
    1 レポート

    Independent News Sites Flagged as Spam by Facebook's AI Moderation System

もっと
Entity

Meta users

影響を受けたインシデント
  • インシデント 885
    5 レポート

    Meta AI Characters Allegedly Exhibited Racism, Fabricated Identities, and Exploited User Trust

  • インシデント 803
    1 レポート

    Facebook's Algorithm Reportedly Amplifies AI-Generated Content, Fueling Misleading Posts

もっと
Entity

Meta AI Characters

Incidents implicated systems
  • インシデント 885
    5 レポート

    Meta AI Characters Allegedly Exhibited Racism, Fabricated Identities, and Exploited User Trust

もっと
Entity

Chinese state-linked actors

Incidents involved as Deployer
  • インシデント 939
    6 レポート

    AI-Powered Chinese Surveillance Campaign 'Peer Review' Used for Real-Time Monitoring of Anti-State Speech on Western Social Media

もっと
Entity

Chinese Communist Party

Incidents involved as Deployer
  • インシデント 939
    6 レポート

    AI-Powered Chinese Surveillance Campaign 'Peer Review' Used for Real-Time Monitoring of Anti-State Speech on Western Social Media

もっと
Entity

Various open-source AI developers

Incidents involved as Developer
  • インシデント 939
    6 レポート

    AI-Powered Chinese Surveillance Campaign 'Peer Review' Used for Real-Time Monitoring of Anti-State Speech on Western Social Media

もっと
Entity

Chinese state security researchers

Incidents involved as Developer
  • インシデント 939
    6 レポート

    AI-Powered Chinese Surveillance Campaign 'Peer Review' Used for Real-Time Monitoring of Anti-State Speech on Western Social Media

もっと
Entity

Western social media communities

影響を受けたインシデント
  • インシデント 939
    6 レポート

    AI-Powered Chinese Surveillance Campaign 'Peer Review' Used for Real-Time Monitoring of Anti-State Speech on Western Social Media

もっと
Entity

Social media users in Latin America

影響を受けたインシデント
  • インシデント 939
    6 レポート

    AI-Powered Chinese Surveillance Campaign 'Peer Review' Used for Real-Time Monitoring of Anti-State Speech on Western Social Media

もっと
Entity

social media users

影響を受けたインシデント
  • インシデント 939
    6 レポート

    AI-Powered Chinese Surveillance Campaign 'Peer Review' Used for Real-Time Monitoring of Anti-State Speech on Western Social Media

もっと
Entity

Opposition voices against the Chinese Communist Party

影響を受けたインシデント
  • インシデント 939
    6 レポート

    AI-Powered Chinese Surveillance Campaign 'Peer Review' Used for Real-Time Monitoring of Anti-State Speech on Western Social Media

もっと
Entity

Chinese dissidents

影響を受けたインシデント
  • インシデント 939
    6 レポート

    AI-Powered Chinese Surveillance Campaign 'Peer Review' Used for Real-Time Monitoring of Anti-State Speech on Western Social Media

もっと
Entity

Cai Xia

影響を受けたインシデント
  • インシデント 939
    6 レポート

    AI-Powered Chinese Surveillance Campaign 'Peer Review' Used for Real-Time Monitoring of Anti-State Speech on Western Social Media

もっと
Entity

Peer Review

Incidents implicated systems
  • インシデント 939
    6 レポート

    AI-Powered Chinese Surveillance Campaign 'Peer Review' Used for Real-Time Monitoring of Anti-State Speech on Western Social Media

もっと
Entity

OpenAI models

Incidents implicated systems
  • インシデント 939
    6 レポート

    AI-Powered Chinese Surveillance Campaign 'Peer Review' Used for Real-Time Monitoring of Anti-State Speech on Western Social Media

  • インシデント 997
    4 レポート

    Meta and OpenAI Accused of Using LibGen’s Pirated Books to Train AI Models

もっと
Entity

LLaMA

Incidents implicated systems
  • インシデント 939
    6 レポート

    AI-Powered Chinese Surveillance Campaign 'Peer Review' Used for Real-Time Monitoring of Anti-State Speech on Western Social Media

  • インシデント 996
    2 レポート

    Meta Allegedly Used Books3, a Dataset of 191,000 Pirated Books, to Train LLaMA AI

もっと
Entity

TigerWeb

Incidents involved as Deployer
  • インシデント 968
    25 レポート

    'Pravda' Network, Successor to 'Portal Kombat,' Allegedly Seeding AI Models with Kremlin Disinformation

もっと
Entity

Storm-1516

Incidents involved as Deployer
  • インシデント 968
    25 レポート

    'Pravda' Network, Successor to 'Portal Kombat,' Allegedly Seeding AI Models with Kremlin Disinformation

もっと
Entity

Russian state media

Incidents involved as Deployer
  • インシデント 968
    25 レポート

    'Pravda' Network, Successor to 'Portal Kombat,' Allegedly Seeding AI Models with Kremlin Disinformation

もっと
Entity

Pravda disinformation network

Incidents involved as Deployer
  • インシデント 968
    25 レポート

    'Pravda' Network, Successor to 'Portal Kombat,' Allegedly Seeding AI Models with Kremlin Disinformation

もっと
Entity

Portal Kombat

Incidents involved as Deployer
  • インシデント 968
    25 レポート

    'Pravda' Network, Successor to 'Portal Kombat,' Allegedly Seeding AI Models with Kremlin Disinformation

もっと
Entity

Government of Russia

Incidents involved as Deployer
  • インシデント 968
    25 レポート

    'Pravda' Network, Successor to 'Portal Kombat,' Allegedly Seeding AI Models with Kremlin Disinformation

もっと
Entity

Truth

影響を受けたインシデント
  • インシデント 968
    25 レポート

    'Pravda' Network, Successor to 'Portal Kombat,' Allegedly Seeding AI Models with Kremlin Disinformation

もっと
Entity

Policymakers

影響を受けたインシデント
  • インシデント 968
    25 レポート

    'Pravda' Network, Successor to 'Portal Kombat,' Allegedly Seeding AI Models with Kremlin Disinformation

もっと
Entity

Journalists

影響を受けたインシデント
  • インシデント 968
    25 レポート

    'Pravda' Network, Successor to 'Portal Kombat,' Allegedly Seeding AI Models with Kremlin Disinformation

  • インシデント 997
    4 レポート

    Meta and OpenAI Accused of Using LibGen’s Pirated Books to Train AI Models

もっと
Entity

Governments

影響を受けたインシデント
  • インシデント 968
    25 レポート

    'Pravda' Network, Successor to 'Portal Kombat,' Allegedly Seeding AI Models with Kremlin Disinformation

もっと
Entity

Government of Ukraine

影響を受けたインシデント
  • インシデント 968
    25 レポート

    'Pravda' Network, Successor to 'Portal Kombat,' Allegedly Seeding AI Models with Kremlin Disinformation

もっと
Entity

General public of Ukraine

影響を受けたインシデント
  • インシデント 968
    25 レポート

    'Pravda' Network, Successor to 'Portal Kombat,' Allegedly Seeding AI Models with Kremlin Disinformation

もっと
Entity

Democracy

影響を受けたインシデント
  • インシデント 968
    25 レポート

    'Pravda' Network, Successor to 'Portal Kombat,' Allegedly Seeding AI Models with Kremlin Disinformation

  • インシデント 859
    1 レポート

    AI Models Reportedly Found to Provide Misinformation on Election Processes in Spanish

もっと
Entity

Inflection Pi

Incidents implicated systems
  • インシデント 968
    25 レポート

    'Pravda' Network, Successor to 'Portal Kombat,' Allegedly Seeding AI Models with Kremlin Disinformation

もっと
Entity

ChatGPT 4o

Incidents implicated systems
  • インシデント 968
    25 レポート

    'Pravda' Network, Successor to 'Portal Kombat,' Allegedly Seeding AI Models with Kremlin Disinformation

もっと
Entity

Various generative AI developers

開発者と提供者の両方の立場で関わったインシデント
  • インシデント 996
    2 レポート

    Meta Allegedly Used Books3, a Dataset of 191,000 Pirated Books, to Train LLaMA AI

もっと
Entity

EleutherAI

開発者と提供者の両方の立場で関わったインシデント
  • インシデント 996
    2 レポート

    Meta Allegedly Used Books3, a Dataset of 191,000 Pirated Books, to Train LLaMA AI

もっと
Entity

Bloomberg

開発者と提供者の両方の立場で関わったインシデント
  • インシデント 996
    2 レポート

    Meta Allegedly Used Books3, a Dataset of 191,000 Pirated Books, to Train LLaMA AI

もっと
Entity

The Pile

Incidents involved as Developer
  • インシデント 996
    2 レポート

    Meta Allegedly Used Books3, a Dataset of 191,000 Pirated Books, to Train LLaMA AI

Incidents implicated systems
  • インシデント 996
    2 レポート

    Meta Allegedly Used Books3, a Dataset of 191,000 Pirated Books, to Train LLaMA AI

もっと
Entity

Shawn Presser

Incidents involved as Developer
  • インシデント 996
    2 レポート

    Meta Allegedly Used Books3, a Dataset of 191,000 Pirated Books, to Train LLaMA AI

もっと
Entity

Zadie Smith

影響を受けたインシデント
  • インシデント 996
    2 レポート

    Meta Allegedly Used Books3, a Dataset of 191,000 Pirated Books, to Train LLaMA AI

もっと
Entity

Writers

影響を受けたインシデント
  • インシデント 997
    4 レポート

    Meta and OpenAI Accused of Using LibGen’s Pirated Books to Train AI Models

  • インシデント 996
    2 レポート

    Meta Allegedly Used Books3, a Dataset of 191,000 Pirated Books, to Train LLaMA AI

もっと
Entity

Verso

影響を受けたインシデント
  • インシデント 996
    2 レポート

    Meta Allegedly Used Books3, a Dataset of 191,000 Pirated Books, to Train LLaMA AI

もっと
Entity

Stephen King

影響を受けたインシデント
  • インシデント 996
    2 レポート

    Meta Allegedly Used Books3, a Dataset of 191,000 Pirated Books, to Train LLaMA AI

もっと
Entity

Sarah Silverman

影響を受けたインシデント
  • インシデント 996
    2 レポート

    Meta Allegedly Used Books3, a Dataset of 191,000 Pirated Books, to Train LLaMA AI

もっと
Entity

Richard Kadrey

影響を受けたインシデント
  • インシデント 996
    2 レポート

    Meta Allegedly Used Books3, a Dataset of 191,000 Pirated Books, to Train LLaMA AI

もっと
Entity

Publishers found in Books3

影響を受けたインシデント
  • インシデント 996
    2 レポート

    Meta Allegedly Used Books3, a Dataset of 191,000 Pirated Books, to Train LLaMA AI

もっと
Entity

Penguin Random House

影響を受けたインシデント
  • インシデント 996
    2 レポート

    Meta Allegedly Used Books3, a Dataset of 191,000 Pirated Books, to Train LLaMA AI

もっと
Entity

Oxford University Press

影響を受けたインシデント
  • インシデント 996
    2 レポート

    Meta Allegedly Used Books3, a Dataset of 191,000 Pirated Books, to Train LLaMA AI

もっと
Entity

Over 170,000 authors found in Books3

影響を受けたインシデント
  • インシデント 996
    2 レポート

    Meta Allegedly Used Books3, a Dataset of 191,000 Pirated Books, to Train LLaMA AI

もっと
Entity

Michael Pollan

影響を受けたインシデント
  • インシデント 996
    2 レポート

    Meta Allegedly Used Books3, a Dataset of 191,000 Pirated Books, to Train LLaMA AI

もっと
Entity

Margaret Atwood

影響を受けたインシデント
  • インシデント 996
    2 レポート

    Meta Allegedly Used Books3, a Dataset of 191,000 Pirated Books, to Train LLaMA AI

もっと
Entity

Macmillan

影響を受けたインシデント
  • インシデント 996
    2 レポート

    Meta Allegedly Used Books3, a Dataset of 191,000 Pirated Books, to Train LLaMA AI

もっと
Entity

HarperCollins

影響を受けたインシデント
  • インシデント 996
    2 レポート

    Meta Allegedly Used Books3, a Dataset of 191,000 Pirated Books, to Train LLaMA AI

もっと
Entity

Creative industries

影響を受けたインシデント
  • インシデント 996
    2 レポート

    Meta Allegedly Used Books3, a Dataset of 191,000 Pirated Books, to Train LLaMA AI

もっと
Entity

Christopher Golden

影響を受けたインシデント
  • インシデント 996
    2 レポート

    Meta Allegedly Used Books3, a Dataset of 191,000 Pirated Books, to Train LLaMA AI

もっと
Entity

Authors

影響を受けたインシデント
  • インシデント 997
    4 レポート

    Meta and OpenAI Accused of Using LibGen’s Pirated Books to Train AI Models

  • インシデント 996
    2 レポート

    Meta Allegedly Used Books3, a Dataset of 191,000 Pirated Books, to Train LLaMA AI

もっと
Entity

hugging face

Incidents implicated systems
  • インシデント 996
    2 レポート

    Meta Allegedly Used Books3, a Dataset of 191,000 Pirated Books, to Train LLaMA AI

もっと
Entity

GPT-J

Incidents implicated systems
  • インシデント 996
    2 レポート

    Meta Allegedly Used Books3, a Dataset of 191,000 Pirated Books, to Train LLaMA AI

もっと
Entity

Books3

Incidents implicated systems
  • インシデント 996
    2 レポート

    Meta Allegedly Used Books3, a Dataset of 191,000 Pirated Books, to Train LLaMA AI

もっと
Entity

BloombergGPT

Incidents implicated systems
  • インシデント 996
    2 レポート

    Meta Allegedly Used Books3, a Dataset of 191,000 Pirated Books, to Train LLaMA AI

もっと
Entity

Bibliotik

Incidents implicated systems
  • インシデント 996
    2 レポート

    Meta Allegedly Used Books3, a Dataset of 191,000 Pirated Books, to Train LLaMA AI

もっと
Entity

publishers

影響を受けたインシデント
  • インシデント 997
    4 レポート

    Meta and OpenAI Accused of Using LibGen’s Pirated Books to Train AI Models

もっと
Entity

Academic researchers

影響を受けたインシデント
  • インシデント 997
    4 レポート

    Meta and OpenAI Accused of Using LibGen’s Pirated Books to Train AI Models

もっと
Entity

Llama 3

Incidents implicated systems
  • インシデント 997
    4 レポート

    Meta and OpenAI Accused of Using LibGen’s Pirated Books to Train AI Models

  • インシデント 859
    1 レポート

    AI Models Reportedly Found to Provide Misinformation on Election Processes in Spanish

もっと
Entity

Library Genesis (LibGen)

Incidents implicated systems
  • インシデント 997
    4 レポート

    Meta and OpenAI Accused of Using LibGen’s Pirated Books to Train AI Models

もっと
Entity

GPT-4

Incidents implicated systems
  • インシデント 997
    4 レポート

    Meta and OpenAI Accused of Using LibGen’s Pirated Books to Train AI Models

もっと
Entity

BitTorrent

Incidents implicated systems
  • インシデント 997
    4 レポート

    Meta and OpenAI Accused of Using LibGen’s Pirated Books to Train AI Models

もっと
Entity

National Party of Honduras supporters

Incidents involved as Deployer
  • インシデント 846
    1 レポート

    Social Media Algorithms Amplified Disinformation Campaign in Honduras Election

もっと
Entity

Juan Orlando Hernández supporters

Incidents involved as Deployer
  • インシデント 846
    1 レポート

    Social Media Algorithms Amplified Disinformation Campaign in Honduras Election

もっと
Entity

Unknown Twitter users

Incidents involved as Deployer
  • インシデント 846
    1 レポート

    Social Media Algorithms Amplified Disinformation Campaign in Honduras Election

もっと
Entity

Unknown Facebook users

Incidents involved as Deployer
  • インシデント 846
    1 レポート

    Social Media Algorithms Amplified Disinformation Campaign in Honduras Election

もっと
Entity

X (Twitter)

Incidents involved as Developer
  • インシデント 846
    1 レポート

    Social Media Algorithms Amplified Disinformation Campaign in Honduras Election

もっと
Entity

Xiomara Castro

影響を受けたインシデント
  • インシデント 846
    1 レポート

    Social Media Algorithms Amplified Disinformation Campaign in Honduras Election

もっと
Entity

Libertad y Refundación (LIBRE) supporters

影響を受けたインシデント
  • インシデント 846
    1 レポート

    Social Media Algorithms Amplified Disinformation Campaign in Honduras Election

もっと
Entity

Honduran electorate

影響を受けたインシデント
  • インシデント 846
    1 レポート

    Social Media Algorithms Amplified Disinformation Campaign in Honduras Election

もっと
Entity

Honduras

影響を受けたインシデント
  • インシデント 846
    1 レポート

    Social Media Algorithms Amplified Disinformation Campaign in Honduras Election

もっと
Entity

Spanish speakers

影響を受けたインシデント
  • インシデント 859
    1 レポート

    AI Models Reportedly Found to Provide Misinformation on Election Processes in Spanish

もっと
Entity

Spanish-speaking American voters

影響を受けたインシデント
  • インシデント 859
    1 レポート

    AI Models Reportedly Found to Provide Misinformation on Election Processes in Spanish

もっと
Entity

U.S. electorate

影響を受けたインシデント
  • インシデント 859
    1 レポート

    AI Models Reportedly Found to Provide Misinformation on Election Processes in Spanish

もっと
Entity

Claude 3

Incidents implicated systems
  • インシデント 859
    1 レポート

    AI Models Reportedly Found to Provide Misinformation on Election Processes in Spanish

もっと
Entity

Gemini 1.5 Pro

Incidents implicated systems
  • インシデント 859
    1 レポート

    AI Models Reportedly Found to Provide Misinformation on Election Processes in Spanish

もっと
Entity

ChatGPT 4

Incidents implicated systems
  • インシデント 859
    1 レポート

    AI Models Reportedly Found to Provide Misinformation on Election Processes in Spanish

もっと
Entity

Mixtral 8x7B

Incidents implicated systems
  • インシデント 859
    1 レポート

    AI Models Reportedly Found to Provide Misinformation on Election Processes in Spanish

もっと
Entity

Instagram recommendation algorithm

Incidents implicated systems
  • インシデント 957
    1 レポート

    Alleged Instagram Algorithm Malfunction Floods Users’ Reels Feeds with Violent and Graphic Content

もっと
Entity

Instagram Reels

Incidents implicated systems
  • インシデント 957
    1 レポート

    Alleged Instagram Algorithm Malfunction Floods Users’ Reels Feeds with Violent and Graphic Content

もっと

リサーチ

  • “AIインシデント”の定義
  • “AIインシデントレスポンス”の定義
  • データベースのロードマップ
  • 関連研究
  • 全データベースのダウンロード

プロジェクトとコミュニティ

  • AIIDについて
  • コンタクトとフォロー
  • アプリと要約
  • エディタのためのガイド

インシデント

  • 全インシデントの一覧
  • フラグの立ったインシデント
  • 登録待ち一覧
  • クラスごとの表示
  • 分類法

2023 - AI Incident Database

  • 利用規約
  • プライバシーポリシー
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 30ebe76