Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる

インシデント 1013: Essex Man Sentenced to Five Years in Prison for Having Generated and Shared Deepfake Pornography of at Least 20 Women and a Minor

概要: Between March 2023 and May 2024, Brandon Tyler of Essex used AI to generate explicit deepfake pornography of at least 20 women he knew personally, including a 16-year-old. He manipulated their social media photos and shared them, along with their personal details, in online forums promoting sexual violence. He was sentenced to five years in prison in April 2025 under the UK's criminal law against sharing sexually explicit deepfakes, in what is one of the first major prosecutions of its kind.
Editor Notes: Notes on the timeline: Brandon Tyler's actions reportedly began sometime in March 2023 and continued until May 2024, which is when he was arrested. He was sentenced on April 4, 2025 (which is the incident date selected for this incident ID). It is also the date when reporting seemingly emerged for this incident.

ツール

新しいレポート新しいレポート新しいレスポンス新しいレスポンス発見する発見する履歴を表示履歴を表示

組織

すべての組織を表示
Alleged: Unknown deepfake technology developer developed an AI system deployed by Brandon Tyler, which harmed Victims of Brandon Tyler と General public.
関与が疑われるAIシステム: Unknown deepfake technology apps

インシデントのステータス

インシデントID
1013
レポート数
1
インシデント発生日
2025-04-04
エディタ

インシデントレポート

レポートタイムライン

+1
AIを使ってディープフェイクポルノを作成した男が投獄される
AIを使ってディープフェイクポルノを作成した男が投獄される

AIを使ってディープフェイクポルノを作成した男が投獄される

bbc.com

AIを使ってディープフェイクポルノを作成した男が投獄される
bbc.com · 2025
自動翻訳済み

人工知能(AI)を使って知り合いの女性のディープフェイクポルノを作成したオンラインの変質者が、5年の懲役刑を言い渡された。

ブランドン・タイラー(26歳)はソーシャルメディアのページから画像を操作し、「レイプ文化」を賛美するフォーラムに投稿したと、チェルムズフォード刑事法院で審理された。

エセックス州ブレインツリー出身のバー従業員であるタイラーは、裁判官から「最悪の有害な男らしさを示している」と評された。

彼は、暴力を伴わない嫌がらせ行為18件と、性的満足のために他人の親密な…

バリアント

「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください

よく似たインシデント

テキスト類似度による

Did our AI mess up? Flag the unrelated incidents

Facial Recognition Trial Performed Poorly at Notting Hill Carnival

Don’t Believe the Algorithm

Aug 2017 · 4 レポート
UK passport photo checker shows bias against dark-skinned women

UK passport photo checker shows bias against dark-skinned women

Oct 2020 · 1 レポート
Defamation via AutoComplete

Algorithmic Defamation: The Case of the Shameless Autocomplete

Apr 2011 · 28 レポート
前のインシデント次のインシデント

よく似たインシデント

テキスト類似度による

Did our AI mess up? Flag the unrelated incidents

Facial Recognition Trial Performed Poorly at Notting Hill Carnival

Don’t Believe the Algorithm

Aug 2017 · 4 レポート
UK passport photo checker shows bias against dark-skinned women

UK passport photo checker shows bias against dark-skinned women

Oct 2020 · 1 レポート
Defamation via AutoComplete

Algorithmic Defamation: The Case of the Shameless Autocomplete

Apr 2011 · 28 レポート

リサーチ

  • “AIインシデント”の定義
  • “AIインシデントレスポンス”の定義
  • データベースのロードマップ
  • 関連研究
  • 全データベースのダウンロード

プロジェクトとコミュニティ

  • AIIDについて
  • コンタクトとフォロー
  • アプリと要約
  • エディタのためのガイド

インシデント

  • 全インシデントの一覧
  • フラグの立ったインシデント
  • 登録待ち一覧
  • クラスごとの表示
  • 分類法

2023 - AI Incident Database

  • 利用規約
  • プライバシーポリシー
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • f28fa7c