インシデント 904: translated-ja-Kate Isaacs, Advocate Against Image-Based Abuse, Reports Being Deepfaked
概要: translated-ja-Kate Isaacs, a London-based activist and founder of the #NotYourPorn campaign, was targeted in a deepfake incident. Her face was alleged to have been digitally manipulated onto a pornographic video using AI and shared online. The reported video, tagged with her name, is alleged to have led to streams of abuse, doxing, and threats of violence. The attack reportedly followed her efforts to pressure PornHub to remove unverified content.
Editor Notes: A note on the timeline of this event: The specific timing of this incident remains unclear. The #NotYourPorn campaign is reported to have succeeded in pressuring PornHub to remove 10 million unverified videos in 2020. It is reported that the deepfaked video itself appeared sometime in 2020 as well. The initial reporting on the deepfake incident is dated 10/21/2022.
Alleged: Unknown deepfake technology developer developed an AI system deployed by Unknown Twitter user, which harmed Kate Isaacs.
関与が疑われるAIシステム: Unknown deepfake app
インシデントのステータス
インシデントID
904
レポート数
8
インシデント発生日
2022-10-21
エディタ
Dummy Dummy
インシデントレポート
レポートタイムライン
Loading...

もしあなたの顔が同意なしにデジタル編集されてポルノビデオにされ、インターネットで共有されたらどうなるか想像してみてください。ある女性が、自分に起こった恐怖を明かしています。
ある晩、ケイト・アイザックスさんはツイッターのフィードをスクロールしていると、通知の中に不穏なビデオを見つけました。
「パニックに襲われました」と、初めて公の場で何が起こったのかを語ったケイトさんは言います。「誰かが私の顔を撮ってポルノビデオに載せ、私であるかのように見せかけたのです。」
ケイトさんはディ…
Loading...

ケイト・アイザックスさんは携帯電話をスクロールしながらTwitterを開き、恐怖に襲われる投稿を見つけた。
誰かが、彼女がセックスしているように見える露骨な動画を公開ツイートしていたのだ。
「パニックに襲われた」とケイトさんはMetro.co.ukに語った。「その瞬間、はっきり考えられなかった。
「頭がフル回転し、『でも、あれはいつだったっけ、誰とセックスしたんだろう、覚えてない、同意したとは思えない』と思った。」
「見ていて本当に怖いです。なぜなら、『ああ、これは私だ、ポル…
Loading...