Incidente 953: translated-es-Deepfake Videos of Barbara O’Neill Allegedly Used in Health Scam Targeting Social Media Users
Descripción: translated-es-Deepfake videos of Barbara O’Neill, an Australian alternative health advocate banned from giving medical advice, have allegedly been used in fraudulent social media ads promoting false health cures. They include treatments for prostate issues and erectile dysfunction. These manipulated videos have been widely circulated across African countries. The scam directs users to deceptive websites, potentially for phishing or financial fraud. O’Neill has denied involvement.
Entidades
Ver todas las entidadesAlleged: Unknown deepfake technology developer y Unknown voice cloning technology developer developed an AI system deployed by scammers y Scammers impersonating Barbara O'Neill, which harmed Barbara O'Neill , Individuals with health problems , Citizens of various African nations y social media users.
Sistemas de IA presuntamente implicados: Unknown deepfake app y Unknown voice cloning technology
Estadísticas de incidentes
ID
953
Cantidad de informes
1
Fecha del Incidente
2024-11-01
Editores
Dummy Dummy
Informes del Incidente
Cronología de Informes

EN RESUMEN: Un video que circula en las redes sociales supuestamente muestra a la “naturópata” australiana caída en desgracia Barbara O’Neill, quien respalda una cura para los problemas de próstata y la disfunción eréctil. Pero hay indicios…
Variantes
Una "Variante" es un incidente de IA similar a un caso conocido—tiene los mismos causantes, daños y sistema de IA. En lugar de enumerarlo por separado, lo agrupamos bajo el primer incidente informado. A diferencia de otros incidentes, las variantes no necesitan haber sido informadas fuera de la AIID. Obtenga más información del trabajo de investigación.
¿Has visto algo similar?
Incidentes Similares
Did our AI mess up? Flag the unrelated incidents

Biased Google Image Results
· 18 informes
Defamation via AutoComplete
· 28 informes
Incidentes Similares
Did our AI mess up? Flag the unrelated incidents

Biased Google Image Results
· 18 informes
Defamation via AutoComplete
· 28 informes