Incidente 1036: Un supuesto clip de noticias manipulado por IA inventa una explosión y un plan de asesinato de un médico para una estafa.
Descripción: Un video supuestamente manipulado por IA, que mostraba falsamente al presentador de Citizen TV, Swaleh Mdoe, informando sobre el atentado con bomba en la casa de un médico keniano, circuló ampliamente en Facebook. El video supuestamente utilizó audio e imágenes generadas por IA para inventar una conspiración en la que las compañías farmacéuticas atacaron al médico por promover una "cura milagrosa". En realidad, las imágenes de la explosión eran de Ohio, el médico era ficticio y el contenido buscaba manipular a los espectadores para que compraran un producto sanitario no probado.
Editor Notes: Timeline notes: The reported video emerged sometime in January 2025. By the time Africa Check published its report on January 20, 2025, they claim that it had garnered over 497,000 views. The report was included in the database on April 21, 2025.
Entidades
Ver todas las entidadesAlleged: Unknown deepfake technology developer y Unknown voice cloning technology developer developed an AI system deployed by scammers y Fraudsters, which harmed Swaleh Mdoe , Citizen TV , General public of Kenya y Media integrity.
Sistemas de IA presuntamente implicados: Unknown deepfake app y Unknown voice cloning technology
Estadísticas de incidentes
ID
1036
Cantidad de informes
1
Fecha del Incidente
2025-01-20
Editores
Dummy Dummy
Informes del Incidente
Cronología de Informes

EN RESUMEN: Un video viral de Facebook afirma que la casa de un médico keniano fue destruida en una explosión relacionada con sus críticas a las farmacéuticas. También lo muestra promocionando una "cura milagrosa" para enfermedades crónicas…
Variantes
Una "Variante" es un incidente de IA similar a un caso conocido—tiene los mismos causantes, daños y sistema de IA. En lugar de enumerarlo por separado, lo agrupamos bajo el primer incidente informado. A diferencia de otros incidentes, las variantes no necesitan haber sido informadas fuera de la AIID. Obtenga más información del trabajo de investigación.
¿Has visto algo similar?
Incidentes Similares
Did our AI mess up? Flag the unrelated incidents

Deepfake Obama Introduction of Deepfakes
· 29 informes
Defamation via AutoComplete
· 28 informes

Alexa Plays Pornography Instead of Kids Song
· 16 informes
Incidentes Similares
Did our AI mess up? Flag the unrelated incidents

Deepfake Obama Introduction of Deepfakes
· 29 informes
Defamation via AutoComplete
· 28 informes

Alexa Plays Pornography Instead of Kids Song
· 16 informes