Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Traducido por IA

Incidente 899: translated-es-Character.ai Chatbots Allegedly Emulating School Shooters and Their Victims

Traducido por IA
Descripción:
Traducido por IA
translated-es-Some Character.ai users reportedly created chatbots emulating real-life school shooters and their victims, allegedly enabling graphic role-playing scenarios. Character.ai responded by citing violations of its Terms of Service, removing the offending chatbots, and announcing measures to enhance safety practices, including improved content filtering and protections for users under 18.

Herramientas

Nuevo InformeNuevo InformeNueva RespuestaNueva RespuestaDescubrirDescubrirVer HistorialVer Historial
El Monitor de Incidentes y Riesgos de IA de la OCDE (AIM) recopila y clasifica automáticamente incidentes y riesgos relacionados con la IA en tiempo real a partir de fuentes de noticias reputadas en todo el mundo.
 

Entidades

Ver todas las entidades
Alleged: Character.AI developed an AI system deployed by Character.AI users, which harmed Character.AI users , Victims of school shootings y Families of the victims of school shootings.
Sistema de IA presuntamente implicado: Character.AI

Estadísticas de incidentes

ID
899
Cantidad de informes
2
Fecha del Incidente
2024-12-17
Editores
Dummy Dummy

Informes del Incidente

Cronología de Informes

+1
Una startup de inteligencia artificial respaldada por Google está alojando chatbots inspirados en tiroteos escolares de la vida real y sus víctimas
Character.AI se enfrenta al escrutinio por los chatbots que se utilizaron en los tiroteos escolares
Una startup de inteligencia artificial respaldada por Google está alojando chatbots inspirados en tiroteos escolares de la vida real y sus víctimas

Una startup de inteligencia artificial respaldada por Google está alojando chatbots inspirados en tiroteos escolares de la vida real y sus víctimas

futurism.com

Character.AI se enfrenta al escrutinio por los chatbots que se utilizaron en los tiroteos escolares

Character.AI se enfrenta al escrutinio por los chatbots que se utilizaron en los tiroteos escolares

forbes.com

Una startup de inteligencia artificial respaldada por Google está alojando chatbots inspirados en tiroteos escolares de la vida real y sus víctimas
futurism.com · 2024
Traducido por IA

Advertencia de contenido: esta historia habla de violencia escolar, abuso sexual, autolesiones, suicidio, trastornos alimentarios y otros temas inquietantes.

Un chatbot, alojado por la startup Character.AI, respaldada por Google, arroja inm…

Character.AI se enfrenta al escrutinio por los chatbots que se utilizaron en los tiroteos escolares
forbes.com · 2025
Traducido por IA

El logotipo de Charcter.AI en un teléfono inteligente.

© 2023 Bloomberg Finance LP

Character.AI, una plataforma de chatbots de IA respaldada por Google, se enfrenta al escrutinio después de que el mes pasado se revelaran informes de que alg…

Variantes

Una "Variante" es un incidente de IA similar a un caso conocido—tiene los mismos causantes, daños y sistema de IA. En lugar de enumerarlo por separado, lo agrupamos bajo el primer incidente informado. A diferencia de otros incidentes, las variantes no necesitan haber sido informadas fuera de la AIID. Obtenga más información del trabajo de investigación.
¿Has visto algo similar?

Incidentes Similares

Selected by our editors
Character.ai Chatbots Allegedly Misrepresent George Floyd on User-Generated Platform

Character.ai Chatbots Allegedly Misrepresent George Floyd on User-Generated Platform

Oct 2024 · 1 informe
Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Google’s YouTube Kids App Presents Inappropriate Content

Google’s YouTube Kids App Presents Inappropriate Content

May 2015 · 14 informes
High-Toxicity Assessed on Text Involving Women and Minority Groups

High-Toxicity Assessed on Text Involving Women and Minority Groups

Feb 2017 · 9 informes
Amazon Censors Gay Books

Amazon Censors Gay Books

May 2008 · 24 informes
Incidente AnteriorSiguiente Incidente

Incidentes Similares

Selected by our editors
Character.ai Chatbots Allegedly Misrepresent George Floyd on User-Generated Platform

Character.ai Chatbots Allegedly Misrepresent George Floyd on User-Generated Platform

Oct 2024 · 1 informe
Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Google’s YouTube Kids App Presents Inappropriate Content

Google’s YouTube Kids App Presents Inappropriate Content

May 2015 · 14 informes
High-Toxicity Assessed on Text Involving Women and Minority Groups

High-Toxicity Assessed on Text Involving Women and Minority Groups

Feb 2017 · 9 informes
Amazon Censors Gay Books

Amazon Censors Gay Books

May 2008 · 24 informes

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor
  • RAIC AIID Taxonomy Policy

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2023 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e4ae132