Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Incidente 6: TayBot

Respondido
Descripción: Microsoft's Tay, an artificially intelligent chatbot, was released on March 23, 2016 and removed within 24 hours due to multiple racist, sexist, and anit-semitic tweets generated by the bot.

Herramientas

Nuevo InformeNuevo InformeNueva RespuestaNueva RespuestaDescubrirDescubrirVer HistorialVer Historial

Entidades

Ver todas las entidades
Presunto: un sistema de IA desarrollado e implementado por Microsoft, perjudicó a Twitter Users.

Estadísticas de incidentes

ID
6
Cantidad de informes
28
Fecha del Incidente
2016-03-24
Editores
Sean McGregor
Applied Taxonomies
CSETv0, CSETv1, GMF, MIT

Clasificaciones de la Taxonomía CSETv1

Detalles de la Taxonomía

Incident Number

The number of the incident in the AI Incident Database.
 

6

Notes (special interest intangible harm)

Input any notes that may help explain your answers.
 

4.6 - Tay's tweets included racist and misogynist content, far-right ideology, and harmful content against certain religions, etc.

Special Interest Intangible Harm

An assessment of whether a special interest intangible harm occurred. This assessment does not consider the context of the intangible harm, if an AI was involved, or if there is characterizable class or subgroup of harmed entities. It is also not assessing if an intangible harm occurred. It is only asking if a special interest intangible harm occurred.
 

yes

Date of Incident Year

The year in which the incident occurred. If there are multiple harms or occurrences of the incident, list the earliest. If a precise date is unavailable, but the available sources provide a basis for estimating the year, estimate. Otherwise, leave blank. Enter in the format of YYYY
 

2016

Date of Incident Month

The month in which the incident occurred. If there are multiple harms or occurrences of the incident, list the earliest. If a precise date is unavailable, but the available sources provide a basis for estimating the month, estimate. Otherwise, leave blank. Enter in the format of MM
 

03

Date of Incident Day

The day on which the incident occurred. If a precise date is unavailable, leave blank. Enter in the format of DD
 

23

Clasificaciones de la Taxonomía CSETv0

Detalles de la Taxonomía

Problem Nature

Indicates which, if any, of the following types of AI failure describe the incident: "Specification," i.e. the system's behavior did not align with the true intentions of its designer, operator, etc; "Robustness," i.e. the system operated unsafely because of features or changes in its environment, or in the inputs the system received; "Assurance," i.e. the system could not be adequately monitored or controlled during operation.
 

Specification, Robustness, Assurance

Physical System

Where relevant, indicates whether the AI system(s) was embedded into or tightly associated with specific types of hardware.
 

Software only

Level of Autonomy

The degree to which the AI system(s) functions independently from human intervention. "High" means there is no human involved in the system action execution; "Medium" means the system generates a decision and a human oversees the resulting action; "low" means the system generates decision-support output and a human makes a decision and executes an action.
 

Medium

Nature of End User

"Expert" if users with special training or technical expertise were the ones meant to benefit from the AI system(s)’ operation; "Amateur" if the AI systems were primarily meant to benefit the general public or untrained users.
 

Amateur

Public Sector Deployment

"Yes" if the AI system(s) involved in the accident were being used by the public sector or for the administration of public goods (for example, public transportation). "No" if the system(s) were being used in the private sector or for commercial purposes (for example, a ride-sharing company), on the other.
 

No

Data Inputs

A brief description of the data that the AI system(s) used or were trained on.
 

Twitter users' input

Clasificaciones de la Taxonomía MIT

Machine-Classified
Detalles de la Taxonomía

Risk Subdomain

A further 23 subdomains create an accessible and understandable classification of hazards and harms associated with AI
 

1.2. Exposure to toxic content

Risk Domain

The Domain Taxonomy of AI Risks classifies risks into seven AI risk domains: (1) Discrimination & toxicity, (2) Privacy & security, (3) Misinformation, (4) Malicious actors & misuse, (5) Human-computer interaction, (6) Socioeconomic & environmental harms, and (7) AI system safety, failures & limitations.
 
  1. Discrimination and Toxicity

Entity

Which, if any, entity is presented as the main cause of the risk
 

AI

Timing

The stage in the AI lifecycle at which the risk is presented as occurring
 

Post-deployment

Intent

Whether the risk is presented as occurring as an expected or unexpected outcome from pursuing a goal
 

Unintentional

Informes del Incidente

Cronología de Informes

+18
¿Por qué el bot de IA 'Tay' de Microsoft salió mal?
+3
Microsoft chatbot Zo es una versión censurada de Tay
¡Peligro PELIGRO! 10 ejemplos alarmantes de IA enloquecidaEl peor chatbot fallaDesenmascarando el problema de sesgo de la IAEl chatbot políticamente correcto de Microsoft es incluso peor que el racistaEn 2016, el chatbot racista de Microsoft reveló los peligros de las conversaciones en líneaTay (bot)
¿Por qué el bot de IA 'Tay' de Microsoft salió mal?

¿Por qué el bot de IA 'Tay' de Microsoft salió mal?

techrepublic.com

Aquí están las diatribas racistas más locas del bot de Twitter de Microsoft

Aquí están las diatribas racistas más locas del bot de Twitter de Microsoft

gizmodo.com

Twitter le enseñó al chatbot de IA de Microsoft a ser un gilipollas racista en menos de un día

Twitter le enseñó al chatbot de IA de Microsoft a ser un gilipollas racista en menos de un día

theverge.com

El truco del bot artificial de Twitter de Microsoft fracasa cuando los trolls le enseñan declaraciones racistas

El truco del bot artificial de Twitter de Microsoft fracasa cuando los trolls le enseñan declaraciones racistas

thedrum.com

Microsoft elimina la IA de 'chica adolescente' después de que se convirtió en un robot sexual amante de Hitler en 24 horas

Microsoft elimina la IA de 'chica adolescente' después de que se convirtió en un robot sexual amante de Hitler en 24 horas

telegraph.co.uk

Microsoft elimina tuits racistas y genocidas del chatbot de IA Tay

Microsoft elimina tuits racistas y genocidas del chatbot de IA Tay

businessinsider.com

Tay de Microsoft es un ejemplo de mal diseño

Tay de Microsoft es un ejemplo de mal diseño

medium.com

¿Por qué fracasó el chatbot Tay de Microsoft y qué significa para los estudios de inteligencia artificial?

¿Por qué fracasó el chatbot Tay de Microsoft y qué significa para los estudios de inteligencia artificial?

blog.botego.com

Es tu culpa que la IA adolescente de Microsoft se haya convertido en un idiota

Es tu culpa que la IA adolescente de Microsoft se haya convertido en un idiota

wired.com

5 grandes preguntas sobre Tay, la IA fallida de Microsoft Chatbot de Twitter

5 grandes preguntas sobre Tay, la IA fallida de Microsoft Chatbot de Twitter

inverse.com

Microsoft cierra el chatbot de IA después de que se convirtió en un nazi

Microsoft cierra el chatbot de IA después de que se convirtió en un nazi

cbsnews.com

Aprendiendo de la introducción de Tay

Aprendiendo de la introducción de Tay

blogs.microsoft.com

Tay: Microsoft emite disculpas por el fiasco del chatbot racista

Tay: Microsoft emite disculpas por el fiasco del chatbot racista

bbc.com

Los trolls convirtieron a Tay, el divertido bot milenario de IA de Microsoft, en un maníaco genocida

Los trolls convirtieron a Tay, el divertido bot milenario de IA de Microsoft, en un maníaco genocida

washingtonpost.com

Microsoft 'lo siento profundamente' por los tweets racistas y sexistas de AI chatbot

Microsoft 'lo siento profundamente' por los tweets racistas y sexistas de AI chatbot

theguardian.com

Tay the Racist Chatbot: ¿Quién es responsable cuando una máquina aprende a ser malvada?

Tay the Racist Chatbot: ¿Quién es responsable cuando una máquina aprende a ser malvada?

futureoflife.org

El chatbot racista de Microsoft regresa con el colapso de Twitter por fumar drogas

El chatbot racista de Microsoft regresa con el colapso de Twitter por fumar drogas

theguardian.com

El desastroso experimento Tay de Microsoft muestra los peligros ocultos de la IA

El desastroso experimento Tay de Microsoft muestra los peligros ocultos de la IA

qz.com

Microsoft chatbot Zo es una versión censurada de Tay

Microsoft chatbot Zo es una versión censurada de Tay

wired.co.uk

Con Teen Bot Tay, Microsoft demostró que los imbéciles adoctrinarán a la IA.

Con Teen Bot Tay, Microsoft demostró que los imbéciles adoctrinarán a la IA.

inverse.com

El chatbot racista de Microsoft, Tay, figura en la lista anual de peor tecnología del MIT

El chatbot racista de Microsoft, Tay, figura en la lista anual de peor tecnología del MIT

geekwire.com

La responsabilidad de la IA - Estudio de caso: Experimento Tay de Microsoft

La responsabilidad de la IA - Estudio de caso: Experimento Tay de Microsoft

chatbotslife.com

¡Peligro PELIGRO! 10 ejemplos alarmantes de IA enloquecida

¡Peligro PELIGRO! 10 ejemplos alarmantes de IA enloquecida

infoworld.com

El peor chatbot falla

El peor chatbot falla

businessnewsdaily.com

Desenmascarando el problema de sesgo de la IA

Desenmascarando el problema de sesgo de la IA

fortune.com

El chatbot políticamente correcto de Microsoft es incluso peor que el racista

El chatbot políticamente correcto de Microsoft es incluso peor que el racista

qz.com

En 2016, el chatbot racista de Microsoft reveló los peligros de las conversaciones en línea

En 2016, el chatbot racista de Microsoft reveló los peligros de las conversaciones en línea

spectrum.ieee.org

Tay (bot)

Tay (bot)

en.wikipedia.org

¿Por qué el bot de IA 'Tay' de Microsoft salió mal?
techrepublic.com · 2016
Traducido por IA

Menos de un día después de que se uniera a Twitter, el bot de inteligencia artificial de Microsoft, Tay.ai, fue eliminado por convertirse en un monstruo sexista y racista. Los expertos en inteligencia artificial explican por qué salió terri…

Aquí están las diatribas racistas más locas del bot de Twitter de Microsoft
gizmodo.com · 2016
Traducido por IA

Ayer, Microsoft lanzó Tay, el chatbot de inteligencia artificial que habla con los adolescentes, creado para imitar y conversar con los usuarios en tiempo real. Debido a que el mundo es un lugar terrible lleno de gente de mierda, muchos de …

Twitter le enseñó al chatbot de IA de Microsoft a ser un gilipollas racista en menos de un día
theverge.com · 2016
Traducido por IA

Twitter tardó menos de 24 horas en corromper un chatbot inocente de IA. Ayer, Microsoft presentó Tay, un bot de Twitter que la compañía describió como un experimento de "comprensión conversacional". Cuanto más chateas con Tay, dijo Microsof…

El truco del bot artificial de Twitter de Microsoft fracasa cuando los trolls le enseñan declaraciones racistas
thedrum.com · 2016
Traducido por IA

Microsoft presentó ayer el bot de inteligencia artificial de Twitter @TayandYou en un intento por conectarse con los millennials y "experimentar" con la comprensión conversacional.

El truco del bot artificial de Twitter de Microsoft fracasa…

Microsoft elimina la IA de 'chica adolescente' después de que se convirtió en un robot sexual amante de Hitler en 24 horas
telegraph.co.uk · 2016
Traducido por IA

Un día después de que Microsoft introdujera un inocente robot de chat de inteligencia artificial en Twitter, tuvo que eliminarlo después de que se transformó en un malvado robot amante de Hitler, promotor del sexo incestual y que proclamaba…

Microsoft elimina tuits racistas y genocidas del chatbot de IA Tay
businessinsider.com · 2016
Traducido por IA

La página de Twitter de Tay Microsoft El nuevo chatbot de IA de Microsoft se descarriló el miércoles, publicando una avalancha de mensajes increíblemente racistas en respuesta a las preguntas.

La empresa de tecnología presentó "Tay" esta se…

Tay de Microsoft es un ejemplo de mal diseño
medium.com · 2016
Traducido por IA

Tay de Microsoft es un ejemplo de mal diseño

o Por qué es importante el diseño de interacción, y también lo es el control de calidad.

caroline sinders Bloqueado Desbloquear Seguir Siguiendo Mar 24, 2016

Ayer, Microsoft lanzó una IA para niñ…

¿Por qué fracasó el chatbot Tay de Microsoft y qué significa para los estudios de inteligencia artificial?
blog.botego.com · 2016
Traducido por IA

¿Por qué fracasó el chatbot Tay de Microsoft y qué significa para los estudios de inteligencia artificial?

Botego Inc Bloqueado Desbloquear Seguir Siguiendo Mar 25, 2016

Ayer, sucedió algo que parece un gran fracaso: el chatbot Tay de Micro…

Es tu culpa que la IA adolescente de Microsoft se haya convertido en un idiota
wired.com · 2016
Traducido por IA

Fue el desarrollo de una desafortunada serie de eventos que involucraron inteligencia artificial, naturaleza humana y un experimento muy público. En medio de esta peligrosa combinación de fuerzas, determinar exactamente qué salió mal es cas…

5 grandes preguntas sobre Tay, la IA fallida de Microsoft Chatbot de Twitter
inverse.com · 2016
Traducido por IA

Esta semana, Internet hizo lo que mejor sabe hacer y demostró que A.I. la tecnología no es tan intuitiva como la percepción humana, usando... el racismo.

El chatbot de inteligencia artificial lanzado recientemente por Microsoft, Tay, fue ví…

Microsoft cierra el chatbot de IA después de que se convirtió en un nazi
cbsnews.com · 2016
Traducido por IA

Microsoft recibió una rápida lección esta semana sobre el lado oscuro de las redes sociales. Ayer, la compañía lanzó "Tay", una inteligencia artificial chatbot diseñado para desarrollar la comprensión conversacional al interactuar con human…

Aprendiendo de la introducción de Tay
blogs.microsoft.com · 2016
Traducido por IA
Respuesta post-incidente de Peter Lee, Microsoft

Como muchos de ustedes ya saben, el miércoles lanzamos un chatbot llamado Tay. Lamentamos profundamente los tweets ofensivos e hirientes involuntarios de Tay, que no representan quiénes somos o qué representamos, ni cómo diseñamos a Tay. Ta…

Tay: Microsoft emite disculpas por el fiasco del chatbot racista
bbc.com · 2016
Traducido por IA

Derechos de autor de la imagen Microsoft Image caption A la IA se le enseñó a hablar como un adolescente.

Microsoft se disculpó por crear un chatbot artificialmente inteligente que rápidamente se convirtió en un racista que niega el holocau…

Los trolls convirtieron a Tay, el divertido bot milenario de IA de Microsoft, en un maníaco genocida
washingtonpost.com · 2016
Traducido por IA

Internet tardó solo unas horas en transformar a Tay, el bot de IA adolescente que quiere conversar y aprender de los millennials, en Tay, el bot de IA racista y genocida al que le gustaba hacer referencia a Hitler. Y ahora Tay se está toman…

Microsoft 'lo siento profundamente' por los tweets racistas y sexistas de AI chatbot
theguardian.com · 2016
Traducido por IA

Microsoft ha dicho que está "profundamente arrepentido" por los mensajes de Twitter racistas y sexistas generados por el llamado chatbot que lanzó esta semana.

La compañía lanzó una disculpa oficial después de que el programa de inteligenci…

Tay the Racist Chatbot: ¿Quién es responsable cuando una máquina aprende a ser malvada?
futureoflife.org · 2016
Traducido por IA

Con mucho, la noticia de IA más entretenida de la semana pasada fue el ascenso y la rápida caída de Tay, el chatbot de Twitter de imitación de niña adolescente de Microsoft, cuyo eslogan de Twitter la describió como "la familia de IA de Mic…

El chatbot racista de Microsoft regresa con el colapso de Twitter por fumar drogas
theguardian.com · 2016
Traducido por IA

El regreso de corta duración vio a Tay twittear sobre fumar drogas frente a la policía antes de sufrir un colapso y ser desconectado

Este artículo tiene más de 3 años.

Este artículo tiene más de 3 años.

El intento de Microsoft de conversar …

El desastroso experimento Tay de Microsoft muestra los peligros ocultos de la IA
qz.com · 2016
Traducido por IA

Los seres humanos tienen una larga historia de enloquecimiento por los posibles efectos de nuestras tecnologías. Hace mucho tiempo, a Platón le preocupaba que la escritura pudiera dañar la memoria de las personas e “implantar el olvido en s…

Microsoft chatbot Zo es una versión censurada de Tay
wired.co.uk · 2016
Traducido por IA

El sucesor de Tay se llama Zo y solo está disponible por invitación en la aplicación de mensajería Kik. Cuando solicita acceso, el software solicita su nombre de usuario de Kik y el identificador de Twitter Microsoft

Después de haber aprend…

Con Teen Bot Tay, Microsoft demostró que los imbéciles adoctrinarán a la IA.
inverse.com · 2016
Traducido por IA

Cuando Tay comenzó su corta vida digital el 23 de marzo, solo quería charlar y hacer nuevos amigos en la red. El chatbot, que fue creado por el departamento de investigación de Microsoft, saludó el día con un tweet emocionado que podría hab…

El chatbot racista de Microsoft, Tay, figura en la lista anual de peor tecnología del MIT
geekwire.com · 2016
Traducido por IA

BOT o NO? Esta serie especial explora la relación en evolución entre humanos y máquinas, examinando las formas en que los robots, la inteligencia artificial y la automatización están impactando nuestro trabajo y nuestras vidas.

Tay, el chat…

La responsabilidad de la IA - Estudio de caso: Experimento Tay de Microsoft
chatbotslife.com · 2017
Traducido por IA

La responsabilidad de la IA: estudio de caso: el experimento Tay de Microsoft

Yuxi Liu Bloqueado Desbloquear Seguir Siguiendo 16 de enero de 2017

En este estudio de caso, describo el chatbot de inteligencia artificial (IA) de Microsoft Tay …

¡Peligro PELIGRO! 10 ejemplos alarmantes de IA enloquecida
infoworld.com · 2017
Traducido por IA

La ciencia ficción es pésima con historias de inteligencia artificial enloquecidas. Está HAL 9000, por supuesto, y el nefasto sistema Skynet de las películas "Terminator". El año pasado, el siniestro AI Ultron estuvo tan cerca de derrotar a…

El peor chatbot falla
businessnewsdaily.com · 2017
Traducido por IA

Muchas personas asocian la innovación con la tecnología, pero el avance de la tecnología está sujeto a los mismos errores vergonzosos que cometen los humanos. En ninguna parte es esto más evidente que en los chatbots.

La tecnología emergent…

Desenmascarando el problema de sesgo de la IA
fortune.com · 2018
Traducido por IA

CUANDO TAY HIZO SU DEBUT en marzo de 2016, Microsoft tenía grandes esperanzas puestas en el “chatbot social” impulsado por inteligencia artificial. Al igual que los programas de chat automatizados basados en texto que muchas personas ya hab…

El chatbot políticamente correcto de Microsoft es incluso peor que el racista
qz.com · 2018
Traducido por IA

Cada relación entre hermanos tiene sus clichés. La hermana nerviosa, el hermano fugitivo, el más joven con demasiados derechos. En la familia Microsoft de chatbots de aprendizaje social, los contrastes entre Tay, la infame neonazi loca por …

En 2016, el chatbot racista de Microsoft reveló los peligros de las conversaciones en línea
spectrum.ieee.org · 2019
Traducido por IA

En marzo de 2016, Microsoft se preparaba para lanzar [su nuevo chatbot, Tay](https://web.archive.org/web/20160414074049/https: /www.tay.ai/), en Twitter. Descrito como un experimento de "comprensión conversacional", Tay fue diseñado para in…

Tay (bot)
en.wikipedia.org · 2020
Traducido por IA

Tay era un bot parlante de inteligencia artificial que Microsoft Corporation lanzó originalmente a través de Twitter el 23 de marzo de 2016; causó una controversia posterior cuando el bot comenzó a publicar tweets incendiarios y ofensivos a…

Variantes

Una "Variante" es un incidente que comparte los mismos factores causales, produce daños similares e involucra los mismos sistemas inteligentes que un incidente de IA conocido. En lugar de indexar las variantes como incidentes completamente separados, enumeramos las variaciones de los incidentes bajo el primer incidente similar enviado a la base de datos. A diferencia de otros tipos de envío a la base de datos de incidentes, no se requiere que las variantes tengan informes como evidencia externa a la base de datos de incidentes. Obtenga más información del trabajo de investigación.

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

All Image Captions Produced are Violent

Are you scared yet? Meet Norman, the psychopathic AI

Apr 2018 · 28 informes
Russian Chatbot Supports Stalin and Violence

Russian AI chatbot found supporting Stalin and violence two weeks after launch

Oct 2017 · 5 informes
AI Beauty Judge Did Not Like Dark Skin

A beauty contest was judged by AI and the robots didn't like dark skin

Sep 2016 · 10 informes
Incidente AnteriorSiguiente Incidente

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

All Image Captions Produced are Violent

Are you scared yet? Meet Norman, the psychopathic AI

Apr 2018 · 28 informes
Russian Chatbot Supports Stalin and Violence

Russian AI chatbot found supporting Stalin and violence two weeks after launch

Oct 2017 · 5 informes
AI Beauty Judge Did Not Like Dark Skin

A beauty contest was judged by AI and the robots didn't like dark skin

Sep 2016 · 10 informes

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2023 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 30ebe76