Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Incidente 37: Female Applicants Down-Ranked by Amazon Recruiting Tool

Descripción: Amazon shuts down internal AI recruiting tool that would down-rank female applicants.

Herramientas

Nuevo InformeNuevo InformeNueva RespuestaNueva RespuestaDescubrirDescubrirVer HistorialVer Historial

Entidades

Ver todas las entidades
Presunto: un sistema de IA desarrollado e implementado por Amazon, perjudicó a female applicants.

Estadísticas de incidentes

ID
37
Cantidad de informes
33
Fecha del Incidente
2016-08-10
Editores
Sean McGregor
Applied Taxonomies
CSETv0, CSETv1, GMF, MIT

Clasificaciones de la Taxonomía CSETv1

Detalles de la Taxonomía

Incident Number

The number of the incident in the AI Incident Database.
 

37

Clasificaciones de la Taxonomía CSETv0

Detalles de la Taxonomía

Problem Nature

Indicates which, if any, of the following types of AI failure describe the incident: "Specification," i.e. the system's behavior did not align with the true intentions of its designer, operator, etc; "Robustness," i.e. the system operated unsafely because of features or changes in its environment, or in the inputs the system received; "Assurance," i.e. the system could not be adequately monitored or controlled during operation.
 

Specification

Physical System

Where relevant, indicates whether the AI system(s) was embedded into or tightly associated with specific types of hardware.
 

Software only

Level of Autonomy

The degree to which the AI system(s) functions independently from human intervention. "High" means there is no human involved in the system action execution; "Medium" means the system generates a decision and a human oversees the resulting action; "low" means the system generates decision-support output and a human makes a decision and executes an action.
 

Medium

Nature of End User

"Expert" if users with special training or technical expertise were the ones meant to benefit from the AI system(s)’ operation; "Amateur" if the AI systems were primarily meant to benefit the general public or untrained users.
 

Expert

Public Sector Deployment

"Yes" if the AI system(s) involved in the accident were being used by the public sector or for the administration of public goods (for example, public transportation). "No" if the system(s) were being used in the private sector or for commercial purposes (for example, a ride-sharing company), on the other.
 

No

Data Inputs

A brief description of the data that the AI system(s) used or were trained on.
 

Resumes

Clasificaciones de la Taxonomía MIT

Machine-Classified
Detalles de la Taxonomía

Risk Subdomain

A further 23 subdomains create an accessible and understandable classification of hazards and harms associated with AI
 

1.1. Unfair discrimination and misrepresentation

Risk Domain

The Domain Taxonomy of AI Risks classifies risks into seven AI risk domains: (1) Discrimination & toxicity, (2) Privacy & security, (3) Misinformation, (4) Malicious actors & misuse, (5) Human-computer interaction, (6) Socioeconomic & environmental harms, and (7) AI system safety, failures & limitations.
 
  1. Discrimination and Toxicity

Entity

Which, if any, entity is presented as the main cause of the risk
 

AI

Timing

The stage in the AI lifecycle at which the risk is presented as occurring
 

Post-deployment

Intent

Whether the risk is presented as occurring as an expected or unexpected outcome from pursuing a goal
 

Unintentional

Informes del Incidente

Cronología de Informes

Incident Occurrence+23
Amazon descarta la herramienta de reclutamiento de 'IA sexista'
+4
Amazon cierra su problemático sistema sexista de reclutamiento de IA
IA sexista: Amazon abandona la herramienta de reclutamiento que resultó ser anti-mujeres+1
La ciudad de Nueva York propone regular los algoritmos utilizados en la contratación
Las herramientas de inteligencia artificial no logran reducir el sesgo de reclutamiento: estudio
Amazon descarta la herramienta de reclutamiento de 'IA sexista'

Amazon descarta la herramienta de reclutamiento de 'IA sexista'

independent.co.uk

Amazon elimina la herramienta de reclutamiento de 'IA sexista' que mostraba prejuicios contra las mujeres

Amazon elimina la herramienta de reclutamiento de 'IA sexista' que mostraba prejuicios contra las mujeres

telegraph.co.uk

Cómo Amazon inventó accidentalmente un algoritmo de contratación sexista

Cómo Amazon inventó accidentalmente un algoritmo de contratación sexista

inc.com

Amazon eliminó su sistema de reclutamiento de IA por sesgo contra las mujeres: informe

Amazon eliminó su sistema de reclutamiento de IA por sesgo contra las mujeres: informe

fortune.com

Amazon eliminó herramienta de 'IA sexista'

Amazon eliminó herramienta de 'IA sexista'

bbc.com

Amazon elimina la herramienta secreta de reclutamiento de IA que mostraba prejuicios contra las mujeres

Amazon elimina la herramienta secreta de reclutamiento de IA que mostraba prejuicios contra las mujeres

reuters.com

La herramienta de contratación de IA de Amazon discriminaba a las mujeres.

La herramienta de contratación de IA de Amazon discriminaba a las mujeres.

slate.com

La herramienta de reclutamiento de IA de Amazon descartada por ser sexista

La herramienta de reclutamiento de IA de Amazon descartada por ser sexista

alphr.com

Amazon disparó su IA de lectura de currículums por sexismo

Amazon disparó su IA de lectura de currículums por sexismo

popularmechanics.com

Resulta que la herramienta de contratación de IA de Amazon discriminaba a las mujeres

Resulta que la herramienta de contratación de IA de Amazon discriminaba a las mujeres

siliconrepublic.com

Amazon abandona la IA sexista

Amazon abandona la IA sexista

information-age.com

El algoritmo de reclutamiento sexista de Amazon refleja un mayor sesgo de género

El algoritmo de reclutamiento sexista de Amazon refleja un mayor sesgo de género

mashable.com

Amazon abandonó la sexista herramienta de reclutamiento de IA

Amazon abandonó la sexista herramienta de reclutamiento de IA

channels.theinnovationenterprise.com

Amazon abandonó la herramienta de reclutamiento de IA que favorecía a los hombres para trabajos técnicos

Amazon abandonó la herramienta de reclutamiento de IA que favorecía a los hombres para trabajos técnicos

theguardian.com

Amazon creó accidentalmente una herramienta de reclutamiento 'sexista' y luego la cerró

Amazon creó accidentalmente una herramienta de reclutamiento 'sexista' y luego la cerró

aplus.com

Amazon cierra la herramienta de contratación de AI por ser sexista

Amazon cierra la herramienta de contratación de AI por ser sexista

globalcitizen.org

Amazon creó una herramienta de inteligencia artificial para contratar personas, pero tuvo que cerrarla porque discriminaba a las mujeres

Amazon creó una herramienta de inteligencia artificial para contratar personas, pero tuvo que cerrarla porque discriminaba a las mujeres

businessinsider.com.au

Amazon desecha la herramienta de contratación de IA 'sexista'

Amazon desecha la herramienta de contratación de IA 'sexista'

news.com.au

Amazon abandona la herramienta de reclutamiento de IA que 'aprendió a ser sexista'

Amazon abandona la herramienta de reclutamiento de IA que 'aprendió a ser sexista'

afr.com

Amazon cierra la herramienta secreta de reclutamiento de inteligencia artificial que se enseñó a sí misma a ser sexista

Amazon cierra la herramienta secreta de reclutamiento de inteligencia artificial que se enseñó a sí misma a ser sexista

interestingengineering.com

Amazon entrenó una IA que lucha contra el sexismo y evalúa currículums con datos de contratación sexistas, por lo que el bot se volvió sexista

Amazon entrenó una IA que lucha contra el sexismo y evalúa currículums con datos de contratación sexistas, por lo que el bot se volvió sexista

boingboing.net

Amazon elimina la herramienta sexista de reclutamiento de IA

Amazon elimina la herramienta sexista de reclutamiento de IA

radionz.co.nz

Herramienta sexista de Amazon AI descartada

Herramienta sexista de Amazon AI descartada

insights.tmpw.co.uk

¿Está la tecnología condenada a reflejar lo peor de todos nosotros?

¿Está la tecnología condenada a reflejar lo peor de todos nosotros?

tech.co

Amazon cierra su problemático sistema sexista de reclutamiento de IA

Amazon cierra su problemático sistema sexista de reclutamiento de IA

mansworldindia.com

¿Es la IA sexista?

¿Es la IA sexista?

wellesley.edu

Amazon elimina la herramienta de reclutamiento de 'IA sexista' que mostraba prejuicios contra las mujeres

Amazon elimina la herramienta de reclutamiento de 'IA sexista' que mostraba prejuicios contra las mujeres

msn.com

Por qué la sexista herramienta de reclutamiento de IA de Amazon es mejor que un humano.

Por qué la sexista herramienta de reclutamiento de IA de Amazon es mejor que un humano.

imd.org

Resumen de 2018: 10 fallas de IA

Resumen de 2018: 10 fallas de IA

medium.com

IA sexista: Amazon abandona la herramienta de reclutamiento que resultó ser anti-mujeres

IA sexista: Amazon abandona la herramienta de reclutamiento que resultó ser anti-mujeres

rt.com

La ciudad de Nueva York propone regular los algoritmos utilizados en la contratación

La ciudad de Nueva York propone regular los algoritmos utilizados en la contratación

arstechnica.com

Los auditores están probando los algoritmos de contratación en busca de sesgo, pero no hay una solución fácil

Los auditores están probando los algoritmos de contratación en busca de sesgo, pero no hay una solución fácil

technologyreview.com

Las herramientas de inteligencia artificial no logran reducir el sesgo de reclutamiento: estudio

Las herramientas de inteligencia artificial no logran reducir el sesgo de reclutamiento: estudio

bbc.com

Amazon descarta la herramienta de reclutamiento de 'IA sexista'
independent.co.uk · 2018
Traducido por IA

Amazon ha desechado una herramienta "sexista" que usaba inteligencia artificial para decidir a los mejores candidatos para contratar para puestos de trabajo.

Los miembros del equipo que trabajaba en el sistema dijeron que efectivamente se e…

Amazon elimina la herramienta de reclutamiento de 'IA sexista' que mostraba prejuicios contra las mujeres
telegraph.co.uk · 2018
Traducido por IA

Amazon eliminó una herramienta interna "sexista" que usaba inteligencia artificial para clasificar las solicitudes de empleo.

La IA fue creada por un equipo de la oficina de Amazon en Edimburgo en 2014 como una forma de clasificar automátic…

Cómo Amazon inventó accidentalmente un algoritmo de contratación sexista
inc.com · 2018
Traducido por IA

Amazon descubrió un problema con el uso de inteligencia artificial para contratar: su IA estaba sesgada contra las mujeres.

La empresa con sede en Seattle desarrolló programas informáticos diseñados para filtrar cientos de currículos y saca…

Amazon eliminó su sistema de reclutamiento de IA por sesgo contra las mujeres: informe
fortune.com · 2018
Traducido por IA

El aprendizaje automático, una de las técnicas centrales en el campo de la inteligencia artificial, implica enseñar a los sistemas automatizados a idear nuevas formas de hacer las cosas, alimentándolos con una gran cantidad de datos sobre e…

Amazon eliminó herramienta de 'IA sexista'
bbc.com · 2018
Traducido por IA

Derechos de autor de la imagen Getty Images Image caption El algoritmo repitió el sesgo hacia los hombres, reflejado en la industria de la tecnología.

Un algoritmo que el gigante en línea Amazon estaba probando como herramienta de reclutami…

Amazon elimina la herramienta secreta de reclutamiento de IA que mostraba prejuicios contra las mujeres
reuters.com · 2018
Traducido por IA

SAN FRANCISCO (Reuters) - Los especialistas en aprendizaje automático de Amazon.com Inc descubrieron un gran problema: a su nuevo motor de reclutamiento no le gustaban las mujeres.

El equipo había estado construyendo programas de computador…

La herramienta de contratación de IA de Amazon discriminaba a las mujeres.
slate.com · 2018
Traducido por IA

Signo de Amazon, con amigo. Imágenes de David Ryder/Getty

Gracias a Amazon, el mundo tiene una nueva e ingeniosa historia de advertencia sobre los peligros de enseñar a las computadoras a tomar decisiones humanas.

Según un informe de Reuter…

La herramienta de reclutamiento de IA de Amazon descartada por ser sexista
alphr.com · 2018
Traducido por IA

Amazon se ha visto obligado a desechar su sistema de contratación de IA después de que se descubriera que estaba sesgado contra las candidatas.

La IA fue desarrollada en 2014 por Amazon como una forma de filtrar a la mayoría de los candidat…

Amazon disparó su IA de lectura de currículums por sexismo
popularmechanics.com · 2018
Traducido por IA

Los algoritmos a menudo se presentan como superiores al juicio humano, eliminando las conjeturas de decisiones que van desde conducir hasta escribir un correo electrónico. Pero todavía están programados por humanos y entrenados con los dato…

Resulta que la herramienta de contratación de IA de Amazon discriminaba a las mujeres
siliconrepublic.com · 2018
Traducido por IA

Amazon tuvo que desechar su herramienta de contratación de inteligencia artificial porque era "sexista" y discriminaba a las mujeres solicitantes, según un informe de Reuters.

Las esperanzas de Amazon de crear la herramienta de contratación…

Amazon abandona la IA sexista
information-age.com · 2018
Traducido por IA

Amazon abandona la IA sexista

No es ninguna novedad saber que la IA puede ser algo así como un fanático.

Amazon descartó un algoritmo diseñado para convertirse en una herramienta de reclutamiento porque era demasiado sexista.

¿Escuchaste el…

El algoritmo de reclutamiento sexista de Amazon refleja un mayor sesgo de género
mashable.com · 2018
Traducido por IA

La IA puede tener tendencias sexistas. Pero, lo siento, el problema seguimos siendo los humanos.

Amazon eliminó recientemente un algoritmo de reclutamiento de empleados plagado de problemas, según un informe de Reuters. En última instancia,…

Amazon abandonó la sexista herramienta de reclutamiento de IA
channels.theinnovationenterprise.com · 2018
Traducido por IA

Amazon decidió descartar un algoritmo de aprendizaje automático (ML) que estaba creando para ayudar a automatizar el proceso de reclutamiento porque el modelo seguía favoreciendo a los candidatos masculinos, reveló Reuters. La discriminació…

Amazon abandonó la herramienta de reclutamiento de IA que favorecía a los hombres para trabajos técnicos
theguardian.com · 2018
Traducido por IA

Los especialistas habían estado construyendo programas de computadora desde 2014 para revisar los currículos en un esfuerzo por automatizar el proceso de búsqueda.

Este artículo tiene más de 5 meses

Este artículo tiene más de 5 meses

Los es…

Amazon creó accidentalmente una herramienta de reclutamiento 'sexista' y luego la cerró
aplus.com · 2018
Traducido por IA

La tecnología de aprendizaje automático se está volviendo cada vez más común en varias industrias, desde la vigilancia hasta el reclutamiento. Pero los informes han demostrado que muchos de estos sistemas tienen problemas de larga data con …

Amazon cierra la herramienta de contratación de AI por ser sexista
globalcitizen.org · 2018
Traducido por IA

Por qué los ciudadanos globales deberían preocuparse

La discriminación de género en el lugar de trabajo impide que las mujeres desarrollen todo su potencial. La eliminación de la desigualdad de género en la fuerza laboral aumentaría en gran…

Amazon creó una herramienta de inteligencia artificial para contratar personas, pero tuvo que cerrarla porque discriminaba a las mujeres
businessinsider.com.au · 2018
Traducido por IA

David Ryder/Getty Images El director ejecutivo de Amazon, Jeff Bezos.

Amazon intentó construir una herramienta de inteligencia artificial para ayudar con el reclutamiento, pero mostró un sesgo contra las mujeres, informa Reuters.

Según los …

Amazon desecha la herramienta de contratación de IA 'sexista'
news.com.au · 2018
Traducido por IA

¿Qué es la inteligencia artificial (IA)? Observamos el progreso de la IA y la automatización en Australia en comparación con el resto del mundo y cómo la fuerza laboral australiana puede verse afectada por este movimiento.

¿El auge de la IA…

Amazon abandona la herramienta de reclutamiento de IA que 'aprendió a ser sexista'
afr.com · 2018
Traducido por IA

Londres | Amazon eliminó una herramienta interna "sexista" que usaba inteligencia artificial para clasificar las solicitudes de empleo.

El programa fue creado por un equipo de la oficina de Amazon en Edimburgo en 2014 como una forma de clas…

Amazon cierra la herramienta secreta de reclutamiento de inteligencia artificial que se enseñó a sí misma a ser sexista
interestingengineering.com · 2018
Traducido por IA

Las herramientas de recursos humanos de inteligencia artificial (IA) están de moda en este momento y son cada vez más populares. Los sistemas pueden acelerar, simplificar e incluso disminuir el costo del proceso de contratación convirtiéndo…

Amazon entrenó una IA que lucha contra el sexismo y evalúa currículums con datos de contratación sexistas, por lo que el bot se volvió sexista
boingboing.net · 2018
Traducido por IA

Amazon entrenó una IA que lucha contra el sexismo y evalúa currículums con datos de contratación sexistas, por lo que el bot se volvió sexista

Algunas partes del aprendizaje automático son increíblemente esotéricas y difíciles de comprender…

Amazon elimina la herramienta sexista de reclutamiento de IA
radionz.co.nz · 2018
Traducido por IA

Amazon eliminó su herramienta de contratación de inteligencia artificial después de que se descubrió que era sexista.

Foto: © 2014, Ken Wolter

Un equipo de especialistas familiarizados con el proyecto dijo a Reuters que habían estado constr…

Herramienta sexista de Amazon AI descartada
insights.tmpw.co.uk · 2018
Traducido por IA

Entonces, la IA puede ser el futuro en la contratación y el reclutamiento, pero parece que aún no está allí.

Si está basando su aprendizaje en la historia, que posiblemente haya tenido un sesgo hacia los hombres, entonces es probable que di…

¿Está la tecnología condenada a reflejar lo peor de todos nosotros?
tech.co · 2018
Traducido por IA

Los gurús de IA de Amazon descartaron un nuevo motor de reclutamiento de aprendizaje automático a principios de este mes. ¿Por qué? Resultó que la IA detrás de esto era sexista. ¿Qué significa esto a medida que corremos para producir una in…

Amazon cierra su problemático sistema sexista de reclutamiento de IA
mansworldindia.com · 2018
Traducido por IA

El gigante tecnológico enlató su sistema de reclutamiento experimental plagado de problemas, según Reuters.

Amazon, en 2014, puso en marcha el sistema de contratación con la esperanza de mecanizar todo el proceso de contratación. Usó inteli…

¿Es la IA sexista?
wellesley.edu · 2018
Traducido por IA

Amazon recientemente eliminó una herramienta de reclutamiento de inteligencia artificial (IA) experimental que se descubrió que estaba sesgada contra las mujeres. En este punto, espero que tenga algunas preguntas, como: ¿Qué es una herramie…

Amazon elimina la herramienta de reclutamiento de 'IA sexista' que mostraba prejuicios contra las mujeres
msn.com · 2018
Traducido por IA

Amazon eliminó una herramienta interna "sexista" que usaba inteligencia artificial para clasificar las solicitudes de empleo.

La IA fue creada por un equipo de la oficina de Amazon en Edimburgo en 2014 como una forma de clasificar automátic…

Por qué la sexista herramienta de reclutamiento de IA de Amazon es mejor que un humano.
imd.org · 2018
Traducido por IA

Sin embargo, el sesgo también aparece por otras razones no relacionadas. Un estudio reciente sobre cómo un algoritmo entregó anuncios que promocionaban trabajos STEM mostró que era más probable que a los hombres se les mostrara el anuncio, …

Resumen de 2018: 10 fallas de IA
medium.com · 2018
Traducido por IA

En diciembre pasado, Synced compiló su primer resumen de "Fallas de inteligencia artificial" de los errores de IA del año anterior. La IA ha logrado un progreso notable y muchos científicos sueñan con crear el algoritmo maestro propuesto po…

IA sexista: Amazon abandona la herramienta de reclutamiento que resultó ser anti-mujeres
rt.com · 2019
Traducido por IA

Se suponía que facilitaría la búsqueda de la persona adecuada para el trabajo. Sin embargo, la empresa abandonó una herramienta de inteligencia artificial desarrollada por Amazon para filtrar posibles contrataciones después de que los desar…

La ciudad de Nueva York propone regular los algoritmos utilizados en la contratación
arstechnica.com · 2021
Traducido por IA

En 1964, la [Ley de derechos civiles] (https://www.archives.gov/education/lessons/civil-rights-act) prohibió a los humanos que tomaban decisiones de contratación discriminar por sexo o raza. Ahora, el software a menudo contribuye a esas dec…

Los auditores están probando los algoritmos de contratación en busca de sesgo, pero no hay una solución fácil
technologyreview.com · 2021
Traducido por IA

Estoy en casa jugando un videojuego en mi computadora. Mi trabajo es inflar un globo a la vez y ganar la mayor cantidad de dinero posible. Cada vez que hago clic en "Pump", el globo se expande y recibo cinco centavos virtuales. Pero si el g…

Las herramientas de inteligencia artificial no logran reducir el sesgo de reclutamiento: estudio
bbc.com · 2022
Traducido por IA

Las herramientas de contratación artificialmente inteligentes no reducen el sesgo ni mejoran la diversidad, dicen los investigadores en un estudio.

"Hay un interés creciente en nuevas formas de resolver problemas como el sesgo en las entrev…

Variantes

Una "Variante" es un incidente que comparte los mismos factores causales, produce daños similares e involucra los mismos sistemas inteligentes que un incidente de IA conocido. En lugar de indexar las variantes como incidentes completamente separados, enumeramos las variaciones de los incidentes bajo el primer incidente similar enviado a la base de datos. A diferencia de otros tipos de envío a la base de datos de incidentes, no se requiere que las variantes tengan informes como evidencia externa a la base de datos de incidentes. Obtenga más información del trabajo de investigación.

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

AI Beauty Judge Did Not Like Dark Skin

A beauty contest was judged by AI and the robots didn't like dark skin

Sep 2016 · 10 informes
Biased Sentiment Analysis

Google's sentiment analysis API is just as biased as humans

Oct 2017 · 7 informes
Racist AI behaviour is not a new problem

Racist AI behaviour is not a new problem

Mar 1998 · 4 informes
Incidente AnteriorSiguiente Incidente

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

AI Beauty Judge Did Not Like Dark Skin

A beauty contest was judged by AI and the robots didn't like dark skin

Sep 2016 · 10 informes
Biased Sentiment Analysis

Google's sentiment analysis API is just as biased as humans

Oct 2017 · 7 informes
Racist AI behaviour is not a new problem

Racist AI behaviour is not a new problem

Mar 1998 · 4 informes

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2023 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 30ebe76