Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Incident 37: Female Applicants Down-Ranked by Amazon Recruiting Tool

Description: Amazon shuts down internal AI recruiting tool that would down-rank female applicants.

Outils

Nouveau rapportNouveau rapportNouvelle RéponseNouvelle RéponseDécouvrirDécouvrirVoir l'historiqueVoir l'historique

Entités

Voir toutes les entités
Présumé : Un système d'IA développé et mis en œuvre par Amazon, a endommagé female applicants.

Statistiques d'incidents

ID
37
Nombre de rapports
33
Date de l'incident
2016-08-10
Editeurs
Sean McGregor
Applied Taxonomies
CSETv0, CSETv1, GMF, MIT

Classifications de taxonomie CSETv1

Détails de la taxonomie

Incident Number

The number of the incident in the AI Incident Database.
 

37

Classifications de taxonomie CSETv0

Détails de la taxonomie

Problem Nature

Indicates which, if any, of the following types of AI failure describe the incident: "Specification," i.e. the system's behavior did not align with the true intentions of its designer, operator, etc; "Robustness," i.e. the system operated unsafely because of features or changes in its environment, or in the inputs the system received; "Assurance," i.e. the system could not be adequately monitored or controlled during operation.
 

Specification

Physical System

Where relevant, indicates whether the AI system(s) was embedded into or tightly associated with specific types of hardware.
 

Software only

Level of Autonomy

The degree to which the AI system(s) functions independently from human intervention. "High" means there is no human involved in the system action execution; "Medium" means the system generates a decision and a human oversees the resulting action; "low" means the system generates decision-support output and a human makes a decision and executes an action.
 

Medium

Nature of End User

"Expert" if users with special training or technical expertise were the ones meant to benefit from the AI system(s)’ operation; "Amateur" if the AI systems were primarily meant to benefit the general public or untrained users.
 

Expert

Public Sector Deployment

"Yes" if the AI system(s) involved in the accident were being used by the public sector or for the administration of public goods (for example, public transportation). "No" if the system(s) were being used in the private sector or for commercial purposes (for example, a ride-sharing company), on the other.
 

No

Data Inputs

A brief description of the data that the AI system(s) used or were trained on.
 

Resumes

Classifications de taxonomie MIT

Machine-Classified
Détails de la taxonomie

Risk Subdomain

A further 23 subdomains create an accessible and understandable classification of hazards and harms associated with AI
 

1.1. Unfair discrimination and misrepresentation

Risk Domain

The Domain Taxonomy of AI Risks classifies risks into seven AI risk domains: (1) Discrimination & toxicity, (2) Privacy & security, (3) Misinformation, (4) Malicious actors & misuse, (5) Human-computer interaction, (6) Socioeconomic & environmental harms, and (7) AI system safety, failures & limitations.
 
  1. Discrimination and Toxicity

Entity

Which, if any, entity is presented as the main cause of the risk
 

AI

Timing

The stage in the AI lifecycle at which the risk is presented as occurring
 

Post-deployment

Intent

Whether the risk is presented as occurring as an expected or unexpected outcome from pursuing a goal
 

Unintentional

Rapports d'incidents

Chronologie du rapport

Incident Occurrence+23
Amazon abandonne son outil de recrutement "IA sexiste"
+4
Amazon ferme son système de recrutement d'IA sexiste problématique
IA sexiste : Amazon abandonne un outil de recrutement qui s'est avéré anti-femmes+1
La ville de New York propose de réglementer les algorithmes utilisés pour l'embauche
Les outils d'IA ne parviennent pas à réduire les biais de recrutement - étude
Amazon abandonne son outil de recrutement "IA sexiste"

Amazon abandonne son outil de recrutement "IA sexiste"

independent.co.uk

Amazon supprime l'outil de recrutement "IA sexiste" qui a montré un parti pris contre les femmes

Amazon supprime l'outil de recrutement "IA sexiste" qui a montré un parti pris contre les femmes

telegraph.co.uk

Comment Amazon a accidentellement inventé un algorithme d'embauche sexiste

Comment Amazon a accidentellement inventé un algorithme d'embauche sexiste

inc.com

Amazon a tué son système de recrutement par IA pour parti pris contre les femmes-Rapport

Amazon a tué son système de recrutement par IA pour parti pris contre les femmes-Rapport

fortune.com

Amazon a supprimé l'outil "IA sexiste"

Amazon a supprimé l'outil "IA sexiste"

bbc.com

Amazon abandonne un outil de recrutement secret basé sur l'IA qui présentait des préjugés contre les femmes

Amazon abandonne un outil de recrutement secret basé sur l'IA qui présentait des préjugés contre les femmes

reuters.com

L'outil d'embauche d'IA d'Amazon discrimine les femmes.

L'outil d'embauche d'IA d'Amazon discrimine les femmes.

slate.com

L'outil de recrutement basé sur l'intelligence artificielle d'Amazon abandonné pour être sexiste

L'outil de recrutement basé sur l'intelligence artificielle d'Amazon abandonné pour être sexiste

alphr.com

Amazon a viré son IA de lecture de CV pour sexisme

Amazon a viré son IA de lecture de CV pour sexisme

popularmechanics.com

Il s'avère que l'outil d'embauche d'IA d'Amazon discrimine les femmes

Il s'avère que l'outil d'embauche d'IA d'Amazon discrimine les femmes

siliconrepublic.com

Amazon abandonne l'IA sexiste

Amazon abandonne l'IA sexiste

information-age.com

L'algorithme de recrutement sexiste d'Amazon reflète un préjugé sexiste plus important

L'algorithme de recrutement sexiste d'Amazon reflète un préjugé sexiste plus important

mashable.com

Amazon a abandonné l'outil de recrutement IA sexiste

Amazon a abandonné l'outil de recrutement IA sexiste

channels.theinnovationenterprise.com

Amazon a abandonné l'outil de recrutement basé sur l'IA qui favorisait les hommes pour les emplois techniques

Amazon a abandonné l'outil de recrutement basé sur l'IA qui favorisait les hommes pour les emplois techniques

theguardian.com

Amazon a accidentellement créé un outil de recrutement "sexiste", puis l'a fermé

Amazon a accidentellement créé un outil de recrutement "sexiste", puis l'a fermé

aplus.com

Amazon ferme l'outil d'embauche d'IA pour être sexiste

Amazon ferme l'outil d'embauche d'IA pour être sexiste

globalcitizen.org

Amazon a construit un outil d'intelligence artificielle pour embaucher des personnes, mais a dû le fermer car il était discriminatoire à l'égard des femmes

Amazon a construit un outil d'intelligence artificielle pour embaucher des personnes, mais a dû le fermer car il était discriminatoire à l'égard des femmes

businessinsider.com.au

Amazon abandonne son outil de recrutement basé sur l'IA "sexiste"

Amazon abandonne son outil de recrutement basé sur l'IA "sexiste"

news.com.au

Amazon abandonne l'outil de recrutement d'IA qui "a appris à être sexiste"

Amazon abandonne l'outil de recrutement d'IA qui "a appris à être sexiste"

afr.com

Amazon ferme un outil secret de recrutement basé sur l'IA qui s'est appris à être sexiste

Amazon ferme un outil secret de recrutement basé sur l'IA qui s'est appris à être sexiste

interestingengineering.com

Amazon a formé une IA de lutte contre le sexisme et de filtrage des CV avec des données d'embauche sexistes, de sorte que le bot est devenu sexiste

Amazon a formé une IA de lutte contre le sexisme et de filtrage des CV avec des données d'embauche sexistes, de sorte que le bot est devenu sexiste

boingboing.net

Amazon abandonne son outil de recrutement IA sexiste

Amazon abandonne son outil de recrutement IA sexiste

radionz.co.nz

L'outil sexiste d'Amazon AI supprimé

L'outil sexiste d'Amazon AI supprimé

insights.tmpw.co.uk

La technologie est-elle condamnée à refléter le pire en chacun de nous ?

La technologie est-elle condamnée à refléter le pire en chacun de nous ?

tech.co

Amazon ferme son système de recrutement d'IA sexiste problématique

Amazon ferme son système de recrutement d'IA sexiste problématique

mansworldindia.com

L'IA est-elle sexiste ?

L'IA est-elle sexiste ?

wellesley.edu

Amazon supprime l'outil de recrutement "IA sexiste" qui a montré un parti pris contre les femmes

Amazon supprime l'outil de recrutement "IA sexiste" qui a montré un parti pris contre les femmes

msn.com

Pourquoi l'outil de recrutement IA sexiste d'Amazon est meilleur qu'un humain.

Pourquoi l'outil de recrutement IA sexiste d'Amazon est meilleur qu'un humain.

imd.org

2018 en revue : 10 échecs de l'IA

2018 en revue : 10 échecs de l'IA

medium.com

IA sexiste : Amazon abandonne un outil de recrutement qui s'est avéré anti-femmes

IA sexiste : Amazon abandonne un outil de recrutement qui s'est avéré anti-femmes

rt.com

La ville de New York propose de réglementer les algorithmes utilisés pour l'embauche

La ville de New York propose de réglementer les algorithmes utilisés pour l'embauche

arstechnica.com

Les auditeurs testent les algorithmes d'embauche pour détecter les biais, mais il n'y a pas de solution simple

Les auditeurs testent les algorithmes d'embauche pour détecter les biais, mais il n'y a pas de solution simple

technologyreview.com

Les outils d'IA ne parviennent pas à réduire les biais de recrutement - étude

Les outils d'IA ne parviennent pas à réduire les biais de recrutement - étude

bbc.com

Amazon abandonne son outil de recrutement "IA sexiste"
independent.co.uk · 2018
Traduit par IA

Amazon a abandonné un outil "sexiste" qui utilisait l'intelligence artificielle pour décider des meilleurs candidats à embaucher.

Les membres de l'équipe travaillant sur le système ont déclaré qu'il s'était effectivement appris que les cand…

Amazon supprime l'outil de recrutement "IA sexiste" qui a montré un parti pris contre les femmes
telegraph.co.uk · 2018
Traduit par IA

Amazon a abandonné un outil interne "sexiste" qui utilisait l'intelligence artificielle pour trier les candidatures.

L'IA a été créée par une équipe du bureau d'Amazon à Édimbourg en 2014 afin de trier automatiquement les CV et de sélection…

Comment Amazon a accidentellement inventé un algorithme d'embauche sexiste
inc.com · 2018
Traduit par IA

Amazon a découvert un problème avec l'utilisation de l'intelligence artificielle pour embaucher : leur IA était biaisée contre les femmes.

La société basée à Seattle a développé des programmes informatiques conçus pour filtrer des centaines…

Amazon a tué son système de recrutement par IA pour parti pris contre les femmes-Rapport
fortune.com · 2018
Traduit par IA

L'apprentissage automatique, l'une des techniques de base dans le domaine de l'intelligence artificielle, consiste à apprendre aux systèmes automatisés à concevoir de nouvelles façons de faire les choses, en leur fournissant des tonnes de d…

Amazon a supprimé l'outil "IA sexiste"
bbc.com · 2018
Traduit par IA

Copyright de l'image Getty Images Légende L'algorithme a répété les préjugés envers les hommes, reflétés dans l'industrie technologique

Un algorithme testé comme outil de recrutement par le géant en ligne Amazon était sexiste et a dû être a…

Amazon abandonne un outil de recrutement secret basé sur l'IA qui présentait des préjugés contre les femmes
reuters.com · 2018
Traduit par IA

SAN FRANCISCO (Reuters) - Les spécialistes de l'apprentissage automatique d'Amazon.com Inc (AMZN.O) ont découvert un gros problème : leur nouveau moteur de recrutement n'aimait pas les femmes.

L'équipe avait construit des programmes informa…

L'outil d'embauche d'IA d'Amazon discrimine les femmes.
slate.com · 2018
Traduit par IA

Signe Amazon, avec mec. David Ryder/Getty Images

Grâce à Amazon, le monde a un nouveau récit édifiant sur les dangers d'apprendre aux ordinateurs à prendre des décisions humaines.

Selon un rapport de Reuters publié mercredi, le géant de la …

L'outil de recrutement basé sur l'intelligence artificielle d'Amazon abandonné pour être sexiste
alphr.com · 2018
Traduit par IA

Amazon a été contraint d'abandonner son système de recrutement par IA après qu'il a été découvert qu'il était biaisé à l'encontre des candidates.

L'IA a été développée en 2014 par Amazon comme un moyen de filtrer la plupart des candidats po…

Amazon a viré son IA de lecture de CV pour sexisme
popularmechanics.com · 2018
Traduit par IA

Les algorithmes sont souvent présentés comme étant supérieurs au jugement humain, éliminant les conjectures dans les décisions allant de la conduite à l'écriture d'un e-mail. Mais ils sont toujours programmés par des humains et formés sur l…

Il s'avère que l'outil d'embauche d'IA d'Amazon discrimine les femmes
siliconrepublic.com · 2018
Traduit par IA

Amazon a dû abandonner son outil d'embauche d'IA parce qu'il était « sexiste » et discriminatoire à l'égard des candidates, selon un rapport de Reuters.

Les espoirs d'Amazon de créer l'outil de recrutement d'IA parfait ont été anéantis lors…

Amazon abandonne l'IA sexiste
information-age.com · 2018
Traduit par IA

Amazon abandonne l'IA sexiste

Ce n'est pas nouveau d'apprendre que l'IA peut être une sorte de fanatique.

Amazon a abandonné un algorithme destiné à devenir un outil de recrutement car trop sexiste.

Avez-vous entendu celui sur ma femme - eh…

L'algorithme de recrutement sexiste d'Amazon reflète un préjugé sexiste plus important
mashable.com · 2018
Traduit par IA

L'IA peut avoir des tendances sexistes. Mais, désolé, le problème est toujours nous, les humains.

Amazon a récemment abandonné un algorithme de recrutement d'employés en proie à des problèmes, selon un rapport de Reuters. En fin de compte, …

Amazon a abandonné l'outil de recrutement IA sexiste
channels.theinnovationenterprise.com · 2018
Traduit par IA

Amazon a décidé de supprimer un algorithme d'apprentissage automatique (ML) qu'il était en train de créer pour aider à automatiser le processus de recrutement, car le modèle continuait de favoriser les candidats masculins, a révélé Reuters.…

Amazon a abandonné l'outil de recrutement basé sur l'IA qui favorisait les hommes pour les emplois techniques
theguardian.com · 2018
Traduit par IA

Des spécialistes construisaient des programmes informatiques depuis 2014 pour examiner les CV dans le but d'automatiser le processus de recherche

Cet article date de plus de 5 mois

Cet article date de plus de 5 mois

Les spécialistes du mach…

Amazon a accidentellement créé un outil de recrutement "sexiste", puis l'a fermé
aplus.com · 2018
Traduit par IA

La technologie d'apprentissage automatique est de plus en plus courante dans divers secteurs, de la police au recrutement. Mais des rapports ont montré que bon nombre de ces systèmes ont des problèmes de longue date en matière de discrimina…

Amazon ferme l'outil d'embauche d'IA pour être sexiste
globalcitizen.org · 2018
Traduit par IA

Pourquoi les citoyens du monde devraient s'en soucier

La discrimination sexuelle sur le lieu de travail empêche les femmes de réaliser leur plein potentiel. L'élimination des inégalités entre les sexes dans la main-d'œuvre augmenterait cons…

Amazon a construit un outil d'intelligence artificielle pour embaucher des personnes, mais a dû le fermer car il était discriminatoire à l'égard des femmes
businessinsider.com.au · 2018
Traduit par IA

David Ryder/Getty Images PDG d'Amazon, Jeff Bezos.

Amazon a essayé de créer un outil d'intelligence artificielle pour aider au recrutement, mais il a montré un parti pris contre les femmes, rapporte Reuters.

Les ingénieurs auraient trouvé q…

Amazon abandonne son outil de recrutement basé sur l'IA "sexiste"
news.com.au · 2018
Traduit par IA

Qu'est-ce que l'intelligence artificielle (IA) ? Nous examinons les progrès de l'IA et de l'automatisation en Australie par rapport au reste du monde et comment la main-d'œuvre australienne peut être affectée par ce mouvement.

L'essor de l'…

Amazon abandonne l'outil de recrutement d'IA qui "a appris à être sexiste"
afr.com · 2018
Traduit par IA

Londres | Amazon a abandonné un outil interne "sexiste" qui utilisait l'intelligence artificielle pour trier les candidatures.

Le programme a été créé par une équipe du bureau d'Amazon à Édimbourg en 2014 afin de trier les CV et de sélectio…

Amazon ferme un outil secret de recrutement basé sur l'IA qui s'est appris à être sexiste
interestingengineering.com · 2018
Traduit par IA

Les outils de ressourcement humain de l'intelligence artificielle (IA) font fureur en ce moment et deviennent de plus en plus populaires. Les systèmes peuvent accélérer, simplifier et même réduire le coût du processus d'embauche, devenant a…

Amazon a formé une IA de lutte contre le sexisme et de filtrage des CV avec des données d'embauche sexistes, de sorte que le bot est devenu sexiste
boingboing.net · 2018
Traduit par IA

Amazon a formé une IA de lutte contre le sexisme et de filtrage des CV avec des données d'embauche sexistes, de sorte que le bot est devenu sexiste

Certaines parties de l'apprentissage automatique sont incroyablement ésotériques et difficil…

Amazon abandonne son outil de recrutement IA sexiste
radionz.co.nz · 2018
Traduit par IA

Amazon a supprimé son outil d'embauche d'intelligence artificielle après qu'il a été jugé sexiste.

Photo : © 2014, Ken Wolter

Une équipe de spécialistes connaissant bien le projet a déclaré à Reuters qu'ils construisaient des programmes inf…

L'outil sexiste d'Amazon AI supprimé
insights.tmpw.co.uk · 2018
Traduit par IA

L'IA est donc peut-être l'avenir de l'embauche et du recrutement, mais elle n'en est certainement pas encore là, semble-t-il.

Si vous fondez votre apprentissage sur l'histoire qui a très probablement été biaisée en faveur des hommes, il est…

La technologie est-elle condamnée à refléter le pire en chacun de nous ?
tech.co · 2018
Traduit par IA

Les gourous de l'IA d'Amazon ont mis au rebut un nouveau moteur de recrutement d'apprentissage automatique plus tôt ce mois-ci. Pourquoi? Il s'est avéré que l'IA derrière elle était sexiste. Qu'est-ce que cela signifie alors que nous nous e…

Amazon ferme son système de recrutement d'IA sexiste problématique
mansworldindia.com · 2018
Traduit par IA

Le géant de la technologie a mis en conserve son système de recrutement expérimental criblé de problèmes, selon Reuters.

Amazon, en 2014, a mis en place le système de recrutement en place, dans l'espoir de mécaniser l'ensemble du processus …

L'IA est-elle sexiste ?
wellesley.edu · 2018
Traduit par IA

Amazon a récemment mis au rebut un outil de recrutement expérimental d'intelligence artificielle (IA) qui s'est avéré biaisé contre les femmes. À ce stade, j'espère que vous pourriez avoir quelques questions, telles que : Qu'est-ce qu'un ou…

Amazon supprime l'outil de recrutement "IA sexiste" qui a montré un parti pris contre les femmes
msn.com · 2018
Traduit par IA

Amazon a abandonné un outil interne "sexiste" qui utilisait l'intelligence artificielle pour trier les candidatures.

L'IA a été créée par une équipe du bureau d'Amazon à Édimbourg en 2014 afin de trier automatiquement les CV et de sélection…

Pourquoi l'outil de recrutement IA sexiste d'Amazon est meilleur qu'un humain.
imd.org · 2018
Traduit par IA

Cependant, le biais apparaît également pour d'autres raisons non liées. Une étude récente sur la façon dont un algorithme diffusait des annonces faisant la promotion d'emplois STEM a montré que les hommes étaient plus susceptibles de voir l…

2018 en revue : 10 échecs de l'IA
medium.com · 2018
Traduit par IA

En décembre dernier, Synced a compilé son premier récapitulatif des "échecs de l'intelligence artificielle" des gaffes de l'IA de l'année précédente. L'IA a réalisé des progrès remarquables et de nombreux scientifiques rêvent de créer l'alg…

IA sexiste : Amazon abandonne un outil de recrutement qui s'est avéré anti-femmes
rt.com · 2019
Traduit par IA

C'était censé faciliter la recherche de la bonne personne pour le poste. Cependant, un outil d'IA développé par Amazon pour passer au crible les embauches potentielles a été abandonné par l'entreprise après que les développeurs ont découver…

La ville de New York propose de réglementer les algorithmes utilisés pour l'embauche
arstechnica.com · 2021
Traduit par IA

En 1964, la loi sur les droits civils interdisait aux humains qui prenaient des décisions d'embauche de faire de la discrimination fondée sur le sexe ou la race. Désormais, les logiciels contribuent souvent à ces décisions d'embauche, en ai…

Les auditeurs testent les algorithmes d'embauche pour détecter les biais, mais il n'y a pas de solution simple
technologyreview.com · 2021
Traduit par IA

Je suis chez moi en train de jouer à un jeu vidéo sur mon ordinateur. Mon travail consiste à gonfler un ballon à la fois et à gagner le plus d'argent possible. Chaque fois que je clique sur "Pump", le ballon se dilate et je reçois cinq cent…

Les outils d'IA ne parviennent pas à réduire les biais de recrutement - étude
bbc.com · 2022
Traduit par IA

Les outils de recrutement artificiellement intelligents ne réduisent pas les préjugés et n'améliorent pas la diversité, selon les chercheurs dans une étude.

"Il y a un intérêt croissant pour de nouvelles façons de résoudre des problèmes tel…

Variantes

Une "Variante" est un incident qui partage les mêmes facteurs de causalité, produit des dommages similaires et implique les mêmes systèmes intelligents qu'un incident d'IA connu. Plutôt que d'indexer les variantes comme des incidents entièrement distincts, nous listons les variations d'incidents sous le premier incident similaire soumis à la base de données. Contrairement aux autres types de soumission à la base de données des incidents, les variantes ne sont pas tenues d'avoir des rapports en preuve externes à la base de données des incidents. En savoir plus sur le document de recherche.

Incidents similaires

Par similarité textuelle

Did our AI mess up? Flag the unrelated incidents

AI Beauty Judge Did Not Like Dark Skin

A beauty contest was judged by AI and the robots didn't like dark skin

Sep 2016 · 10 rapports
Biased Sentiment Analysis

Google's sentiment analysis API is just as biased as humans

Oct 2017 · 7 rapports
Racist AI behaviour is not a new problem

Racist AI behaviour is not a new problem

Mar 1998 · 4 rapports
Incident précédentProchain incident

Incidents similaires

Par similarité textuelle

Did our AI mess up? Flag the unrelated incidents

AI Beauty Judge Did Not Like Dark Skin

A beauty contest was judged by AI and the robots didn't like dark skin

Sep 2016 · 10 rapports
Biased Sentiment Analysis

Google's sentiment analysis API is just as biased as humans

Oct 2017 · 7 rapports
Racist AI behaviour is not a new problem

Racist AI behaviour is not a new problem

Mar 1998 · 4 rapports

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2023 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 30ebe76