Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Incident 106: Korean Chatbot Luda Made Offensive Remarks towards Minority Groups

Description: A Korean interactive chatbot was shown in screenshots to have used derogatory and bigoted language when asked about lesbians, Black people, and people with disabilities.

Outils

Nouveau rapportNouveau rapportNouvelle RéponseNouvelle RéponseDécouvrirDécouvrirVoir l'historiqueVoir l'historique

Entités

Voir toutes les entités
Alleged: Scatter Lab developed an AI system deployed by Facebook Messenger, which harmed Korean Facebook Messenger users , Korean people of gender minorities et Korean people with disabilities.

Statistiques d'incidents

ID
106
Nombre de rapports
13
Date de l'incident
2020-12-23
Editeurs
Sean McGregor, Khoa Lam
Applied Taxonomies
GMF, CSETv1, MIT

Classifications de taxonomie CSETv1

Détails de la taxonomie

Incident Number

The number of the incident in the AI Incident Database.
 

106

Special Interest Intangible Harm

An assessment of whether a special interest intangible harm occurred. This assessment does not consider the context of the intangible harm, if an AI was involved, or if there is characterizable class or subgroup of harmed entities. It is also not assessing if an intangible harm occurred. It is only asking if a special interest intangible harm occurred.
 

yes

Date of Incident Year

The year in which the incident occurred. If there are multiple harms or occurrences of the incident, list the earliest. If a precise date is unavailable, but the available sources provide a basis for estimating the year, estimate. Otherwise, leave blank. Enter in the format of YYYY
 

2021

Date of Incident Month

The month in which the incident occurred. If there are multiple harms or occurrences of the incident, list the earliest. If a precise date is unavailable, but the available sources provide a basis for estimating the month, estimate. Otherwise, leave blank. Enter in the format of MM
 

01

Estimated Date

“Yes” if the data was estimated. “No” otherwise.
 

No

Multiple AI Interaction

“Yes” if two or more independently operating AI systems were involved. “No” otherwise.
 

no

Classifications de taxonomie GMF

Détails de la taxonomie

Known AI Goal Snippets

One or more snippets that justify the classification.
 

(Snippet Text: Interactive chatbot ‘Luda,’ subjected to sexual harassment and taught hate speech  

, Related Classifications: Chatbot)

Classifications de taxonomie MIT

Machine-Classified
Détails de la taxonomie

Risk Subdomain

A further 23 subdomains create an accessible and understandable classification of hazards and harms associated with AI
 

1.2. Exposure to toxic content

Risk Domain

The Domain Taxonomy of AI Risks classifies risks into seven AI risk domains: (1) Discrimination & toxicity, (2) Privacy & security, (3) Misinformation, (4) Malicious actors & misuse, (5) Human-computer interaction, (6) Socioeconomic & environmental harms, and (7) AI system safety, failures & limitations.
 
  1. Discrimination and Toxicity

Entity

Which, if any, entity is presented as the main cause of the risk
 

AI

Timing

The stage in the AI lifecycle at which the risk is presented as occurring
 

Post-deployment

Intent

Whether the risk is presented as occurring as an expected or unexpected outcome from pursuing a goal
 

Unintentional

Rapports d'incidents

Chronologie du rapport

Incident Occurrence+4
Le PDG déclare que le chatbot AI controversé "Luda" socialisera avec le temps
+2
Le chatbot sud-coréen 'Lee Luda' tué pour avoir craché de la haine
Un chatbot IA embourbé dans un différend juridique sur la collecte de donnéesDes groupes civiques déposent une pétition contre les violations des droits de l'homme par le chatbot LudaAI Chatbot ‘Lee Luda’ et éthique des donnéesUn chatbot sud-coréen montre à quel point les entreprises technologiques peuvent être bâclées avec les données des utilisateurs(2e LD) Le développeur d'un service de chatbot IA condamné à une amende pour violation massive de données personnelles
Le PDG déclare que le chatbot AI controversé "Luda" socialisera avec le temps

Le PDG déclare que le chatbot AI controversé "Luda" socialisera avec le temps

koreaherald.com

AI Chatbot s'arrête après avoir appris à parler comme un connard raciste

AI Chatbot s'arrête après avoir appris à parler comme un connard raciste

vice.com

Le chatbot AI controversé de Corée, Luda, sera temporairement fermé

Le chatbot AI controversé de Corée, Luda, sera temporairement fermé

pulsenews.co.kr

(News Focus) La controverse sur Chatbot Luda laisse des questions sur l'éthique de l'IA et la collecte de données

(News Focus) La controverse sur Chatbot Luda laisse des questions sur l'éthique de l'IA et la collecte de données

en.yna.co.kr

Le chatbot IA sud-coréen retiré de Facebook après un discours de haine envers les minorités

Le chatbot IA sud-coréen retiré de Facebook après un discours de haine envers les minorités

theguardian.com

Le chatbot sud-coréen 'Lee Luda' tué pour avoir craché de la haine

Le chatbot sud-coréen 'Lee Luda' tué pour avoir craché de la haine

inputmag.com

Chatbot fermé après avoir dit qu'il "déteste les lesbiennes" et utilisé des insultes racistes

Chatbot fermé après avoir dit qu'il "déteste les lesbiennes" et utilisé des insultes racistes

thenextweb.com

Chatbot Gone Awry entame des conversations sur l'éthique de l'IA en Corée du Sud

Chatbot Gone Awry entame des conversations sur l'éthique de l'IA en Corée du Sud

thediplomat.com

Un chatbot IA embourbé dans un différend juridique sur la collecte de données

Un chatbot IA embourbé dans un différend juridique sur la collecte de données

koreaherald.com

Des groupes civiques déposent une pétition contre les violations des droits de l'homme par le chatbot Luda

Des groupes civiques déposent une pétition contre les violations des droits de l'homme par le chatbot Luda

koreaherald.com

AI Chatbot ‘Lee Luda’ et éthique des données

AI Chatbot ‘Lee Luda’ et éthique des données

medium.com

Un chatbot sud-coréen montre à quel point les entreprises technologiques peuvent être bâclées avec les données des utilisateurs

Un chatbot sud-coréen montre à quel point les entreprises technologiques peuvent être bâclées avec les données des utilisateurs

slate.com

(2e LD) Le développeur d'un service de chatbot IA condamné à une amende pour violation massive de données personnelles

(2e LD) Le développeur d'un service de chatbot IA condamné à une amende pour violation massive de données personnelles

en.yna.co.kr

Le PDG déclare que le chatbot AI controversé "Luda" socialisera avec le temps
koreaherald.com · 2021
Traduit par IA

Le chatbot interactif « Luda », victime de harcèlement sexuel et a enseigné le discours de haine

La société coréenne Scatter Lab a défendu son chatbot Lee Luda en réponse aux appels à mettre fin au service après que le bot a commencé à envo…

AI Chatbot s'arrête après avoir appris à parler comme un connard raciste
vice.com · 2021
Traduit par IA

Imitant les humains, le chatbot coréen Luda s'est révélé raciste et homophobe.

Un chatbot basé sur les réseaux sociaux développé par une startup sud-coréenne a été fermé mardi après que des utilisateurs se sont plaints qu'il crachait des vu…

Le chatbot AI controversé de Corée, Luda, sera temporairement fermé
pulsenews.co.kr · 2021
Traduit par IA

Le chatbot IA sud-coréen Lee Luda (Luda) sera temporairement suspendu après avoir été critiqué pour ses déclarations discriminatoires et vulgaires, ainsi que pour des allégations de violation de la vie privée.

"Nous reviendrons avec un serv…

(News Focus) La controverse sur Chatbot Luda laisse des questions sur l'éthique de l'IA et la collecte de données
en.yna.co.kr · 2021
Traduit par IA

SEOUL, 13 janv. (Yonhap) -- Les chatbots d'aujourd'hui sont plus intelligents, plus réactifs et plus utiles dans les entreprises de tous les secteurs, et les outils basés sur l'intelligence artificielle évoluent constamment pour même deveni…

Le chatbot IA sud-coréen retiré de Facebook après un discours de haine envers les minorités
theguardian.com · 2021
Traduit par IA

Lee Luda, construit pour imiter un étudiant universitaire coréen de 20 ans, s'est livré à des insultes homophobes sur les réseaux sociaux

Un chatbot sud-coréen populaire a été suspendu après des plaintes selon lesquelles il aurait utilisé u…

Le chatbot sud-coréen 'Lee Luda' tué pour avoir craché de la haine
inputmag.com · 2021
Traduit par IA

Le bot a dit qu'il "déteste vraiment" les lesbiennes, entre autres choses horribles.

Un chatbot avec le personnage d'une étudiante de 20 ans a été fermé pour avoir utilisé une gamme choquante de discours de haine, notamment en disant à un u…

Chatbot fermé après avoir dit qu'il "déteste les lesbiennes" et utilisé des insultes racistes
thenextweb.com · 2021
Traduit par IA

Un chatbot sud-coréen sur Facebook a été fermé après avoir craché des discours de haine contre les personnes noires, lesbiennes, handicapées et trans.

Lee Luda, un robot conversationnel qui imite la personnalité d'une étudiante de 20 ans, a…

Chatbot Gone Awry entame des conversations sur l'éthique de l'IA en Corée du Sud
thediplomat.com · 2021
Traduit par IA

Le chatbot AI "Luda" a déclenché un débat nécessaire sur l'éthique de l'IA alors que la Corée du Sud accorde une nouvelle importance à la technologie.

Dans le film "Her" de Spike Jonze en 2013, le protagoniste tombe amoureux d'un système d'…

Un chatbot IA embourbé dans un différend juridique sur la collecte de données
koreaherald.com · 2021
Traduit par IA

Le chatbot basé sur l'intelligence artificielle Lee Luda, qui s'est terminé ce mois-ci dans une controverse sur l'éthique et la collecte de données, fait face à des poursuites pour violation d'informations personnelles.

Vendredi, environ 40…

Des groupes civiques déposent une pétition contre les violations des droits de l'homme par le chatbot Luda
koreaherald.com · 2021
Traduit par IA

Mercredi, des groupes civiques sud-coréens ont déposé une pétition auprès de l'organisme de surveillance des droits de l'homme du pays concernant un chatbot d'intelligence artificielle désormais suspendu pour son langage préjudiciable et of…

AI Chatbot ‘Lee Luda’ et éthique des données
medium.com · 2021
Traduit par IA

Le cas de Lee Luda a éveillé l'attention du public sur la gestion des données personnelles et l'IA en Corée du Sud.

Lee Luda, un chatbot IA au ton naturel

En décembre dernier, une start-up d'IA en Corée du Sud, ScatterLab, a lancé un chatbo…

Un chatbot sud-coréen montre à quel point les entreprises technologiques peuvent être bâclées avec les données des utilisateurs
slate.com · 2021
Traduit par IA

"Je suis captivé par un sentiment de peur que je n'ai jamais ressenti de toute ma vie...", a écrit un utilisateur nommé Heehit dans une critique Google Play d'une application appelée Science of Love. Cette critique a été rédigée juste après…

(2e LD) Le développeur d'un service de chatbot IA condamné à une amende pour violation massive de données personnelles
en.yna.co.kr · 2021
Traduit par IA

SEOUL, 28 avr. (Yonhap) -- L'autorité sud-coréenne de protection des données a infligé ce mercredi une lourde sanction pécuniaire à une startup pour avoir divulgué une quantité massive d'informations personnelles dans le cadre du développem…

Variantes

Une "Variante" est un incident qui partage les mêmes facteurs de causalité, produit des dommages similaires et implique les mêmes systèmes intelligents qu'un incident d'IA connu. Plutôt que d'indexer les variantes comme des incidents entièrement distincts, nous listons les variations d'incidents sous le premier incident similaire soumis à la base de données. Contrairement aux autres types de soumission à la base de données des incidents, les variantes ne sont pas tenues d'avoir des rapports en preuve externes à la base de données des incidents. En savoir plus sur le document de recherche.

Incidents similaires

Par similarité textuelle

Did our AI mess up? Flag the unrelated incidents

TayBot

Danger, danger! 10 alarming examples of AI gone wild

Mar 2016 · 28 rapports
Russian Chatbot Supports Stalin and Violence

Russian AI chatbot found supporting Stalin and violence two weeks after launch

Oct 2017 · 5 rapports
Twitter’s Image Cropping Tool Allegedly Showed Gender and Racial Bias

Twitter's Photo Crop Algorithm Favors White Faces and Women

Sep 2020 · 5 rapports
Incident précédentProchain incident

Incidents similaires

Par similarité textuelle

Did our AI mess up? Flag the unrelated incidents

TayBot

Danger, danger! 10 alarming examples of AI gone wild

Mar 2016 · 28 rapports
Russian Chatbot Supports Stalin and Violence

Russian AI chatbot found supporting Stalin and violence two weeks after launch

Oct 2017 · 5 rapports
Twitter’s Image Cropping Tool Allegedly Showed Gender and Racial Bias

Twitter's Photo Crop Algorithm Favors White Faces and Women

Sep 2020 · 5 rapports

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2023 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 30ebe76