Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Incidente 74: Detroit Police Wrongfully Arrested Black Man Due To Faulty FRT

Respondido
Descripción: A Black man was wrongfully detained by the Detroit Police Department as a result of a false facial recognition (FRT) result.

Herramientas

Nuevo InformeNuevo InformeNueva RespuestaNueva RespuestaDescubrirDescubrirVer HistorialVer Historial

Entidades

Ver todas las entidades
Alleged: DataWorks Plus developed an AI system deployed by Detroit Police Department, which harmed Robert Julian-Borchak Williams y Black people in Detroit.

Estadísticas de incidentes

ID
74
Cantidad de informes
11
Fecha del Incidente
2020-01-30
Editores
Sean McGregor
Applied Taxonomies
CSETv0, GMF, CSETv1, MIT

Clasificaciones de la Taxonomía CSETv1

Detalles de la Taxonomía

Incident Number

The number of the incident in the AI Incident Database.
 

74

Clasificaciones de la Taxonomía GMF

Detalles de la Taxonomía

Known AI Goal Snippets

One or more snippets that justify the classification.
 

(Snippet Text: On a Thursday afternoon in January, Robert Julian-Borchak Williams was in his office at an automotive supply company when he got a call from the Detroit Police Department telling him to come to the station to be arrested., Related Classifications: Face Recognition)

Clasificaciones de la Taxonomía CSETv0

Detalles de la Taxonomía

Problem Nature

Indicates which, if any, of the following types of AI failure describe the incident: "Specification," i.e. the system's behavior did not align with the true intentions of its designer, operator, etc; "Robustness," i.e. the system operated unsafely because of features or changes in its environment, or in the inputs the system received; "Assurance," i.e. the system could not be adequately monitored or controlled during operation.
 

Specification, Assurance

Physical System

Where relevant, indicates whether the AI system(s) was embedded into or tightly associated with specific types of hardware.
 

Software only

Level of Autonomy

The degree to which the AI system(s) functions independently from human intervention. "High" means there is no human involved in the system action execution; "Medium" means the system generates a decision and a human oversees the resulting action; "low" means the system generates decision-support output and a human makes a decision and executes an action.
 

High

Nature of End User

"Expert" if users with special training or technical expertise were the ones meant to benefit from the AI system(s)’ operation; "Amateur" if the AI systems were primarily meant to benefit the general public or untrained users.
 

Amateur

Public Sector Deployment

"Yes" if the AI system(s) involved in the accident were being used by the public sector or for the administration of public goods (for example, public transportation). "No" if the system(s) were being used in the private sector or for commercial purposes (for example, a ride-sharing company), on the other.
 

Yes

Data Inputs

A brief description of the data that the AI system(s) used or were trained on.
 

biometrics, images, camera footage

Clasificaciones de la Taxonomía MIT

Machine-Classified
Detalles de la Taxonomía

Risk Subdomain

A further 23 subdomains create an accessible and understandable classification of hazards and harms associated with AI
 

1.3. Unequal performance across groups

Risk Domain

The Domain Taxonomy of AI Risks classifies risks into seven AI risk domains: (1) Discrimination & toxicity, (2) Privacy & security, (3) Misinformation, (4) Malicious actors & misuse, (5) Human-computer interaction, (6) Socioeconomic & environmental harms, and (7) AI system safety, failures & limitations.
 
  1. Discrimination and Toxicity

Entity

Which, if any, entity is presented as the main cause of the risk
 

AI

Timing

The stage in the AI lifecycle at which the risk is presented as occurring
 

Post-deployment

Intent

Whether the risk is presented as occurring as an expected or unexpected outcome from pursuing a goal
 

Unintentional

Informes del Incidente

Cronología de Informes

+1
Las tecnologías de inteligencia artificial, como el reconocimiento facial de la policía, discriminan a las personas de color.
+3
Acusado injustamente por un algoritmo
Reconocimiento facial culpado por arresto falso y tiempo en la cárcel+1
Teaneck NJ prohíbe el uso de reconocimiento facial para la policía, citando prejuicios
Es hora de abordar el reconocimiento facial, la herramienta de inteligencia artificial más preocupante para el cumplimiento de la leyCómo los arrestos injustos basados en IA descarrilaron la vida de 3 hombrestranslated-es-Facial Recognition Led to Wrongful Arrests. So Detroit Is Making Changes. - Respuesta
Las tecnologías de inteligencia artificial, como el reconocimiento facial de la policía, discriminan a las personas de color.

Las tecnologías de inteligencia artificial, como el reconocimiento facial de la policía, discriminan a las personas de color.

theconversation.com

Acusado injustamente por un algoritmo

Acusado injustamente por un algoritmo

nytimes.com

'La computadora se equivocó': cómo el reconocimiento facial condujo al falso arresto de un hombre negro

'La computadora se equivocó': cómo el reconocimiento facial condujo al falso arresto de un hombre negro

npr.org

La policía de Detroit admite el primer error de reconocimiento facial después de un arresto falso

La policía de Detroit admite el primer error de reconocimiento facial después de un arresto falso

techrepublic.com

Jefe de policía de Detroit: el software de reconocimiento facial identifica erróneamente el 96% del tiempo

Jefe de policía de Detroit: el software de reconocimiento facial identifica erróneamente el 96% del tiempo

vice.com

Reconocimiento facial culpado por arresto falso y tiempo en la cárcel

Reconocimiento facial culpado por arresto falso y tiempo en la cárcel

silicon.co.uk

Teaneck NJ prohíbe el uso de reconocimiento facial para la policía, citando prejuicios

Teaneck NJ prohíbe el uso de reconocimiento facial para la policía, citando prejuicios

northjersey.com

Hombre arrestado injustamente demanda a la policía de Detroit por reconocimiento facial falso

Hombre arrestado injustamente demanda a la policía de Detroit por reconocimiento facial falso

washingtonpost.com

Es hora de abordar el reconocimiento facial, la herramienta de inteligencia artificial más preocupante para el cumplimiento de la ley

Es hora de abordar el reconocimiento facial, la herramienta de inteligencia artificial más preocupante para el cumplimiento de la ley

thebulletin.org

Cómo los arrestos injustos basados en IA descarrilaron la vida de 3 hombres

Cómo los arrestos injustos basados en IA descarrilaron la vida de 3 hombres

wired.com

translated-es-Facial Recognition Led to Wrongful Arrests. So Detroit Is Making Changes.

translated-es-Facial Recognition Led to Wrongful Arrests. So Detroit Is Making Changes.

nytimes.com

Las tecnologías de inteligencia artificial, como el reconocimiento facial de la policía, discriminan a las personas de color.
theconversation.com · 2020
Traducido por IA

La policía de Detroit arrestó injustamente a Robert Julian-Borchak Williams en enero de 2020 [por un incidente de robo que había ocurrido dos años antes] (https://www.nytimes.com/2020/06/24/technology/facial-recognition-arrest. html). Aunqu…

Acusado injustamente por un algoritmo
nytimes.com · 2020
Traducido por IA

"Nota: en respuesta a este artículo, la oficina del fiscal del condado de Wayne dijo que Robert Julian-Borchak Williams podría borrar el caso y sus datos de huellas dactilares. "Pedimos disculpas", dijo el fiscal, Kym L. Worthy, en un comun…

'La computadora se equivocó': cómo el reconocimiento facial condujo al falso arresto de un hombre negro
npr.org · 2020
Traducido por IA

Actualizado a las 21:05 ET miércoles

La policía de Detroit estaba tratando de averiguar quién robó cinco relojes de una tienda minorista de Shinola. Las autoridades dicen que el ladrón se fue con un valor estimado de $ 3,800 en mercancía.

L…

La policía de Detroit admite el primer error de reconocimiento facial después de un arresto falso
techrepublic.com · 2020
Traducido por IA

El miércoles por la mañana, la ACLU anunció que presentaría una denuncia contra el Departamento de Policía de Detroit en nombre de Robert Williams, un residente negro de Michigan a quien el grupo dijo que es una de las primeras personas arr…

Jefe de policía de Detroit: el software de reconocimiento facial identifica erróneamente el 96% del tiempo
vice.com · 2020
Traducido por IA

La policía de Detroit ha utilizado tecnología de reconocimiento facial altamente poco confiable casi exclusivamente contra personas negras en lo que va de 2020, según las propias estadísticas del Departamento de Policía de Detroit. El uso d…

Reconocimiento facial culpado por arresto falso y tiempo en la cárcel
silicon.co.uk · 2020
Traducido por IA

Sesgo racial y reconocimiento facial. Hombre negro en Nueva Jersey arrestado por la policía y pasa diez días en la cárcel después de una coincidencia de reconocimiento facial falso

Las preocupaciones sobre la precisión y el sesgo racial sob…

Teaneck NJ prohíbe el uso de reconocimiento facial para la policía, citando prejuicios
northjersey.com · 2021
Traducido por IA

Teaneck acaba de prohibir la tecnología de reconocimiento facial para la policía. Este es el por qué

Show Caption Hide Caption Programa de reconocimiento facial que funciona incluso si usa una máscara Una empresa japonesa dice que ha desarr…

Hombre arrestado injustamente demanda a la policía de Detroit por reconocimiento facial falso
washingtonpost.com · 2021
Traducido por IA

Un hombre de Michigan demandó a la policía de Detroit después de que el software de reconocimiento facial del departamento lo arrestó injustamente e identificó falsamente como sospechoso de hurto en una tienda en una de las primeras demanda…

Es hora de abordar el reconocimiento facial, la herramienta de inteligencia artificial más preocupante para el cumplimiento de la ley
thebulletin.org · 2021
Traducido por IA

Desde que un oficial de policía de Minneapolis mató a George Floyd en marzo de 2020 y reinició las protestas masivas de Black Lives Matter, las comunidades de todo el país han estado repensando la aplicación de la ley, desde el escrutinio g…

Cómo los arrestos injustos basados en IA descarrilaron la vida de 3 hombres
wired.com · 2022
Traducido por IA

ROBERT WILLIAMS ESTABA trabajando en el jardín con su familia una tarde de agosto pasado cuando su hija Julia dijo que necesitaban una reunión familiar de inmediato. Una vez que todos estuvieron dentro de la casa, la niña de 7 años cerró to…

translated-es-Facial Recognition Led to Wrongful Arrests. So Detroit Is Making Changes.
nytimes.com · 2024
Traducido por IA
Respuesta post-incidente de Kashmir Hill

translated-es-In January 2020, Robert Williams spent 30 hours in a Detroit jail because facial recognition technology suggested he was a criminal. The match was wrong, and Mr. Williams sued.

On Friday, as part of a legal settlement over his…

Variantes

Una "Variante" es un incidente que comparte los mismos factores causales, produce daños similares e involucra los mismos sistemas inteligentes que un incidente de IA conocido. En lugar de indexar las variantes como incidentes completamente separados, enumeramos las variaciones de los incidentes bajo el primer incidente similar enviado a la base de datos. A diferencia de otros tipos de envío a la base de datos de incidentes, no se requiere que las variantes tengan informes como evidencia externa a la base de datos de incidentes. Obtenga más información del trabajo de investigación.

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Police Departments Reported ShotSpotter as Unreliable and Wasteful

Gunshot detection system gets mixed reviews nationally

Oct 2012 · 15 informes
Predictive Policing Program by Florida Sheriff’s Office Allegedly Violated Residents’ Rights and Targeted Children of Vulnerable Groups

Predictive policing strategies for children face pushback

Sep 2015 · 12 informes
Predictive Policing Biases of PredPol

Policing the Future

Nov 2015 · 17 informes
Incidente AnteriorSiguiente Incidente

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Police Departments Reported ShotSpotter as Unreliable and Wasteful

Gunshot detection system gets mixed reviews nationally

Oct 2012 · 15 informes
Predictive Policing Program by Florida Sheriff’s Office Allegedly Violated Residents’ Rights and Targeted Children of Vulnerable Groups

Predictive policing strategies for children face pushback

Sep 2015 · 12 informes
Predictive Policing Biases of PredPol

Policing the Future

Nov 2015 · 17 informes

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2023 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 9d70fba