Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Incidente 124: Algorithmic Health Risk Scores Underestimated Black Patients’ Needs

Descripción: Optum's algorithm deployed by a large academic hospital was revealed by researchers to have under-predicted the health needs of black patients, effectively de-prioritizing them in extra care programs relative to white patients with the same health burden.

Herramientas

Nuevo InformeNuevo InformeNueva RespuestaNueva RespuestaDescubrirDescubrirVer HistorialVer Historial

Entidades

Ver todas las entidades
Alleged: Optum developed an AI system deployed by unnamed large academic hospital, which harmed Black patients.

Estadísticas de incidentes

ID
124
Cantidad de informes
7
Fecha del Incidente
2019-10-24
Editores
Sean McGregor, Khoa Lam
Applied Taxonomies
CSETv1, GMF, MIT

Clasificaciones de la Taxonomía CSETv1

Detalles de la Taxonomía

Incident Number

The number of the incident in the AI Incident Database.
 

124

Clasificaciones de la Taxonomía MIT

Machine-Classified
Detalles de la Taxonomía

Risk Subdomain

A further 23 subdomains create an accessible and understandable classification of hazards and harms associated with AI
 

1.3. Unequal performance across groups

Risk Domain

The Domain Taxonomy of AI Risks classifies risks into seven AI risk domains: (1) Discrimination & toxicity, (2) Privacy & security, (3) Misinformation, (4) Malicious actors & misuse, (5) Human-computer interaction, (6) Socioeconomic & environmental harms, and (7) AI system safety, failures & limitations.
 
  1. Discrimination and Toxicity

Entity

Which, if any, entity is presented as the main cause of the risk
 

AI

Timing

The stage in the AI lifecycle at which the risk is presented as occurring
 

Post-deployment

Intent

Whether the risk is presented as occurring as an expected or unexpected outcome from pursuing a goal
 

Unintentional

Informes del Incidente

Cronología de Informes

+4
Un algoritmo de atención médica ofreció menos atención a los pacientes negros
Estos algoritmos miran los rayos X y de alguna manera detectan tu raza'El racismo es el algoritmo más antiguo de Estados Unidos': cómo el sesgo se cuela en la IA de la atención médicaLos algoritmos están tomando decisiones sobre la atención médica, lo que solo puede empeorar el racismo médico
Un algoritmo de atención médica ofreció menos atención a los pacientes negros

Un algoritmo de atención médica ofreció menos atención a los pacientes negros

wired.com

El sesgo racial en un algoritmo médico favorece a los pacientes blancos sobre los pacientes negros más enfermos

El sesgo racial en un algoritmo médico favorece a los pacientes blancos sobre los pacientes negros más enfermos

washingtonpost.com

Millones de personas negras afectadas por prejuicios raciales en algoritmos de atención médica

Millones de personas negras afectadas por prejuicios raciales en algoritmos de atención médica

nature.com

El regulador de seguros de Nueva York investigará el algoritmo de Optum por prejuicios raciales

El regulador de seguros de Nueva York investigará el algoritmo de Optum por prejuicios raciales

fiercehealthcare.com

Estos algoritmos miran los rayos X y de alguna manera detectan tu raza

Estos algoritmos miran los rayos X y de alguna manera detectan tu raza

wired.com

'El racismo es el algoritmo más antiguo de Estados Unidos': cómo el sesgo se cuela en la IA de la atención médica

'El racismo es el algoritmo más antiguo de Estados Unidos': cómo el sesgo se cuela en la IA de la atención médica

statnews.com

Los algoritmos están tomando decisiones sobre la atención médica, lo que solo puede empeorar el racismo médico

Los algoritmos están tomando decisiones sobre la atención médica, lo que solo puede empeorar el racismo médico

aclu.org

Un algoritmo de atención médica ofreció menos atención a los pacientes negros
wired.com · 2019
Traducido por IA

El cuidado de algunos de los estadounidenses más enfermos se decide en parte por algoritmo. Una nueva investigación muestra que el software que guía la atención de decenas de millones de personas privilegia sistemáticamente a los pacientes …

El sesgo racial en un algoritmo médico favorece a los pacientes blancos sobre los pacientes negros más enfermos
washingtonpost.com · 2019
Traducido por IA

Un algoritmo ampliamente utilizado que predice qué pacientes se beneficiarán de la atención médica adicional subestima drásticamente las necesidades de salud de los pacientes negros más enfermos, lo que amplifica las disparidades raciales d…

Millones de personas negras afectadas por prejuicios raciales en algoritmos de atención médica
nature.com · 2019
Traducido por IA

Un algoritmo ampliamente utilizado en los hospitales de EE. UU. para asignar atención médica a los pacientes ha discriminado sistemáticamente a las personas negras, según un análisis exhaustivo.

El estudio, publicado en Science el 24 de oct…

El regulador de seguros de Nueva York investigará el algoritmo de Optum por prejuicios raciales
fiercehealthcare.com · 2019
Traducido por IA

Los departamentos de Salud y Servicios Financieros de Nueva York enviaron una carta al CEO de UnitedHealth Group, David Wichmann, el viernes sobre un algoritmo desarrollado por Optum, The Wall Street Journal [informó] (https://www.wsj.com/a…

Estos algoritmos miran los rayos X y de alguna manera detectan tu raza
wired.com · 2021
Traducido por IA

Se están gastando millones de dólares para desarrollar un software de inteligencia artificial que lea radiografías y otros exámenes médicos con la esperanza de que pueda detectar cosas que los médicos buscan pero que a veces pasan por alto,…

'El racismo es el algoritmo más antiguo de Estados Unidos': cómo el sesgo se cuela en la IA de la atención médica
statnews.com · 2022
Traducido por IA

La inteligencia artificial y los algoritmos médicos están profundamente entrelazados con nuestro moderno sistema de atención médica. Estas tecnologías imitan los procesos de pensamiento de los médicos para tomar decisiones médicas y están d…

Los algoritmos están tomando decisiones sobre la atención médica, lo que solo puede empeorar el racismo médico
aclu.org · 2022
Traducido por IA

La inteligencia artificial (IA) y los sistemas algorítmicos de toma de decisiones, algoritmos que analizan cantidades masivas de datos y hacen predicciones sobre el futuro, están afectando cada vez más la vida cotidiana de los estadounidens…

Variantes

Una "Variante" es un incidente que comparte los mismos factores causales, produce daños similares e involucra los mismos sistemas inteligentes que un incidente de IA conocido. En lugar de indexar las variantes como incidentes completamente separados, enumeramos las variaciones de los incidentes bajo el primer incidente similar enviado a la base de datos. A diferencia de otros tipos de envío a la base de datos de incidentes, no se requiere que las variantes tengan informes como evidencia externa a la base de datos de incidentes. Obtenga más información del trabajo de investigación.

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

COMPAS Algorithm Performs Poorly in Crime Recidivism Prediction

A Popular Algorithm Is No Better at Predicting Crimes Than Random People

May 2016 · 22 informes
Kidney Testing Method Allegedly Underestimated Risk of Black Patients

How an Algorithm Blocked Kidney Transplants to Black Patients

Mar 1999 · 3 informes
Northpointe Risk Models

Machine Bias - ProPublica

May 2016 · 15 informes
Incidente AnteriorSiguiente Incidente

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

COMPAS Algorithm Performs Poorly in Crime Recidivism Prediction

A Popular Algorithm Is No Better at Predicting Crimes Than Random People

May 2016 · 22 informes
Kidney Testing Method Allegedly Underestimated Risk of Black Patients

How an Algorithm Blocked Kidney Transplants to Black Patients

Mar 1999 · 3 informes
Northpointe Risk Models

Machine Bias - ProPublica

May 2016 · 15 informes

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2023 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • f28fa7c