Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Incidente 70: Self-driving cars in winter

Descripción: Volvo autonomous driving XC90 SUV's experienced issues in Jokkmokk, Sweden when sensors used for automated driving iced over during the winter, rendering them useless.

Herramientas

Nuevo InformeNuevo InformeNueva RespuestaNueva RespuestaDescubrirDescubrirVer HistorialVer Historial

Entidades

Ver todas las entidades
Presunto: un sistema de IA desarrollado e implementado por Volvo, perjudicó a Volvo , drivers in Jokkmokk y drivers in Sweden.

Estadísticas de incidentes

ID
70
Cantidad de informes
4
Fecha del Incidente
2016-02-10
Editores
Sean McGregor, Khoa Lam
Applied Taxonomies
CSETv0, CSETv1, GMF, MIT

Clasificaciones de la Taxonomía CSETv1

Detalles de la Taxonomía

Incident Number

The number of the incident in the AI Incident Database.
 

70

Clasificaciones de la Taxonomía CSETv0

Detalles de la Taxonomía

Physical System

Where relevant, indicates whether the AI system(s) was embedded into or tightly associated with specific types of hardware.
 

Vehicle/mobile robot

Level of Autonomy

The degree to which the AI system(s) functions independently from human intervention. "High" means there is no human involved in the system action execution; "Medium" means the system generates a decision and a human oversees the resulting action; "low" means the system generates decision-support output and a human makes a decision and executes an action.
 

High

Nature of End User

"Expert" if users with special training or technical expertise were the ones meant to benefit from the AI system(s)’ operation; "Amateur" if the AI systems were primarily meant to benefit the general public or untrained users.
 

Amateur

Public Sector Deployment

"Yes" if the AI system(s) involved in the accident were being used by the public sector or for the administration of public goods (for example, public transportation). "No" if the system(s) were being used in the private sector or for commercial purposes (for example, a ride-sharing company), on the other.
 

No

Data Inputs

A brief description of the data that the AI system(s) used or were trained on.
 

traffic patterns, radar, LIDAR, video camera footage

Infrastructure Sectors

Where applicable, this field indicates if the incident caused harm to any of the economic sectors designated by the U.S. government as critical infrastructure.
 

Transportation

Clasificaciones de la Taxonomía MIT

Machine-Classified
Detalles de la Taxonomía

Risk Subdomain

A further 23 subdomains create an accessible and understandable classification of hazards and harms associated with AI
 

7.3. Lack of capability or robustness

Risk Domain

The Domain Taxonomy of AI Risks classifies risks into seven AI risk domains: (1) Discrimination & toxicity, (2) Privacy & security, (3) Misinformation, (4) Malicious actors & misuse, (5) Human-computer interaction, (6) Socioeconomic & environmental harms, and (7) AI system safety, failures & limitations.
 
  1. AI system safety, failures, and limitations

Entity

Which, if any, entity is presented as the main cause of the risk
 

AI

Timing

The stage in the AI lifecycle at which the risk is presented as occurring
 

Pre-deployment

Intent

Whether the risk is presented as occurring as an expected or unexpected outcome from pursuing a goal
 

Unintentional

Informes del Incidente

Cronología de Informes

+2
Los vehículos autónomos encuentran su pareja cuando la nieve crea ceguera del sensor
Coches autónomos en invierno5 cosas que dan dolores de cabeza a los autos sin conductor
Los vehículos autónomos encuentran su pareja cuando la nieve crea ceguera del sensor

Los vehículos autónomos encuentran su pareja cuando la nieve crea ceguera del sensor

insurancejournal.com

Los autos autónomos sucumben a la ceguera de la nieve a medida que desaparecen los carriles de conducción

Los autos autónomos sucumben a la ceguera de la nieve a medida que desaparecen los carriles de conducción

autonews.com

Coches autónomos en invierno

Coches autónomos en invierno

2025ad.com

5 cosas que dan dolores de cabeza a los autos sin conductor

5 cosas que dan dolores de cabeza a los autos sin conductor

nytimes.com

Los vehículos autónomos encuentran su pareja cuando la nieve crea ceguera del sensor
insurancejournal.com · 2016
Traducido por IA

En Jokkmokk, una pequeña aldea justo al norte del Círculo Polar Ártico en Suecia, donde las temperaturas pueden descender a 50 grados bajo cero, el vehículo utilitario deportivo XC90 autónomo de Volvo Cars encontró su pareja: copos congelad…

Los autos autónomos sucumben a la ceguera de la nieve a medida que desaparecen los carriles de conducción
autonews.com · 2016
Traducido por IA

DETROIT (Bloomberg) -- En Jokkmokk, una pequeña aldea justo al norte del Círculo Polar Ártico en Suecia, donde las temperaturas pueden descender a 50 grados bajo cero, el SUV XC90 autónomo de Volvo Cars encontró su pareja: copos congelados …

Coches autónomos en invierno
2025ad.com · 2016
Traducido por IA

Llegará un día en que la tecnología de conducción automatizada salga de los entornos de prueba controlados y entre en el mundo real. Para Volvo, ese día llegará en 2017. Pero, ¿están preparados los coches autónomos para hacer frente a los e…

5 cosas que dan dolores de cabeza a los autos sin conductor
nytimes.com · 2016
Traducido por IA

Los autos totalmente automatizados no beben y conducen, no se quedan dormidos al volante, no envían mensajes de texto, no hablan por teléfono ni se maquillan mientras conducen. Con sus sensores y procesadores, navegan por las carreteras sin…

Variantes

Una "Variante" es un incidente que comparte los mismos factores causales, produce daños similares e involucra los mismos sistemas inteligentes que un incidente de IA conocido. En lugar de indexar las variantes como incidentes completamente separados, enumeramos las variaciones de los incidentes bajo el primer incidente similar enviado a la base de datos. A diferencia de otros tipos de envío a la base de datos de incidentes, no se requiere que las variantes tengan informes como evidencia externa a la base de datos de incidentes. Obtenga más información del trabajo de investigación.

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

A Collection of Tesla Autopilot-Involved Crashes

Tesla Model X in Autopilot Killed a Driver. Officials Aren’t Pleased With How Tesla Handled It.

Jun 2016 · 22 informes
Google admits its self driving car got it wrong: Bus crash was caused by software

Google admits its self driving car got it wrong: Bus crash was caused by software

Sep 2016 · 28 informes
Near-miss between two Self-Driving Cars

Google, Delphi Self-Driving Cars Getting Dinged in California

May 2015 · 11 informes
Incidente AnteriorSiguiente Incidente

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

A Collection of Tesla Autopilot-Involved Crashes

Tesla Model X in Autopilot Killed a Driver. Officials Aren’t Pleased With How Tesla Handled It.

Jun 2016 · 22 informes
Google admits its self driving car got it wrong: Bus crash was caused by software

Google admits its self driving car got it wrong: Bus crash was caused by software

Sep 2016 · 28 informes
Near-miss between two Self-Driving Cars

Google, Delphi Self-Driving Cars Getting Dinged in California

May 2015 · 11 informes

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2023 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 30ebe76