Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Incident 844: SafeRent AI Screening Tool Allegedly Discriminated Against Housing Voucher Applicants

Description: SafeRent’s AI-powered tenant screening tool used credit history and non-rental-related debts to assign scores, disproportionately penalizing Black and Hispanic renters and those using housing vouchers. The reported discriminatory housing outcomes violated the Fair Housing Act and Massachusetts law. A class action lawsuit (Louis, et al. v. SafeRent Solutions, et al.) resulted in a $2.275 million settlement and changes to SafeRent’s practices.
Editor Notes: Reconstructing the timeline of events: (1) May 25, 2022, a class action lawsuit was filed against SafeRent Solutions in the U.S. District Court for the District of Massachusetts. It alleged violations of the Fair Housing Act and state laws due to algorithmic discrimination against Black and Hispanic rental applicants using housing vouchers. (2) January 9, 2023, the U.S. Department of Justice and the Department of Housing and Urban Development filed a statement of interest supporting the case. (3) July 26, 2023, the court denied SafeRent’s motion to dismiss and ruled that the plaintiffs sufficiently alleged that SafeRent’s scoring system caused disparate impacts. (4) November 20, 2024, the court approved a $2.275 million settlement with injunctive relief to prohibit discriminatory tenant scoring practices, setting a national precedent for fair tenant screening.

Outils

Nouveau rapportNouveau rapportNouvelle RéponseNouvelle RéponseDécouvrirDécouvrirVoir l'historiqueVoir l'historique

Entités

Voir toutes les entités
Alleged: SafeRent Solutions developed an AI system deployed by Landlords, which harmed Renters , Massachusetts renters , Hispanic renters , Black renters , Mary Louis et Monica Douglas.

Statistiques d'incidents

ID
844
Nombre de rapports
4
Date de l'incident
2022-05-25
Editeurs
Applied Taxonomies
MIT

Classifications de taxonomie MIT

Machine-Classified
Détails de la taxonomie

Risk Subdomain

A further 23 subdomains create an accessible and understandable classification of hazards and harms associated with AI
 

1.1. Unfair discrimination and misrepresentation

Risk Domain

The Domain Taxonomy of AI Risks classifies risks into seven AI risk domains: (1) Discrimination & toxicity, (2) Privacy & security, (3) Misinformation, (4) Malicious actors & misuse, (5) Human-computer interaction, (6) Socioeconomic & environmental harms, and (7) AI system safety, failures & limitations.
 
  1. Discrimination and Toxicity

Entity

Which, if any, entity is presented as the main cause of the risk
 

AI

Timing

The stage in the AI lifecycle at which the risk is presented as occurring
 

Post-deployment

Intent

Whether the risk is presented as occurring as an expected or unexpected outcome from pursuing a goal
 

Unintentional

Rapports d'incidents

Chronologie du rapport

Incident OccurrenceLe ministère de la Justice dépose une déclaration d'intérêt dans une affaire de loi sur le logement équitable alléguant des pratiques illégales de sélection des locataires basées sur des algorithmes+2
L'outil de sélection des propriétaires basé sur l'IA cessera de noter les locataires à faibles revenus après un procès pour discrimination
Le ministère de la Justice dépose une déclaration d'intérêt dans une affaire de loi sur le logement équitable alléguant des pratiques illégales de sélection des locataires basées sur des algorithmes

Le ministère de la Justice dépose une déclaration d'intérêt dans une affaire de loi sur le logement équitable alléguant des pratiques illégales de sélection des locataires basées sur des algorithmes

justice.gov

L'outil de sélection des propriétaires basé sur l'IA cessera de noter les locataires à faibles revenus après un procès pour discrimination

L'outil de sélection des propriétaires basé sur l'IA cessera de noter les locataires à faibles revenus après un procès pour discrimination

theverge.com

Louis, et al. c. SafeRent Solutions, et al.

Louis, et al. c. SafeRent Solutions, et al.

cohenmilstein.com

Elle n’a pas obtenu d’appartement à cause d’un score généré par l’IA – et a intenté un procès pour aider d’autres personnes à éviter le même sort

Elle n’a pas obtenu d’appartement à cause d’un score généré par l’IA – et a intenté un procès pour aider d’autres personnes à éviter le même sort

theguardian.com

Le ministère de la Justice dépose une déclaration d'intérêt dans une affaire de loi sur le logement équitable alléguant des pratiques illégales de sélection des locataires basées sur des algorithmes
justice.gov · 2023
Traduit par IA

Le ministère de la Justice et le ministère du Logement et du Développement urbain (HUD) ont annoncé aujourd'hui avoir déposé une déclaration d'intérêt pour expliquer l'application de la loi sur le logement équitable (FHA) aux systèmes de sé…

L'outil de sélection des propriétaires basé sur l'IA cessera de noter les locataires à faibles revenus après un procès pour discrimination
theverge.com · 2024
Traduit par IA

SafeRent, un outil de sélection d'IA utilisé par les propriétaires, n'utilisera plus de « scores » alimentés par l'IA pour évaluer si une personne utilisant des bons de logement ferait un bon locataire. Mercredi, la juge de district américa…

Louis, et al. c. SafeRent Solutions, et al.
cohenmilstein.com · 2024
Traduit par IA

Présentation

Mary Louis, Monica Douglas et la Community Action Agency de Somerville, les plaignants, allèguent que SafeRent Solutions, LLC, qui fournit des services de sélection de locataires aux propriétaires et aux propriétaires fonciers,…

Elle n’a pas obtenu d’appartement à cause d’un score généré par l’IA – et a intenté un procès pour aider d’autres personnes à éviter le même sort
theguardian.com · 2024
Traduit par IA

Trois cent vingt-quatre. C’est le score que Mary Louis a obtenu grâce à un outil de sélection de locataires basé sur l’IA. Le logiciel, SafeRent, n’a pas expliqué dans son rapport de 11 pages comment le score a été calculé ou comment il a p…

Variantes

Une "Variante" est un incident qui partage les mêmes facteurs de causalité, produit des dommages similaires et implique les mêmes systèmes intelligents qu'un incident d'IA connu. Plutôt que d'indexer les variantes comme des incidents entièrement distincts, nous listons les variations d'incidents sous le premier incident similaire soumis à la base de données. Contrairement aux autres types de soumission à la base de données des incidents, les variantes ne sont pas tenues d'avoir des rapports en preuve externes à la base de données des incidents. En savoir plus sur le document de recherche.

Incidents similaires

Par similarité textuelle

Did our AI mess up? Flag the unrelated incidents

COMPAS Algorithm Performs Poorly in Crime Recidivism Prediction

A Popular Algorithm Is No Better at Predicting Crimes Than Random People

May 2016 · 22 rapports
Northpointe Risk Models

Machine Bias - ProPublica

May 2016 · 15 rapports
HUD charges Facebook with enabling housing discrimination

HUD charges Facebook with enabling housing discrimination

Aug 2018 · 4 rapports
Incident précédentProchain incident

Incidents similaires

Par similarité textuelle

Did our AI mess up? Flag the unrelated incidents

COMPAS Algorithm Performs Poorly in Crime Recidivism Prediction

A Popular Algorithm Is No Better at Predicting Crimes Than Random People

May 2016 · 22 rapports
Northpointe Risk Models

Machine Bias - ProPublica

May 2016 · 15 rapports
HUD charges Facebook with enabling housing discrimination

HUD charges Facebook with enabling housing discrimination

Aug 2018 · 4 rapports

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2023 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 1ce4c40