Récapitulatif des incidents liés à l'IA – 24 janvier
Lisez notre newsletter mensuelle récapitulant les nouveaux incidents dans la base de données des incidents AI et examinant les tendances.
🗄 Tendances dans l’AIID
La dernière série d'incidents d'IA dans la base de données va de l'utilisation involontaire à l'utilisation délibérée d'outils d'IA qui ont porté atteinte à des individus, à la réputation d'entreprises et même potentiellement aux élections primaires américaines.
Trois incidents nouveaux en janvier ont montré les conséquences involontaires de l'utilisation de l'IA sans intervention humaine suffisante et comprenaient une édition automatisée inappropriée de Photoshop, un langage insultant généré par un chatbot du service client et des listes de produits Amazon non modifiées avec des messages d'erreur générés par l'IA. Plusieurs autres incidents ont démontré l’utilisation de l’IA pour produire de fausses versions non autorisées des célébrités Taylor Swift et George Carlin, ainsi qu’une fausse voix de Biden utilisée pour induire en erreur les électeurs démocrates du New Hampshire.
Si vous souhaitez en savoir plus sur les tendances des incidents dans l'AIID, utilisez notre outil Discover pour utiliser des termes de recherche (par exemple Deepfakes) et des filtres (par exemple « Date de l'incident »).
Three incidents new in January showcased the unintended consequences of using AI without enough human intervention and included inappropriate automated photoshop editing, insulting language generated by a customer service chatbot, and unedited Amazon product listings with AI-generated error messages. Several other incidents demonstrated the use of AI to produce unauthorized fake versions of celebrities Taylor Swift and George Carlin, as well as a fake Biden voice used to mislead New Hampshire Democratic Voters.
If you want to learn more about incident trends in the AIID, use our Discover tool to use search terms (e.g. Deepfakes) and filters (e.g. “Incident Date”).
🗞️ Nouveaux Incidents
Se produisant en janvier
- Incident 633 (28/01/2024) L'IA de Nine Network modifie l'image du législateur Georgie Purcell de manière inappropriée
- Incident 632 (24/01/2024) Augmentation significative du nombre de faux nus de Taylor Swift circulant sur les réseaux sociaux
- Incident 628 (22/01/2024) Une fausse voix de Biden dans un appel automatisé induit en erreur les électeurs démocrates du New Hampshire
- Incident 631 (18/01/2024) Le chatbot pour DPD a mal fonctionné, a injurié les clients et a critiqué sa propre entreprise
- Incident 625 (01/12/2024) Prolifération de produits sur Amazon intitulée avec des messages d'erreur ChatGPT
- Incident 627 (01/09/2024) Usurpation non autorisée de l'identité de George Carlin par l'IA utilisée dans une comédie spéciale
Se déroulant en décembre
- Incident 626 (26/12/2023) Des escrocs sur les réseaux sociaux ont utilisé des deepfakes de Taylor Swift et de plusieurs autres célébrités dans des cadeaux frauduleux d'ustensiles de cuisine Le Creuset
- Incident 624 (20/12/2023) Le matériel d’abus sexuel sur des enfants entache les générateurs d’images
- Incident 619 (20/12/2023) La reconnaissance faciale de Rite Aid identifie de manière disproportionnée et erronée les acheteurs des minorités comme des voleurs à l'étalage
- Incident 622 (18/12/2023) Chatbot du concessionnaire Chevrolet accepte de vendre le Tahoe pour 1 $
- Incident 618 (14/12/2023) La Navy Federal Credit Union fait face à des allégations de préjugés raciaux dans les approbations de prêts hypothécaires
- Incident 623 (12/12/2023) Google Bard aurait généré de fausses citations juridiques dans l'affaire Michael Cohen
Incidents antérieurs nouvellement ajoutés
- Incident 616 (27/11/2023) Sports Illustrated aurait utilisé l’IA pour inventer de faux auteurs et leurs articles
- Incident 613 (23/11/2023) Les images générées par l'IA disponibles via Adobe Stock dénaturent les événements du monde réel
- Incident 621 (10/11/2023) L'IA de Microsoft aurait généré des images violentes de minorités et de personnalités publiques
- Incident 617 (11/09/2023) Un étudiant aurait utilisé l'IA pour générer des photos nues de camarades de classe dans un lycée d'Issaquah, Washington
- Incident 614 (11/02/2023) Google Bard aurait généré de fausses allégations contre des sociétés de conseil utilisées dans des recherches présentées dans le cadre d'une enquête parlementaire australienne
- Incident 629 (11/07/2023) Shein accusé de vol d'œuvres d'art sur des marchandises grâce à l'IA
- Incident 615 (13/06/2023) Un avocat du Colorado a déposé une requête citant des cas ChatGPT hallucinés
- Incident 630 (22/01/2022) L'erreur présumée de reconnaissance faciale de Macy conduit à une arrestation injustifiée et à une agression sexuelle ultérieure en prison
- Incident 620 (10/11/2021) Un robot dans une usine Tesla au Texas aurait blessé un ingénieur
👇 Plonger plus profondément
- Explorez des groupes d'incidents similaires dans Visualisation spatiale
- Consultez Table View pour une vue complète de tous les incidents
- En savoir plus sur les développeurs, les déployeurs et les parties lésées présumés dans Entities Page
🦾 Soutenez nos efforts
Toujours en train de lire ? Aidez-nous à changer le monde pour le mieux !
- Partagez cette newsletter sur LinkedIn, Twitter et Facebook
- Soumettez incidents à la base de données
- Contribuez aux fonctionnalités de la base de données