Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Bienvenue dans
la base de données des incidents d'IA

Loading...
Alerte à l'arnaque Mayo : des fraudeurs clonent un candidat à l'élection présidentielle dans de fausses vidéos d'investissement

Incident 1207: Un faux profil généré par l'IA de Heather Humphreys, candidate à la présidentielle irlandaise du Fine Gael, utilisé dans de fausses vidéos d'investissement sur des plateformes Meta

Traduit par IA
“Alerte à l'arnaque Mayo : des fraudeurs clonent un candidat à l'élection présidentielle dans de fausses vidéos d'investissement”Dernier rapport
con-telegraph.ie2025-09-21

Des fraudeurs utilisent déjà la technologie deepfake pour cloner l'image et la voix de la candidate à l'élection présidentielle Heather Humphreys dans de fausses vidéos d'investissement circulant en ligne.

La Bank of Ireland met en garde les consommateurs contre la diffusion de ce type de publicités, principalement via des plateformes Meta, dans les semaines à venir.

La vidéo présente Heather Humphreys comme faisant la promotion d'un système d'investissement à haut rendement, son contenu étant entièrement fabriqué grâce à un clonage de voix et d'images par IA.

Nicola Sadlier, responsable de la fraude à la Bank of Ireland, a déclaré : « C'est extrêmement préoccupant. Nous assistons à une vague d'escroqueries qui exploitent la confiance du public envers des personnalités connues.

Ces vidéos sont très convaincantes et conçues pour attirer des individus peu méfiants vers des stratagèmes frauduleux. J'invite le public à rester vigilant, car d'autres vidéos de ce type pourraient apparaître dans les semaines à venir. Si vous voyez ce type de contenu, abstenez-vous. » Alors que l'UE explore de nouvelles initiatives pour encourager les consommateurs à investir, elle doit également faire face à la vague croissante d'escroqueries en ligne qui menace de saper la confiance du public.

« Une étape cruciale consiste à responsabiliser les plateformes de réseaux sociaux. Avant la diffusion de publicités pour des services financiers, les plateformes devraient être tenues de vérifier que l'annonceur est agréé par un organisme de réglementation reconnu.

« Cette simple vérification pourrait empêcher des milliers de promotions frauduleuses d'atteindre le public. »

Il est conseillé aux consommateurs d'ignorer toute offre d'investissement non sollicitée en ligne et de toujours vérifier les produits financiers auprès de leur banque ou d'un conseiller financier de confiance. Assurez-vous que la société d'investissement est réglementée en consultant le registre de la Banque centrale d'Irlande (ROI). Si une société n'est pas répertoriée, n'investissez pas. La Banque d'Irlande propose une assistance téléphonique anti-fraude 24h/24 et 7j/7 au 1800 946 764, disponible 7j/7.

Lire plus
Loading...
Rien ne vaut l'original : les autorités mettent en garde contre l'utilisation de l'IA pour la réglementation de la chasse.

Incident 1251: Des erreurs présumées de réglementation de la chasse, générées par l'IA, auraient entraîné une contravention dans l'Idaho et des avertissements dans plusieurs États de la part d'agences de protection de la faune.

Traduit par IA
“Rien ne vaut l'original : les autorités mettent en garde contre l'utilisation de l'IA pour la réglementation de la chasse.”
spokesman.com2025-10-29

Il y a au moins une chose que l'intelligence artificielle n'est pas prête à remplacer :

le guide pratique de la chasse.

Plus tôt ce mois-ci, le Département de la pêche et de la chasse de l'Idaho a mis en garde les chasseurs : ils ne doivent pas se fier à l'IA pour interpréter la réglementation de la chasse et de la pêche de l'État. Les gardes-chasse avaient constaté que des personnes sur le terrain avaient été induites en erreur par l'IA.

Roger Phillips, porte-parole du Département, a déclaré vendredi que l'incident à l'origine de cet avertissement s'était produit dans le sud-est de l'Idaho, où un chasseur de gibier d'eau avait été surpris en train de chasser un jour trop tôt.

Interpellé par les gardes-chasse, le chasseur a affirmé avoir trouvé la date d'ouverture de la chasse grâce à une recherche en ligne.

M. Phillips a expliqué que les gardes-chasse avaient découvert que la recherche avait fourni une réponse de l'IA basée sur une proposition rejetée, et non sur la décision finale du département ou sur le guide de la chasse.

Cet incident a incité le personnel du Département de la pêche et de la chasse de l'Idaho à examiner d'autres erreurs commises par l'IA. Ils ont ainsi trouvé plusieurs exemples de défaillances des robots. Parmi ces exemples : une recherche sur la réglementation d'une rivière spécifique de l'Idaho a renvoyé des résultats pour une rivière au nom similaire en Arkansas.

C'est là que réside le problème, a déclaré Phillips.

Quels que soient les paramètres de la recherche, on ne peut pas toujours se fier à l'IA pour choisir la bonne source parmi l'infinité d'options disponibles sur Internet.

« Elle ratisse très large », a-t-il ajouté.

Les responsables de la faune sauvage d'autres États ont également constaté des problèmes liés à l'IA. Dans des États comme l'Illinois et le Maine, les autorités ont mis en garde contre l'utilisation de l'IA pour répondre aux questions sur la réglementation de la chasse.

Pas plus tard que cette semaine, le Département de la chasse et de la pêche du Wyoming a annoncé dans un communiqué avoir été alerté de la présence de « nombreux résultats de recherche inexacts générés par l'IA ».

Selon le communiqué, plusieurs de ces erreurs provenaient de projets de loi rejetés, répertoriés sur le site web de la législature de l'État du Wyoming. Les résultats de recherche créés par l'IA faisaient référence à certains de ces projets de loi comme s'ils avaient été adoptés et promulgués.

Aaron Kerr, superviseur des forces de l'ordre du département de la chasse et de la pêche du Wyoming, a déclaré dans un communiqué que le fait de se fier à de fausses informations n'exonère personne des conséquences d'une infraction à la réglementation de la chasse ou de la pêche.

« Les chasseurs et les pêcheurs sont tenus de respecter les règles et réglementations en vigueur », a affirmé M. Kerr. « Tout manquement à ces règles peut entraîner des amendes, une peine d'emprisonnement ou la suspension des permis de chasse et de pêche. »

Alan Myers, capitaine de police du département de la pêche et de la faune de l'État de Washington pour l'est de l'État, a indiqué n'avoir eu connaissance d'aucun cas d'infraction lié à une interprétation erronée de la réglementation de la chasse de l'État de Washington par l'intelligence artificielle.

Cependant, la quantité considérable de désinformation présente sur Internet est antérieure à l'essor de l'IA. M. Myers a précisé que, par le passé, des chasseurs ou des pêcheurs ont justifié une infraction par un résultat de recherche erroné ou par une information lue sur les réseaux sociaux.

Mhillies attribue ce phénomène à la tendance humaine à résoudre tous ses problèmes par une simple recherche Google.

« Quand je veux savoir si un restaurant va fermer, je fais une recherche sur Google », a-t-il déclaré. « On prend l'habitude de faire certaines choses, et ensuite, quand on va à la chasse ou à la pêche, on risque de les reproduire. »

Google a lancé son outil d'IA en 2024 et a commencé à proposer des aperçus générés par l'IA en réponse à de nombreuses recherches. Ces aperçus offrent des réponses rapides, mais pas toujours les bonnes, et pas toujours avec le niveau de détail précis des règles de chasse et de pêche.

« Quand on a un livret de 125 pages sur la réglementation du gros gibier, qui couvre les chasses contrôlées, les chasses générales, les saisons de chasse à l'arc, à la poudre noire et à la carabine », a déclaré Phillips, « on comprend vite que l'IA serait rapidement dépassée. »

Il existe au moins un outil d'IA conçu pour aider les chasseurs à s'y retrouver dans la complexité de la réglementation.

Appelé Scout, cet outil a été créé par l'International Hunter Education Association. Lancé l'année dernière, il permet de poser à un chatbot des questions précises sur les règles et réglementations de chasse dans un État donné.

Les utilisateurs choisissent un État dans un menu déroulant, puis posent leur question. Le robot analyse les règlements d'un État donné, puis fournit une réponse. Cette réponse cite également les pages d'où proviennent les informations. Le livret lui-même apparaît dans une visionneuse PDF sous la réponse, et le site permet également aux utilisateurs de télécharger les PDF pour n'importe quel État.

Inciter les gens à utiliser la source officielle est la seule solution. Même les résultats de recherche de l'IA, parfois imparfaits, incluent généralement une mention incitant à consulter les guides de réglementation.

Aucun guide ne couvre à lui seul toutes les informations nécessaires à un chasseur ou un pêcheur. Des publications distinctes sont créées chaque année pour la pêche, le gros gibier, les oiseaux migrateurs, les dindes sauvages, etc.

Elles sont gratuites et faciles à trouver en ligne et dans les points de vente physiques.

« Partout où l'on vend des permis et des étiquettes », a déclaré Phillips.

Lire plus
Loading...
Des juges fédéraux utilisant l'IA ont déposé des ordonnances judiciaires contenant de fausses citations et de faux noms.

Incident 1252: Des juges du New Jersey et du Mississippi admettent que des outils d'IA ont produit des documents erronés devant les tribunaux fédéraux.

Traduit par IA
“Des juges fédéraux utilisant l'IA ont déposé des ordonnances judiciaires contenant de fausses citations et de faux noms.”
washingtonpost.com2025-10-29

Deux juges fédéraux du New Jersey et du Mississippi ont admis ce mois-ci avoir utilisé l'intelligence artificielle pour rédiger des documents judiciaires factuellement inexacts, incluant de fausses citations et des parties fictives. Cette situation a suscité une vive réprobation de la part du président de la commission judiciaire du Sénat.

« Je n'ai jamais rien vu ni entendu de tel de la part d'un tribunal fédéral », a déclaré le sénateur Chuck Grassley (R-Iowa) lors d'une intervention au Sénat lundi.

La commission a annoncé jeudi que les juges Henry T. Wingate, du district sud du Mississippi, et Julien Xavier Neals, du district du New Jersey, ont reconnu avoir eu recours à l'IA pour préparer ces documents truffés d'erreurs durant l'été. Ils ont imputé ces erreurs respectivement à un assistant juridique et à un stagiaire en droit, selon les lettres qu'ils ont envoyées en réponse à une enquête du Sénat.

Les deux documents judiciaires erronés ont été versés au rôle et ont dû être retirés en urgence après que les défendeurs ont signalé les erreurs aux juges. Aucun des deux juges n'a expliqué la cause des erreurs avant d'être contacté par la commission.

L'utilisation de l'intelligence artificielle générative (IAG) se généralise dans le système judiciaire américain. Wingate et Neal rejoignent ainsi de nombreux avocats et justiciables qui ont été réprimandés pour avoir utilisé l'IA afin de produire des documents juridiques truffés d'erreurs.

Les instances juridiques sont encore en train de s'adapter. Le Bureau administratif des tribunaux américains (AOCC), qui soutient le système judiciaire fédéral, a publié en juillet des recommandations provisoires suggérant aux utilisateurs de « réfléchir à l'opportunité de divulguer l'utilisation de l'IA » dans le cadre de leurs fonctions judiciaires. Il a également mis en place un groupe de travail chargé d'élaborer des recommandations supplémentaires sur l'utilisation de l'IA dans les tribunaux fédéraux.

Grassley a déclaré lundi que les tribunaux fédéraux devaient établir des règles concernant l'utilisation de l'IA dans les litiges.

« J'appelle chaque juge américain à prendre cette question au sérieux et à formaliser des mesures pour prévenir le mésusage de l'intelligence artificielle dans son cabinet », a-t-il affirmé.

Dans leurs courriers, Wingate et Neals ont indiqué avoir pris des mesures correctives après avoir été informés des erreurs et qu'ils procéderaient à des vérifications supplémentaires des documents déposés auprès du tribunal avant leur soumission. Neals a précisé avoir établi une politique écrite au sein de son cabinet interdisant l'utilisation de l'intelligence artificielle générative dans la recherche juridique ou la rédaction de documents judiciaires.

Wingate n'a pas immédiatement répondu à notre demande de commentaires. Le cabinet de Neals a refusé de commenter.

Wingate, nommé à la Cour suprême par le président Ronald Reagan en 1985, supervisait une affaire intentée par la Fédération des enseignants de Jackson et d'autres associations contre le Conseil d'éducation de l'État du Mississippi et d'autres instances étatiques. Cette action en justice contestait une loi de l'État interdisant aux écoles publiques d'enseigner « l'idéologie transgenre » et de dispenser des « formations à la diversité » sur les questions de race, de genre et d'orientation sexuelle.

Le 20 juillet, Wingate a accordé une injonction temporaire empêchant l'État d'appliquer certaines dispositions de cette interdiction. Deux jours plus tard, dans une requête en clarification, les avocats du Mississippi ont affirmé que l'ordonnance de Wingate était truffée d'erreurs.

L'ordonnance mentionnait plusieurs plaignants et défendeurs, dont une association étudiante, un parent du Mississippi, des étudiants et des représentants du gouvernement, qui n'étaient pas parties à l'affaire, selon la réponse des avocats du Mississippi. L'ordonnance contenait des allégations qui ne figuraient pas dans la plainte et indiquait à tort que le projet de loi était bloqué, ont souligné les avocats. L'ordonnance citait également des déclarations de personnes à l'appui d'une injonction qui n'existait pas.

Le bureau de Wingate a émis une injonction rectifiée le soir même et a demandé aux parties de ne pas tenir compte de la précédente. L'affaire est toujours en cours ; Wingate avait accordé une injonction préliminaire contre le projet de loi en août, contre laquelle les avocats du Mississippi ont fait appel.

Neals, nommé par le président Joe Biden en 2021, a rendu une décision erronée dans le cadre d'un recours collectif en valeurs mobilières intenté contre CorMedix, une société pharmaceutique, pour avoir prétendument induit les investisseurs en erreur au sujet d'un produit médical.

Le 30 juin, Neals a rejeté la requête de CorMedix visant à faire rejeter la plainte. Environ un mois plus tard, les avocats de CorMedix ont écrit que l'avis de Neals contenait des cas inventés et des citations inexistantes d'affaires réelles invoquées à l'appui de sa décision. Il y était fait état de résultats erronés et d'indications erronées quant à l'acceptation ou non des requêtes en irrecevabilité. De plus, des citations mensongères étaient attribuées à CorMedix, selon la lettre.

L'avis de Neals avait également été produit comme « autorité complémentaire » dans le cadre d'un autre recours collectif, dont les défendeurs avaient également soulevé des problèmes concernant ce document, précise la lettre.

Neals a reconnu que l'avis avait été rendu par erreur et l'a retiré du rôle. L'affaire est en cours.

Les erreurs relevées dans les décisions des deux juges étaient similaires à celles provoquées par des dysfonctionnements de l'IA – où une IA générative, qui produit du texte en prédisant l'enchaînement des mots à partir d'une analyse du contenu écrit, invente avec assurance des faits et de fausses citations – et les observateurs ont rapidement supposé que ces erreurs provenaient de l'utilisation de l'IA.

Dans un premier temps, interrogés par les avocats et les parties, aucun des deux juges n'a admis que les erreurs étaient liées à l'IA. Grassley, dans son discours de lundi, a qualifié leur « manque de transparence… stupéfiant ».

Le Comité judiciaire du Sénat a écrit à Neals et Wingate début octobre pour s'enquérir des erreurs commises. Dans leurs réponses, les deux juges ont indiqué que ces erreurs étaient imputables à l'intelligence artificielle, mais que les documents déposés étaient des brouillons publiés par erreur avant leur examen.

Un assistant juridique du cabinet de Wingate a utilisé l'outil d'IA Perplexity comme « assistant de rédaction de base » pour synthétiser les informations publiques disponibles dans le rôle du tribunal, a écrit Wingate. Un stagiaire en droit auprès de Neals a utilisé ChatGPT pour effectuer des recherches juridiques, a précisé Neals.

(Le Washington Post est partenaire de Perplexity et d'OpenAI, le créateur de ChatGPT.)

« Je gère un rôle très chargé et je m'efforce de maintenir la confiance du public en rendant la justice de manière équitable et transparente », a écrit Wingate. « Étant donné que j'exige de moi-même et de mon personnel les normes de conduite les plus élevées, je ne m'attends pas à ce qu'une telle erreur se reproduise. »

« Bien que mon expérience dans l'affaire CorMedix ait été des plus malheureuses et imprévisibles, j'espère qu'à tout le moins, elle éclairera le travail continu du groupe de travail [du Bureau administratif des tribunaux] et mènera finalement à de nouvelles politiques significatives pour tous les tribunaux fédéraux », a écrit Neals.

Lire plus
Loading...
Un étudiant américain menotté après qu'un système d'intelligence artificielle a apparemment confondu un paquet de chips avec une arme à feu.

Incident 1250: Un faux positif présumé du système de détection d'armes à feu Omnilert AI incite la police à effectuer des recherches dans un lycée du comté de Baltimore

Traduit par IA
“Un étudiant américain menotté après qu'un système d'intelligence artificielle a apparemment confondu un paquet de chips avec une arme à feu.”
theguardian.com2025-10-24

Un système d'intelligence artificielle (IA) a apparemment confondu le paquet de Doritos d'un lycéen avec une arme à feu et a appelé la police locale pour signaler que l'élève était armé.

Lundi soir, Taki Allen était assis avec des amis devant le lycée Kenwood à Baltimore et grignotait lorsque des policiers armés se sont approchés de lui.

« Au début, je ne comprenais pas où ils allaient. Ils ont commencé à marcher vers moi, armes au poing, en me criant de me mettre à terre. J'étais complètement abasourdi », a déclaré Allen à la chaîne de télévision WBAL-TV 11 News.

Allen a déclaré qu'ils l'avaient forcé à se mettre à genoux, menotté et fouillé, sans rien trouver. Ils lui ont ensuite montré une copie de la photo qui avait déclenché l'alerte.

« Je tenais juste un paquet de Doritos – j'avais les deux mains et un doigt tendu – et ils ont dit que ça ressemblait à une arme », a expliqué Allen.

L'année dernière, les lycées du comté de Baltimore ont commencé à utiliser un système de détection d'armes à feu qui s'appuie sur les caméras de l'établissement et l'intelligence artificielle pour repérer les armes potentielles. Si le système détecte quelque chose de suspect, il envoie une alerte à l'établissement et aux forces de l'ordre.

Dans une lettre adressée aux familles des élèves et obtenue par WBAL TV 11 News, l'établissement scolaire a déclaré : « Nous comprenons combien cet incident a été bouleversant pour la personne fouillée ainsi que pour les autres élèves témoins. Nos conseillers apporteront un soutien direct aux élèves concernés et sont également disponibles pour s'entretenir avec tout élève qui en aurait besoin. »

La police du comté de Baltimore a indiqué à la chaîne : « Les agents du commissariat n° 11-Essex se sont rendus au lycée Kenwood suite au signalement d'une personne suspecte armée. Sur place, la personne a été fouillée et il a été établi qu'elle n'était pas en possession d'une arme. »

Lamont Davis, le grand-père d'Allen, a déclaré à la chaîne de télévision : « Personne ne souhaite que cela arrive à son enfant. Personne ne le souhaite. »

Cet article a été modifié le 24 octobre 2025. Une version précédente affichait la photo d'un véhicule de la police de Baltimore, alors que le comté de Baltimore n'inclut pas la ville de Baltimore.

Lire plus
Loading...
Starbuck contre Meta

Incident 1247: Une méta-IA aurait généré de fausses allégations liant l'activiste Robby Starbuck aux émeutes du 6 janvier, déclenchant un procès en diffamation.

Traduit par IA
“Starbuck contre Meta”
dhillonlaw.com2025-10-22

DOVER, DELAWARE — 28 avril 2025 — Aujourd'hui, le cabinet Dhillon Law Group, au nom de Robby Starbuck, cinéaste, journaliste et militant américain, a intenté une action en diffamation contre Meta Platforms, Inc. (« Meta ») devant la Cour supérieure du Delaware. La plainte allègue que l'outil d'intelligence artificielle de Meta, Meta AI, a publié à plusieurs reprises – et continue de publier – des déclarations fausses et diffamatoires prouvant que Starbuck a participé à l'émeute du Capitole du 6 janvier et a été arrêté pour délit.

Starbuck, qui se trouvait chez lui dans le Tennessee le 6 janvier 2021, n'avait jamais été accusé d'un quelconque crime, et encore moins de l'activité criminelle que Meta AI lui a faussement attribuée. Malgré les appels directs de Starbuck à se rétracter et à corriger ces mensonges, Meta a refusé d'en assumer la responsabilité. Même après avoir accusé réception de la demande légale formelle de Starbuck en août 2024, Meta a laissé son IA continuer de le diffamer pendant des mois, étendant finalement ce faux récit à des allégations fabriquées de toutes pièces, telles que le négationnisme et l'inaptitude de Starbuck à élever ses propres enfants.

« Cette affaire souligne l'impact profond de l'IA sur la vie des Américains et l'urgence de tenir les entreprises du secteur responsables de la diffusion irresponsable de fausses informations », a déclaré Krista Baughman, associée du cabinet Dhillon Law Group. « Grâce à cette action en justice, nous souhaitons établir un précédent en matière de développement et de surveillance responsables de l'IA, protégeant ainsi M. Starbuck et tous les consommateurs des conséquences dévastatrices d'une désinformation incontrôlée de l'IA. »

« L'IA de Meta m'a diffamé de manière malveillante, me présentant à tort comme un criminel et un négationniste de l'Holocauste. Même après avoir été informée, Meta a poursuivi sa diffamation », a déclaré Robby Starbuck. Ce cauchemar doit cesser. Si Meta souhaite parvenir à un accord, elle doit s'engager à mettre en œuvre des changements durables afin de protéger tout le monde contre la diffamation liée à l'IA. Cette affaire établit une ligne claire : l'IA doit être dotée de garde-fous. J'exhorte Mark Zuckerberg et les dirigeants de Meta à faire leur propre introspection et à remédier à cette situation pour la prochaine génération. Ils méritent mieux.

La publication continue de ces mensonges par Meta a déclenché une série de menaces de mort contre Starbuck et sa famille, une atteinte grave à sa réputation et à sa carrière, ainsi que la perte d'opportunités commerciales cruciales. La plainte vise à obtenir des dommages-intérêts compensatoires et punitifs, ainsi qu'une injonction pour contraindre Meta à supprimer les fausses informations de ses systèmes d'IA et à prévenir de nouveaux préjudices.

La menace de désinformation liée à l'IA continue de croître alors que Meta s'apprête à étendre son offre de produits d'IA à des dizaines de millions d'utilisateurs aux États-Unis.

Lire plus
Ajout rapide d'un nouveau rapport

Les liens soumis sont ajoutés à une file d'attente de révision pour être résolus en créant un nouvel incident ou en ajoutant le rapport sur un incident existant. Les incidents soumis avec tous les détails sont traités en priorité par rapport à ceux qui n'ont pas tous les détails complets.
A propos de la base de données

La base de données des incidents d'IA est dédiée à l'indexation de l'historique collectif des dommages ou les quasi-dommages réalisés dans le monde réel par le déploiement de systèmes d'intelligence artificielle. Comme des bases de données similaires dans l'aviation et la sécurité informatique, La base de données des incidents d'IA vise à apprendre de l'expérience afin que nous puissions prévenir ou atténuer les mauvais résultats.

Vous êtes invité à soumettre des rapports d'incident, après quoi les soumissions seront indexées et rendues visibles au monde entier. L'intelligence artificielle ne sera bénéfique pour les personnes et la société que si nous enregistrons et apprenons collectivement de ses échecs. (Plus d'informations)

post-image
Researching AI Incidents to Build a Safer Future: The Digital Safety Research Institute partners with the Responsible AI Collaborative

By TheCollab Board of Directors

2024-02-20

The Digital Safety Research Institute (DSRI) of UL Research Institutes is partnering with the Responsible AI Collaborative (TheCollab) to ad...

Lire plus
La base de données dans la presse

En savoir plus sur la base de données sur PAI Blog, Vice News, Venture Beat, Wired et arXiv entre autres points de vente.

Arxiv LogoVenture Beat LogoWired LogoVice logoVice logo
Classement des rapporteurs d'incidents

Celles-ci sont les personnes et entités créditées pour la création et la soumission des rapports d'incident. Plus de détails sont disponibles sur la page des classements.

Nouveaux incidents apportés
  • 🥇

    Daniel Atherton

    613
  • 🥈

    Anonymous

    152
  • 🥉

    Khoa Lam

    93
Rapports ajoutés aux incidents existants
  • 🥇

    Daniel Atherton

    702
  • 🥈

    Khoa Lam

    230
  • 🥉

    Anonymous

    225
Contributions totales au rapport
  • 🥇

    Daniel Atherton

    2812
  • 🥈

    Anonymous

    958
  • 🥉

    Khoa Lam

    456
Le briefing sur les incidents d'IA
An envelope with a neural net diagram on its left

Create an account to subscribe to new incident notifications and other updates.

Incidents aléatoires
Loading...
Predictive Policing Biases of PredPol
Predictive Policing Biases of PredPol
Loading...
Aledo High School Student Allegedly Generates and Distributes Deepfake Nudes of Seven Female Classmates
Aledo High School Student Allegedly Generates and Distributes Deepfake Nudes of Seven Female Classmates
Loading...
ChatGPT Reportedly Introduces Errors in Critical Child Protection Court Report
ChatGPT Reportedly Introduces Errors in Critical Child Protection Court Report
Loading...
Child Sexual Abuse Material Taints Image Generators
Child Sexual Abuse Material Taints Image Generators
Loading...
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court
La collaboration IA responsable

La base de données d'incidents d'IA est un projet du Responsible AI Collaborative, une organisation autorisée à promouvoir la base de données d'incidents d'IA. La gouvernance de la Collaborative est structurée autour de la participation de sa programmation d'impact. Pour plus de détails, nous vous invitons à lire le rapport de la fondation et à en savoir plus sur notre and learn more on our.

Voir le formulaire 990 et la demande d'exonération fiscale de la Responsible AI Collaborative.

Commanditaire fondateur de l'organisation
Commanditaire fondateur de la base de données
Commanditaires et subventions
Commanditaires en nature

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Project and Community test

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur
  • RAIC AIID Taxonomy Policy

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2023 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 5f34726