Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Incident 996: Meta Allegedly Used Books3, a Dataset of 191,000 Pirated Books, to Train LLaMA AI

Description: Meta and Bloomberg allegedly used Books3, a dataset containing 191,000 pirated books, to train their AI models, including LLaMA and BloombergGPT, without author consent. Lawsuits from authors such as Sarah Silverman and Michael Chabon claim this constitutes copyright infringement. Books3 includes works from major publishers like Penguin Random House and HarperCollins. Meta argues its AI outputs are not "substantially similar" to the original books, but legal challenges continue.

Outils

Nouveau rapportNouveau rapportNouvelle RéponseNouvelle RéponseDécouvrirDécouvrirVoir l'historiqueVoir l'historique

Entités

Voir toutes les entités
Alleged: Various generative AI developers , Meta , EleutherAI , Bloomberg , The Pile et Shawn Presser developed an AI system deployed by Various generative AI developers , Meta , EleutherAI et Bloomberg, which harmed Zadie Smith , Writers , Verso , Stephen King , Sarah Silverman , Richard Kadrey , Publishers found in Books3 , Penguin Random House , Oxford University Press , Over 170,000 authors found in Books3 , Michael Pollan , Margaret Atwood , Macmillan , HarperCollins , General public , Creative industries , Christopher Golden et Authors.
Systèmes d'IA présumés impliqués: The Pile , LLaMA , hugging face , GPT-J , Books3 , BloombergGPT et Bibliotik

Statistiques d'incidents

ID
996
Nombre de rapports
2
Date de l'incident
2020-10-25
Editeurs

Rapports d'incidents

Chronologie du rapport

Incident OccurrenceSarah Silverman poursuit OpenAI et Meta pour violation du droit d'auteurRévélations : les auteurs dont les livres piratés alimentent l'IA générative
Sarah Silverman poursuit OpenAI et Meta pour violation du droit d'auteur

Sarah Silverman poursuit OpenAI et Meta pour violation du droit d'auteur

theverge.com

Révélations : les auteurs dont les livres piratés alimentent l'IA générative

Révélations : les auteurs dont les livres piratés alimentent l'IA générative

theatlantic.com

Sarah Silverman poursuit OpenAI et Meta pour violation du droit d'auteur
theverge.com · 2023
Traduit par IA

La comédienne et auteure Sarah Silverman, ainsi que les auteurs Christopher Golden et Richard Kadrey, poursuivent OpenAI et Meta chacun devant un tribunal de district des États-Unis pour [double réclamation pour violation du droit d'auteur…

Révélations : les auteurs dont les livres piratés alimentent l'IA générative
theatlantic.com · 2023
Traduit par IA

Mise à jour à 13h40 HE le 25 septembre 2023

Note de la rédaction : Cet article fait partie de la série de The Atlantic consacrée à Books3. Consultez notre base de données consultable Books3 pour trouver des auteurs et des titres spécifiques…

Variantes

Une "Variante" est un incident qui partage les mêmes facteurs de causalité, produit des dommages similaires et implique les mêmes systèmes intelligents qu'un incident d'IA connu. Plutôt que d'indexer les variantes comme des incidents entièrement distincts, nous listons les variations d'incidents sous le premier incident similaire soumis à la base de données. Contrairement aux autres types de soumission à la base de données des incidents, les variantes ne sont pas tenues d'avoir des rapports en preuve externes à la base de données des incidents. En savoir plus sur le document de recherche.

Incidents similaires

Selected by our editors

The Unbelievable Scale of AI’s Pirated-Books Problem

Feb 2023 · 4 rapports
Incident précédentProchain incident

Incidents similaires

Selected by our editors

The Unbelievable Scale of AI’s Pirated-Books Problem

Feb 2023 · 4 rapports

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2023 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 7ba8869