Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Incident 963: Google Reports Alleged Gemini-Generated Terrorism and Child Exploitation to Australian eSafety Commission

Description: Google reported to Australia's eSafety Commission that it received 258 complaints globally about AI-generated deepfake terrorism content and 86 about child abuse material made with its Gemini AI. The regulator called this a "world-first insight" into AI misuse. While Google uses hash-matching to detect child abuse content, it lacks a similar system for extremist material.
Editor Notes: Timeline note: Google's reporting period for this data was April 2023 to February 2024. The information was widely reported on March 5, 2025.

Outils

Nouveau rapportNouveau rapportNouvelle RéponseNouvelle RéponseDécouvrirDécouvrirVoir l'historiqueVoir l'historique

Entités

Voir toutes les entités
Présumé : Un système d'IA développé et mis en œuvre par Google et Gemini, a endommagé General public , General public of Australia , Google Gemini users , Victims of deepfake terrorism content , Victims of deepfake child abuse et Victims of online radicalization.
Système d'IA présumé impliqué: Gemini

Statistiques d'incidents

ID
963
Nombre de rapports
1
Date de l'incident
2025-03-05
Editeurs

Rapports d'incidents

Chronologie du rapport

+1
Google signale au régulateur australien l'ampleur des plaintes concernant les contenus terroristes deepfakes de l'IA
Google signale au régulateur australien l'ampleur des plaintes concernant les contenus terroristes deepfakes de l'IA

Google signale au régulateur australien l'ampleur des plaintes concernant les contenus terroristes deepfakes de l'IA

reuters.com

Google signale au régulateur australien l'ampleur des plaintes concernant les contenus terroristes deepfakes de l'IA
reuters.com · 2025
Traduit par IA

SYDNEY, 6 mars (Reuters) - Google a informé les autorités australiennes qu'il avait reçu plus de 250 plaintes dans le monde en près d'un an, selon lesquelles son logiciel d'intelligence artificielle avait été utilisé pour créer du contenu t…

Variantes

Une "Variante" est un incident qui partage les mêmes facteurs de causalité, produit des dommages similaires et implique les mêmes systèmes intelligents qu'un incident d'IA connu. Plutôt que d'indexer les variantes comme des incidents entièrement distincts, nous listons les variations d'incidents sous le premier incident similaire soumis à la base de données. Contrairement aux autres types de soumission à la base de données des incidents, les variantes ne sont pas tenues d'avoir des rapports en preuve externes à la base de données des incidents. En savoir plus sur le document de recherche.

Incidents similaires

Par similarité textuelle

Did our AI mess up? Flag the unrelated incidents

Australian Automated Debt Assessment System Issued False Notices to Thousands

Centrelink's debt recovery system lacks transparency and treated some customers unfairly, ombudsman finds

Jul 2015 · 39 rapports
Defamation via AutoComplete

Algorithmic Defamation: The Case of the Shameless Autocomplete

Apr 2011 · 28 rapports
Australian Retailers Reportedly Captured Face Prints of Their Customers without Consent

Facial recognition technology: Major retailers secretly creating “face prints” of their customers, says Choice

May 2022 · 2 rapports
Incident précédentProchain incident

Incidents similaires

Par similarité textuelle

Did our AI mess up? Flag the unrelated incidents

Australian Automated Debt Assessment System Issued False Notices to Thousands

Centrelink's debt recovery system lacks transparency and treated some customers unfairly, ombudsman finds

Jul 2015 · 39 rapports
Defamation via AutoComplete

Algorithmic Defamation: The Case of the Shameless Autocomplete

Apr 2011 · 28 rapports
Australian Retailers Reportedly Captured Face Prints of Their Customers without Consent

Facial recognition technology: Major retailers secretly creating “face prints” of their customers, says Choice

May 2022 · 2 rapports

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2023 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 5fc5e5b