Incident 1201: Anthropic aurait identifié des abus d'IA dans des campagnes d'extorsion, des stratagèmes informatiques nord-coréens et des ventes de rançongiciels.
Description: En août 2025, Anthropic a publié un rapport de renseignement sur les menaces détaillant plusieurs cas d'utilisation abusive de ses modèles Claude. Parmi les abus documentés figuraient une campagne d'extorsion à grande échelle utilisant le code Claude contre au moins 17 organisations, des systèmes frauduleux de télétravail liés à des agents nord-coréens, ainsi que le développement et la vente de rançongiciels générés par l'IA. Anthropic a banni les comptes, mis en place de nouvelles mesures de protection et partagé des indicateurs avec les autorités.
Editor Notes: For the full Anthropic Threat Intelligence report, please refer to this URL: https://www-cdn.anthropic.com/b2a76c6f6992465c09a6f2fce282f6c0cea8c200.pdf. See also Incidents 1054 and 1116.
Outils
Nouveau rapportNouvelle RéponseDécouvrirVoir l'historique
Le Moniteur des incidents et risques liés à l'IA de l'OCDE (AIM) collecte et classe automatiquement les incidents et risques liés à l'IA en temps réel à partir de sources d'information réputées dans le monde entier.
Entités
Voir toutes les entitésAlleged: Anthropic developed an AI system deployed by Unknown cybercriminals , Ransomware-as-a-service actors et North Korean IT operatives, which harmed Religious institutions , Healthcare organizations , Government agencies , Fortune 500 technology companies , Emergency services et Consumers targeted by ransomware.
Systèmes d'IA présumés impliqués: LLM-enhanced ransomware toolkits et Claude
Statistiques d'incidents
ID
1201
Nombre de rapports
2
Date de l'incident
2025-08-27
Editeurs
Dummy Dummy
