Incident 1106: Les chatbots auraient renforcé les pensées délirantes chez plusieurs utilisateurs, entraînant des dommages dans le monde réel.
Description: Plusieurs rapports, publiés entre mars et juin 2025, décrivent des cas où des chatbots auraient renforcé des croyances délirantes, des théories du complot et des comportements dangereux. Un utilisateur, Eugene Torres, aurait suivi les conseils de ChatGPT d'abuser de la kétamine et de s'isoler. En avril, Alexander Taylor aurait été tué par la police après avoir demandé à ChatGPT de le reconnecter à une IA. Parmi les autres cas signalés, on compte l'arrestation d'un utilisateur pour violences conjugales liées à l'escalade de ses croyances mystiques, plusieurs internements psychiatriques involontaires et l'interdiction faite à certains utilisateurs de prendre leurs médicaments.
Outils
Nouveau rapportNouvelle RéponseDécouvrirVoir l'historique
Le Moniteur des incidents et risques liés à l'IA de l'OCDE (AIM) collecte et classe automatiquement les incidents et risques liés à l'IA en temps réel à partir de sources d'information réputées dans le monde entier.
Entités
Voir toutes les entitésPrésumé : Un système d'IA développé et mis en œuvre par OpenAI , Microsoft , Unnamed therapy chatbots , GPT-4o , GPT-4 , Copilot et ChatGPT, a endommagé Unnamed Copilot users , Unnamed ChatGPT users , OpenAI users , Eugene Torres , ChatGPT users , Andrew (surname withheld) , Allyson (surname withheld) et Alexander Taylor.
Statistiques d'incidents
ID
1106
Nombre de rapports
4
Date de l'incident
2025-06-13
Editeurs
Dummy Dummy
Rapports d'incidents
Chronologie du rapport
Loading...