Description: Le nouveau générateur d'images d'OpenAI, 4o, aurait été utilisé pour produire des documents frauduleux réalistes, notamment de faux reçus de restaurant, des ordonnances de substances réglementées et potentiellement d'autres documents d'identité ou financiers. Les utilisateurs ont démontré comment le modèle pouvait contourner les restrictions de sécurité pour être utilisé à des fins de fraude aux dépenses, de falsification médicale et d'autres formes de falsification de documents.
Entités
Voir toutes les entitésAlleged: OpenAI developed an AI system deployed by scammers et Fraudsters, which harmed Expense management platforms , healthcare providers , Pharmacists , Regulatory agencies , Law enforcement , Employers et General public.
Systèmes d'IA présumés impliqués: OpenAI 4o image generator , Document verification systems , Expense reporting systems et Prescription validation systems
Statistiques d'incidents
ID
1018
Nombre de rapports
1
Date de l'incident
2025-03-31
Editeurs
Rapports d'incidents
Chronologie du rapport

Le dernier modèle 4o de génération d'images d'OpenAI est étonnamment performant pour générer du texte à l'intérieur des images, une prouesse qui s'était avérée particulièrement difficile pour ses nombreux prédécesseurs.
Cela en fait un outi…
Variantes
Une "Variante" est un incident qui partage les mêmes facteurs de causalité, produit des dommages similaires et implique les mêmes systèmes intelligents qu'un incident d'IA connu. Plutôt que d'indexer les variantes comme des incidents entièrement distincts, nous listons les variations d'incidents sous le premier incident similaire soumis à la base de données. Contrairement aux autres types de soumission à la base de données des incidents, les variantes ne sont pas tenues d'avoir des rapports en preuve externes à la base de données des incidents. En savoir plus sur le document de recherche.
Incidents similaires
Did our AI mess up? Flag the unrelated incidents
Incidents similaires
Did our AI mess up? Flag the unrelated incidents