Politique de Taxonomie RAIC AIID
Politique de Taxonomie RAIC AIID
Date : 30 mai 2025
Les principes suivants guident les décisions d’inclusion de nouvelles taxonomies dans la Base de Données des Incidents liés à l’IA (AIID). Ces critères garantissent que tout système de classification intégré améliore notre capacité à catégoriser, analyser et comprendre avec précision les incidents liés à l’intelligence artificielle, tout en préservant l’intégrité, l’objectivité et l’utilité de l’AIID. Chaque taxonomie proposée sera évaluée selon l’ensemble de ces principes, avec une attention particulière portée à la manière dont elle soutient notre mission de promotion de la sécurité de l’IA à travers une documentation et une analyse complètes des incidents. Les taxonomies qui répondent à ces critères renforceront la valeur de la base de données en tant que ressource pour les chercheurs, les praticiens et les décideurs qui cherchent à comprendre et à atténuer les risques liés à l’IA.
Si vous avez des questions concernant ces principes ou si vous souhaitez savoir comment participer aux processus décisionnels de l’AIID en raison de votre engagement continu dans la classification des données d’incidents, veuillez nous contacter à l’adresse suivante : info@incidentdatabase.ai
Principes
1. Pertinence et alignement avec le champ d’application
- La taxonomie doit traiter directement des défaillances, dangers ou incidents liés aux systèmes d’IA/ML répertoriés dans l’AIID.
- Les catégories doivent correspondre de manière significative aux incidents ou dangers déjà présents dans l’AIID.
- La taxonomie ne doit pas être une duplication substantielle de taxonomies existantes.
- Elle doit soutenir l’analyse des incidents ou risques liés à l’IA.
2. Rigueur scientifique et crédibilité
- Les individus ou organisations chargés de la classification doivent posséder une expertise reconnue en sécurité, éthique, fiabilité, incidents ou risques liés à l’IA.
- La taxonomie doit être fondée sur des recherches ou une solide expérience industrielle.
- La validation académique ou la relecture par des pairs est fortement recommandée.
- Une documentation décrivant la méthodologie utilisée pour élaborer et définir les catégories doit être fournie.
3. Applicabilité pratique
- Les catégories doivent être suffisamment précises pour être clairement appliquées aux données de l’AIID.
- Les définitions doivent être assez claires pour permettre de résoudre d’éventuels litiges de classification.
- Il est fortement recommandé de fournir une documentation avec des directives ou des exemples de catégorisation appropriée.
- Le nombre de catégories doit être raisonnable (ni trop détaillé au point de devenir ingérable, ni trop limité pour être utile).
4. Neutralité et objectivité
- Éviter les taxonomies biaisées politiquement ou idéologiquement.
- Les catégories doivent décrire objectivement les incidents sans attribuer de blâme aux parties impliquées.
- Doit être neutre vis-à-vis des fournisseurs (ne pas promouvoir de solutions ou plateformes spécifiques).
5. Maintenance, mises à jour et évolutivité
- Il est préférable que les organisations sources assurent une maintenance continue (par exemple, clarification en cas d’ambiguïtés).
- Il est préférable qu’elles poursuivent l’application de la taxonomie à de nouveaux incidents.
- Il est préférable que la taxonomie ait déjà été utilisée dans des cas pertinents.
6. Compatibilité juridique et de licence
- La taxonomie doit pouvoir être intégrée sous la licence Creative Commons de l’AIID.
- Aucune revendication de propriété intellectuelle ne doit entrer en conflit avec cela.
7. Normes d’interopérabilité
- Un format lisible par machine doit être disponible (JSON, XML, RDF, etc.).
- Doit respecter les standards de métadonnées établis, le cas échéant.
- Des identifiants uniques pour chaque catégorie doivent être utilisés pour éviter toute confusion.
- Idéalement, elle doit être compatible avec d’autres taxonomies majeures d’incidents liés à l’IA.