Modèle d'auditÉvaluation de l'impact sur les droits fondamentaux pour les SIA à haut risque
IA
Ce questionnaire permet d'évaluer les impacts potentiels d’un système d’IA à haut risque sur les droits fondamentaux, comme défini dans l'AI Act. Les questions sont regroupées par thématiques, et chaque réponse est associée à un score (de 1 à 5). Selon les réponses, des tâches peuvent être suggérées pour atténuer les risques identifiés.
Les scores attribués permettent d'évaluer l'impact global du système d'IA sur les droits fondamentaux. Un score élevé dans une section particulière indique un risque important pour les droits fondamentaux.
- Protection des données : Score élevé dans Section 1.
- Équité et non-discrimination : Score élevé dans Section 2.
- Transparence : Score élevé dans Section 3.
- Sécurité : Score élevé dans Section 4.
- Liberté et autonomie : Score élevé dans Section 5.
Chaque section avec un score élevé (≥ 4) indique un domaine où des actions correctives doivent être prises pour minimiser les risques sur les droits fondamentaux.
1. Protection des données personnelles et vie privée
1.1. Le système traite-t-il des données personnelles sensibles (santé, biométrie, origine ethnique, etc.) ?
1.2. Les utilisateurs ont-ils la possibilité de donner un consentement explicite pour le traitement de leurs données personnelles ?
2. Discrimination et équité
2.1. Le système peut-il entraîner des décisions discriminatoires basées sur le genre, l’origine ethnique, ou d’autres critères protégés ?
2.2. Des mécanismes sont-ils en place pour corriger les décisions ou prédictions du système en cas de discrimination constatée ?
3. Transparence et explicabilité
3.1. Le système d’IA permet-il aux utilisateurs d'obtenir des explications sur la manière dont les décisions sont prises ?
3.2. Les utilisateurs sont-ils informés qu'ils interagissent avec un système d'IA et non avec un être humain ?
4. Sécurité et sûreté des utilisateurs
4.1. Le système peut-il entraîner des dommages physiques ou psychologiques aux utilisateurs ?
4.2. Le système a-t-il été testé pour garantir qu’il ne présente pas de risques pour la sécurité physique des utilisateurs ?
5. Liberté et autonomie des utilisateurs
5.1. Le système limite-t-il de manière disproportionnée l’autonomie des utilisateurs dans la prise de décisions ?
5.2. Les utilisateurs peuvent-ils facilement désactiver ou éviter les systèmes d’IA s'ils ne souhaitent pas y recourir ?
Créé le:03/01/2025
Mis à jour le :03/01/2025
Licence : © Creative commons :
Attribution / Pas d'utilisation commerciale
CC-BY-NC

Attribution / Pas d'utilisation commerciale
CC-BY-NC


Auteur :
Nombre d'utilisations :3