Javascript is required
logo-dastralogo-dastra

Modèle d'auditÉvaluation de l'impact sur les droits fondamentaux pour les SIA à haut risque

IA
Ce questionnaire permet d'évaluer les impacts potentiels d’un système d’IA à haut risque sur les droits fondamentaux, comme défini dans l'AI Act. Les questions sont regroupées par thématiques, et chaque réponse est associée à un score (de 1 à 5). Selon les réponses, des tâches peuvent être suggérées pour atténuer les risques identifiés. Les scores attribués permettent d'évaluer l'impact global du système d'IA sur les droits fondamentaux. Un score élevé dans une section particulière indique un risque important pour les droits fondamentaux. - Protection des données : Score élevé dans Section 1. - Équité et non-discrimination : Score élevé dans Section 2. - Transparence : Score élevé dans Section 3. - Sécurité : Score élevé dans Section 4. - Liberté et autonomie : Score élevé dans Section 5. Chaque section avec un score élevé (≥ 4) indique un domaine où des actions correctives doivent être prises pour minimiser les risques sur les droits fondamentaux.

1. Protection des données personnelles et vie privée

1.1. Le système traite-t-il des données personnelles sensibles (santé, biométrie, origine ethnique, etc.) ?
1.2. Les utilisateurs ont-ils la possibilité de donner un consentement explicite pour le traitement de leurs données personnelles ?

2. Discrimination et équité

2.1. Le système peut-il entraîner des décisions discriminatoires basées sur le genre, l’origine ethnique, ou d’autres critères protégés ?
2.2. Des mécanismes sont-ils en place pour corriger les décisions ou prédictions du système en cas de discrimination constatée ?

3. Transparence et explicabilité

3.1. Le système d’IA permet-il aux utilisateurs d'obtenir des explications sur la manière dont les décisions sont prises ?
3.2. Les utilisateurs sont-ils informés qu'ils interagissent avec un système d'IA et non avec un être humain ?

4. Sécurité et sûreté des utilisateurs

4.1. Le système peut-il entraîner des dommages physiques ou psychologiques aux utilisateurs ?
4.2. Le système a-t-il été testé pour garantir qu’il ne présente pas de risques pour la sécurité physique des utilisateurs ?

5. Liberté et autonomie des utilisateurs

5.1. Le système limite-t-il de manière disproportionnée l’autonomie des utilisateurs dans la prise de décisions ?
5.2. Les utilisateurs peuvent-ils facilement désactiver ou éviter les systèmes d’IA s'ils ne souhaitent pas y recourir ?
Créé le:03/01/2025

Mis à jour le :03/01/2025

Licence : © Creative commons :
Attribution / Pas d'utilisation commerciale
CC-BY-NC AttributionPas d'utilisation commerciale

Auteur :
Paul-Emmanuel Bidault
Paul-Emmanuel Bidault

Nombre d'utilisations :3


Accédez à tous nos modèles d'audit

Essayez Dastra dès maintenant pour accéder à la totalité de nos modèles d'audit que vous pourrez adapter à votre organisation. C'est gratuit et sans engagement les 30 premiers jours (pas de carte bleue requise)

Utiliser ce modèle d'audit
Inscrivez-vous à notre newsletter

Nous vous enverrons quelques emails pour vous tenir informé de notre actualité et des nouveautés de notre solution

* Vous pourrez toujours vous désinscrire sur chaque newsletter.