Voici ce que vous recevez pour 49 € TTC
Un rapport PDF professionnel, directement exploitable par votre DPO ou votre équipe juridique. Voici un aperçu basé sur un audit réel (données anonymisées).
Sans inscription · Résultat immédiat
EUconform
Rapport de conformité EU AI Act — Règlement (UE) 2024/1689
1Synthèse de l'audit
Système audité
RecrutAssist — Présélection automatique de candidatures
Secteur
Cabinet de recrutement
Classification
Risque élevé (Annexe III §4a)
Échéance réglementaire
2 août 2026
RecrutAssist est un système d'IA à haut risquecar il sert à trier et classer automatiquement des candidatures dans le domaine de l'emploi. Les règles principales pour les systèmes à haut risque s'appliqueront à partir du 2 août 2026, mais certaines obligations déjà en vigueur doivent être respectées dès maintenant, notamment l'interdiction des pratiques prohibées et la formation des équipes à l'IA.
En cas de non-conformité, l'entreprise s'expose à des sanctions pouvant aller jusqu'à 15 000 000 € ou 3 % du chiffre d'affaires mondial. Les priorités sont : finaliser la documentation technique, renforcer la supervision humaine réelle sur les décisions de présélection, et préparer les contrôles de biais, de traçabilité et de gestion des incidents avant l'échéance du 2 août 2026.
2Classification
Ce système est classé à haut risque parce qu'il intervient dans le recrutement, donc dans l'accès à l'emploi. Il analyse des CV, attribue un score et classe les candidats, ce qui peut avoir un effet direct sur leurs chances d'être retenus. La dérogation prévue pour certains systèmes autonomes ne s'applique pas ici, car le système réalise du profilage au sens du RGPD. Il ne s'agit pas d'un usage interdit, mais d'un usage fortement encadré.
Arbre de décision
3Tableau des obligations
| Article | Obligation | Statut | Action requise | Échéance | Priorité |
|---|---|---|---|---|---|
| Art. 5 | Pratiques interdites Vous ne devez pas utiliser l’IA pour des usages interdits comme la manipulation, l’exploitation de vulnérabilités ou la reconnaissance d’émotions au travail. | Conforme | Aucune action requise, mais conserver une preuve écrite que le système ne fait pas de reconnaissance d’émotions, de manipulation ou de notation sociale. | 2 août 2026 | Haute |
| Art. 4 | Culture IA des équipes Les personnes qui utilisent ou supervisent l’IA doivent comprendre ses limites, ses risques et ses bons usages. | Partiel | Former le gérant, les recruteurs et le prestataire sur le fonctionnement du score, les biais possibles et les cas où une revue humaine est obligatoire. | 30 juin 2026 | Haute |
| Art. 9 | Gestion des risques Vous devez repérer les risques du système, les réduire, puis vérifier régulièrement que les mesures fonctionnent. | Partiel | Créer un registre des risques couvrant les biais, les erreurs de classement, les discriminations indirectes et les dérives d’usage, puis le mettre à jour après chaque changement important. | 31 juillet 2026 | Haute |
| Art. 10 | Qualité des données Les données utilisées pour entraîner et tester l’IA doivent être pertinentes, représentatives, propres et contrôlées pour limiter les biais. | Partiel | Documenter l’origine des 50 000 CV, vérifier l’anonymisation réelle, tracer les critères de sélection des données et compléter les tests de biais par secteur, genre, âge et niveau d’expérience. | 31 juillet 2026 | Haute |
| Art. 11 | Documentation technique Vous devez garder un dossier technique expliquant comment le système fonctionne, a été testé et est surveillé. | Partiel | Compléter le dossier technique avec l’architecture, les données, les tests, les limites connues, la supervision humaine et la procédure de correction des incidents. | 31 juillet 2026 | Haute |
| Art. 12 | Journalisation Le système doit conserver des traces suffisantes pour comprendre ce qu’il a fait et enquêter en cas de problème. | Non conforme | Activer et vérifier les journaux de décision, de score, de version du modèle et d’intervention humaine, puis définir qui les consulte et pendant combien de temps. | 31 juillet 2026 | Haute |
| Art. 13 | Information des utilisateurs Les personnes qui utilisent le système doivent recevoir des informations claires sur ses capacités, ses limites et son usage prévu. | Partiel | Préparer une notice simple pour les recruteurs internes ou clients expliquant ce que le score fait, ce qu’il ne fait pas, et quand il faut reprendre la main. | 31 juillet 2026 | Moyenne |
| Art. 14 | Supervision humaine Une personne doit pouvoir surveiller le système, comprendre ses résultats et arrêter ou corriger ses décisions si nécessaire. | Conforme | Aucune action requise, mais formaliser par écrit qui valide les rejets ou classements sensibles et dans quels cas le score ne peut pas être suivi automatiquement. | 31 juillet 2026 | Haute |
| Art. 15 | Exactitude, robustesse et cybersécurité L’IA doit être suffisamment fiable, résistante aux erreurs et protégée contre les attaques ou les manipulations. | Partiel | Faire un test de robustesse sur des CV incomplets ou atypiques, vérifier les seuils d’erreur, et documenter les mesures de sécurité appliquées au modèle et aux données. | 31 juillet 2026 | Haute |
Pratiques interdites
Vous ne devez pas utiliser l’IA pour des usages interdits comme la manipulation, l’exploitation de vulnérabilités ou la reconnaissance d’émotions au travail.
Aucune action requise, mais conserver une preuve écrite que le système ne fait pas de reconnaissance d’émotions, de manipulation ou de notation sociale.
Culture IA des équipes
Les personnes qui utilisent ou supervisent l’IA doivent comprendre ses limites, ses risques et ses bons usages.
Former le gérant, les recruteurs et le prestataire sur le fonctionnement du score, les biais possibles et les cas où une revue humaine est obligatoire.
Gestion des risques
Vous devez repérer les risques du système, les réduire, puis vérifier régulièrement que les mesures fonctionnent.
Créer un registre des risques couvrant les biais, les erreurs de classement, les discriminations indirectes et les dérives d’usage, puis le mettre à jour après chaque changement important.
Qualité des données
Les données utilisées pour entraîner et tester l’IA doivent être pertinentes, représentatives, propres et contrôlées pour limiter les biais.
Documenter l’origine des 50 000 CV, vérifier l’anonymisation réelle, tracer les critères de sélection des données et compléter les tests de biais par secteur, genre, âge et niveau d’expérience.
Documentation technique
Vous devez garder un dossier technique expliquant comment le système fonctionne, a été testé et est surveillé.
Compléter le dossier technique avec l’architecture, les données, les tests, les limites connues, la supervision humaine et la procédure de correction des incidents.
Journalisation
Le système doit conserver des traces suffisantes pour comprendre ce qu’il a fait et enquêter en cas de problème.
Activer et vérifier les journaux de décision, de score, de version du modèle et d’intervention humaine, puis définir qui les consulte et pendant combien de temps.
Information des utilisateurs
Les personnes qui utilisent le système doivent recevoir des informations claires sur ses capacités, ses limites et son usage prévu.
Préparer une notice simple pour les recruteurs internes ou clients expliquant ce que le score fait, ce qu’il ne fait pas, et quand il faut reprendre la main.
Supervision humaine
Une personne doit pouvoir surveiller le système, comprendre ses résultats et arrêter ou corriger ses décisions si nécessaire.
Aucune action requise, mais formaliser par écrit qui valide les rejets ou classements sensibles et dans quels cas le score ne peut pas être suivi automatiquement.
Exactitude, robustesse et cybersécurité
L’IA doit être suffisamment fiable, résistante aux erreurs et protégée contre les attaques ou les manipulations.
Faire un test de robustesse sur des CV incomplets ou atypiques, vérifier les seuils d’erreur, et documenter les mesures de sécurité appliquées au modèle et aux données.
4Plan d'action
Compléter la documentation technique du système
Utiliser le fichier documentation-technique-annexe-iv.docx comme base. Renseigner l’architecture, les données d’entraînement, les tests réalisés, les limites connues, les mesures de supervision humaine et les procédures de correction. Faire valider le document par la personne qui exploite réellement le système.
Mettre en place une vraie supervision humaine sur les décisions sensibles
Définir les cas où le score IA ne peut pas être appliqué automatiquement, par exemple pour les profils atypiques ou les candidatures proches du seuil. Prévoir une validation humaine avant tout rejet définitif et conserver la trace de cette validation.
Contenu réservé au rapport complet
Les actions 3 à 7, les recommandations techniques et les templates DOCX sont inclus dans le rapport.
Obtenez votre propre rapport personnalisé
49 € TTC— paiement unique, pas d'abonnement.
Moins d'1h de consultant, livré en quelques minutes.
5Checklist de conformité
6Documents joints
7Références juridiques
8Avertissement
Obtenez votre propre rapport
Votre outil RH, CRM ou chatbot utilise de l'IA ? Vérifiez votre conformité en 10 minutes — et recevez un rapport comme celui-ci, personnalisé pour votre système.
Sans inscription · Résultat immédiat · 49 € = moins d'une heure de consultant