Aperçu du livrable

Voici ce que vous recevez pour 49 € TTC

Un rapport PDF professionnel, directement exploitable par votre DPO ou votre équipe juridique. Voici un aperçu basé sur un audit réel (données anonymisées).

Lancer le diagnostic gratuit

Sans inscription · Résultat immédiat

EUconform

Rapport de conformité EU AI Act — Règlement (UE) 2024/1689

1Synthèse de l'audit

Système audité

RecrutAssist — Présélection automatique de candidatures

Secteur

Cabinet de recrutement

Classification

Risque élevé (Annexe III §4a)

Échéance réglementaire

2 août 2026

RecrutAssist est un système d'IA à haut risquecar il sert à trier et classer automatiquement des candidatures dans le domaine de l'emploi. Les règles principales pour les systèmes à haut risque s'appliqueront à partir du 2 août 2026, mais certaines obligations déjà en vigueur doivent être respectées dès maintenant, notamment l'interdiction des pratiques prohibées et la formation des équipes à l'IA.

En cas de non-conformité, l'entreprise s'expose à des sanctions pouvant aller jusqu'à 15 000 000 € ou 3 % du chiffre d'affaires mondial. Les priorités sont : finaliser la documentation technique, renforcer la supervision humaine réelle sur les décisions de présélection, et préparer les contrôles de biais, de traçabilité et de gestion des incidents avant l'échéance du 2 août 2026.

2Classification

Risque élevé (Annexe III)

Ce système est classé à haut risque parce qu'il intervient dans le recrutement, donc dans l'accès à l'emploi. Il analyse des CV, attribue un score et classe les candidats, ce qui peut avoir un effet direct sur leurs chances d'être retenus. La dérogation prévue pour certains systèmes autonomes ne s'applique pas ici, car le système réalise du profilage au sens du RGPD. Il ne s'agit pas d'un usage interdit, mais d'un usage fortement encadré.

Arbre de décision

1Étape 1\u00a0: Vérification Art. 5 (pratiques interdites) → Aucune pratique interdite déclarée dans le questionnaire
2Étape 2\u00a0: Vérification Annexe III (haut risque) → Oui, car il est utilisé pour la présélection en emploi / RH
3Étape 3\u00a0: Vérification Art. 50 (transparence) → Les obligations de transparence interne et d’information des personnes restent à vérifier selon le mode d’usage
4Étape 4\u00a0: Résultat : Système classé RISQUE ÉLEVÉ — obligations Art. 9 à 15 applicables

3Tableau des obligations

Art. 5Conforme

Pratiques interdites

Vous ne devez pas utiliser l’IA pour des usages interdits comme la manipulation, l’exploitation de vulnérabilités ou la reconnaissance d’émotions au travail.

Aucune action requise, mais conserver une preuve écrite que le système ne fait pas de reconnaissance d’émotions, de manipulation ou de notation sociale.

2 août 2026Haute
Art. 4Partiel

Culture IA des équipes

Les personnes qui utilisent ou supervisent l’IA doivent comprendre ses limites, ses risques et ses bons usages.

Former le gérant, les recruteurs et le prestataire sur le fonctionnement du score, les biais possibles et les cas où une revue humaine est obligatoire.

30 juin 2026Haute
Art. 9Partiel

Gestion des risques

Vous devez repérer les risques du système, les réduire, puis vérifier régulièrement que les mesures fonctionnent.

Créer un registre des risques couvrant les biais, les erreurs de classement, les discriminations indirectes et les dérives d’usage, puis le mettre à jour après chaque changement important.

31 juillet 2026Haute
Art. 10Partiel

Qualité des données

Les données utilisées pour entraîner et tester l’IA doivent être pertinentes, représentatives, propres et contrôlées pour limiter les biais.

Documenter l’origine des 50 000 CV, vérifier l’anonymisation réelle, tracer les critères de sélection des données et compléter les tests de biais par secteur, genre, âge et niveau d’expérience.

31 juillet 2026Haute
Art. 11Partiel

Documentation technique

Vous devez garder un dossier technique expliquant comment le système fonctionne, a été testé et est surveillé.

Compléter le dossier technique avec l’architecture, les données, les tests, les limites connues, la supervision humaine et la procédure de correction des incidents.

31 juillet 2026Haute
Art. 12Non conforme

Journalisation

Le système doit conserver des traces suffisantes pour comprendre ce qu’il a fait et enquêter en cas de problème.

Activer et vérifier les journaux de décision, de score, de version du modèle et d’intervention humaine, puis définir qui les consulte et pendant combien de temps.

31 juillet 2026Haute
Art. 13Partiel

Information des utilisateurs

Les personnes qui utilisent le système doivent recevoir des informations claires sur ses capacités, ses limites et son usage prévu.

Préparer une notice simple pour les recruteurs internes ou clients expliquant ce que le score fait, ce qu’il ne fait pas, et quand il faut reprendre la main.

31 juillet 2026Moyenne
Art. 14Conforme

Supervision humaine

Une personne doit pouvoir surveiller le système, comprendre ses résultats et arrêter ou corriger ses décisions si nécessaire.

Aucune action requise, mais formaliser par écrit qui valide les rejets ou classements sensibles et dans quels cas le score ne peut pas être suivi automatiquement.

31 juillet 2026Haute
Art. 15Partiel

Exactitude, robustesse et cybersécurité

L’IA doit être suffisamment fiable, résistante aux erreurs et protégée contre les attaques ou les manipulations.

Faire un test de robustesse sur des CV incomplets ou atypiques, vérifier les seuils d’erreur, et documenter les mesures de sécurité appliquées au modèle et aux données.

31 juillet 2026Haute

4Plan d'action

1

Compléter la documentation technique du système

Responsable : Le gérant avec le prestataire technique·Échéance : Avant le 31 juillet 2026HauteModérée

Utiliser le fichier documentation-technique-annexe-iv.docx comme base. Renseigner l’architecture, les données d’entraînement, les tests réalisés, les limites connues, les mesures de supervision humaine et les procédures de correction. Faire valider le document par la personne qui exploite réellement le système.

2

Mettre en place une vraie supervision humaine sur les décisions sensibles

Responsable : Le responsable recrutement·Échéance : Avant le 31 juillet 2026HauteSimple

Définir les cas où le score IA ne peut pas être appliqué automatiquement, par exemple pour les profils atypiques ou les candidatures proches du seuil. Prévoir une validation humaine avant tout rejet définitif et conserver la trace de cette validation.

Contenu réservé au rapport complet

Les actions 3 à 7, les recommandations techniques et les templates DOCX sont inclus dans le rapport.

Obtenez votre propre rapport personnalisé

49 € TTC— paiement unique, pas d'abonnement.
Moins d'1h de consultant, livré en quelques minutes.

Lancer le diagnostic gratuit

5Checklist de conformité

Inclus dans le rapport

6Documents joints

Inclus dans le rapport

7Références juridiques

Inclus dans le rapport

8Avertissement

Inclus dans le rapport

Obtenez votre propre rapport

Votre outil RH, CRM ou chatbot utilise de l'IA ? Vérifiez votre conformité en 10 minutes — et recevez un rapport comme celui-ci, personnalisé pour votre système.

9 pages PDF3 templates DOCXRéférences juridiques
Lancer le diagnostic gratuit

Sans inscription · Résultat immédiat · 49 € = moins d'une heure de consultant