IA recrutement et surveillance au travail : droits du salarié, CSE et recours en 2026

Parler à un avocat 06 89 11 34 45

L’IA dans le recrutement et la surveillance des salariés est devenue un sujet immédiat de droit du travail. En mai 2026, l’actualité européenne a encore changé le calendrier : la Commission européenne a annoncé le 7 mai 2026 un accord politique sur le Digital Omnibus on AI, prévoyant de reporter au 2 décembre 2027 l’application des règles “haut risque” pour les systèmes autonomes utilisés notamment dans l’emploi. Ce report ne signifie pas que les employeurs peuvent attendre. La CNIL a justement placé le recrutement parmi ses contrôles prioritaires 2026, avec une attention particulière aux décisions automatisées, à l’information des candidats et aux durées de conservation.

Concrètement, un salarié peut se demander si son employeur a le droit d’utiliser une IA pour analyser ses mails, classer ses performances, filtrer sa candidature, noter ses appels, surveiller son activité ou préparer une sanction. Un employeur peut, de son côté, vouloir intégrer un outil d’IA dans les ressources humaines sans créer un risque prud’homal, RGPD ou CSE.

La réponse n’est pas : l’IA est interdite. La vraie question est plus précise : à quoi sert l’outil, quelles données sont utilisées, qui contrôle la décision, le candidat ou le salarié a-t-il été informé, le CSE a-t-il été consulté, et peut-on démontrer que l’outil ne produit pas une décision opaque ou discriminatoire ?

IA au travail : ce qui change en 2026

L’AI Act, règlement européen sur l’intelligence artificielle, classe les systèmes d’IA selon leur niveau de risque. Avant l’accord politique du 7 mai 2026, le calendrier public de référence annonçait une pleine applicabilité au 2 août 2026 pour les systèmes d’IA à haut risque identifiés, notamment dans l’emploi. L’accord Digital Omnibus annoncé par la Commission européenne modifie cette trajectoire : les règles concernant les systèmes autonomes utilisés dans des domaines à haut risque, dont l’emploi, doivent désormais s’appliquer à partir du 2 décembre 2027, sous réserve de la finalisation formelle du texte.

Cette actualité ne neutralise pas les règles déjà applicables. Le RGPD, le Code du travail, l’obligation d’information des candidats, la consultation du CSE et l’interdiction des discriminations continuent de s’appliquer. Pour les entreprises, cela impose déjà une logique de conformité documentée : finalité claire, données limitées, transparence, traçabilité, contrôle humain, sécurité, conservation maîtrisée et capacité à expliquer la décision.

Un outil d’IA qui aide à corriger des fautes dans un document interne ne crée pas le même risque qu’un outil qui classe les salariés selon leur productivité, repère les “profils à risque”, filtre les CV ou recommande une sanction disciplinaire. Le risque juridique naît lorsque l’IA influence réellement une décision qui affecte la carrière, la rémunération, la réputation ou la rupture du contrat de travail.

Pourquoi le recrutement est sous surveillance en 2026

La CNIL a annoncé le 3 avril 2026 que le recrutement faisait partie de ses thématiques prioritaires de contrôle. Elle vise notamment les systèmes de prise de décision automatisée, l’information des candidats et les durées de conservation. Le signal est important : un outil d’IA RH n’est pas seulement un achat logiciel, c’est un traitement de données personnelles qui peut affecter l’accès à l’emploi.

Le site Service-Public rappelle également que les méthodes et techniques d’aide au recrutement doivent être portées à la connaissance du candidat et du CSE lorsqu’il existe dans l’entreprise. Cette règle est particulièrement utile lorsque l’employeur utilise un score candidat, un tri automatique de CV, un chatbot de présélection ou une analyse vidéo d’entretien.

Pour un candidat, la question pratique devient : ai-je été écarté par une personne, par un outil, ou par une combinaison des deux ? Pour l’employeur, la question devient : puis-je prouver que l’outil était pertinent, non discriminatoire, expliqué, contrôlé et utilisé par un humain disposant d’une vraie marge d’appréciation ?

L’employeur peut-il surveiller un salarié avec une IA ?

Un employeur peut contrôler l’activité professionnelle d’un salarié, mais ce contrôle doit rester justifié, proportionné et transparent. L’arrivée de l’IA ne supprime pas ces règles. Elle les rend plus sensibles, car les outils peuvent agréger de nombreuses données : temps de connexion, mails, tickets, appels, localisation, messagerie, tâches réalisées, navigation, badgeage ou production.

Le principe utile est simple : un salarié ne doit pas être placé sous surveillance permanente ni évalué par un système opaque dont il ignore l’existence. Si l’employeur déploie un outil qui analyse automatiquement l’activité, il doit pouvoir expliquer la finalité du dispositif, les données collectées, la durée de conservation, les personnes qui y ont accès, et le rôle exact de l’humain dans la décision.

Une sanction disciplinaire fondée sur un outil non déclaré, disproportionné ou insuffisamment expliqué peut être contestée. Le salarié pourra demander les éléments ayant servi à la décision, vérifier si les données sont exactes, contester la loyauté de la preuve et soutenir que la décision repose sur un traitement automatisé ou biaisé.

IA recrutement : CV filtré, score candidat, entretien analysé

Le recrutement est l’un des usages les plus exposés. Beaucoup d’outils promettent de trier les CV, calculer un score de compatibilité, analyser des vidéos d’entretien, comparer les mots-clés d’un profil ou recommander les candidats à recevoir. Ces outils peuvent être utiles, mais ils peuvent aussi reproduire des biais liés à l’âge, au sexe, au parcours, à l’origine supposée, au handicap, à la langue, à la maternité, à l’activité syndicale ou à la situation familiale.

Le candidat doit pouvoir comprendre les critères essentiels utilisés lorsqu’un traitement de données personnelles intervient dans le recrutement. L’employeur doit éviter les critères sans lien direct avec l’emploi proposé. Il doit aussi conserver une intervention humaine réelle : l’IA ne doit pas devenir une machine à écarter automatiquement des candidats sans contrôle, sans explication et sans possibilité de vérification.

Si un candidat soupçonne un rejet automatisé discriminatoire, il doit conserver l’offre, les échanges, les réponses reçues, les captures de l’interface de candidature, les informations fournies sur l’outil utilisé et tout élément laissant penser qu’un critère illicite a influencé la décision. Il peut aussi demander les informations utiles sur le traitement de ses données personnelles et sur l’intervention d’un système automatisé.

IA, CSE et consultation : quand l’employeur doit informer les représentants du personnel

Dans les entreprises dotées d’un CSE, un outil d’IA RH peut modifier les conditions de travail, les méthodes d’évaluation, l’organisation, le contrôle de l’activité ou la gestion du personnel. Dans ce cas, l’employeur ne devrait pas traiter le projet comme un simple achat logiciel.

Le CSE doit être informé et consulté lorsqu’un dispositif affecte l’organisation, la gestion ou la marche générale de l’entreprise, notamment lorsqu’il introduit une technologie nouvelle ayant des conséquences sur l’emploi, la qualification, la rémunération, la formation ou les conditions de travail. Un outil de scoring RH, de planification automatisée, de contrôle des temps ou d’analyse de performance peut donc justifier une information-consultation.

La difficulté fréquente tient au caractère progressif du déploiement. L’entreprise teste d’abord l’outil sur un service, puis l’étend aux managers, puis l’intègre aux entretiens annuels. Juridiquement, le risque apparaît dès que le dispositif produit un effet concret sur les salariés. Le bon réflexe est de documenter le projet avant le déploiement : finalité, données, fournisseur, logique générale de l’outil, rôle des managers, mesures anti-biais, durée de conservation, information des salariés et modalités de contestation.

Peut-on licencier un salarié sur la base d’une IA ?

Un licenciement ne peut pas reposer sur une boîte noire. L’employeur doit être capable d’énoncer des faits précis, objectifs et matériellement vérifiables. Si l’IA sert seulement d’aide à l’analyse, l’employeur doit encore démontrer les faits reprochés par des éléments loyaux et compréhensibles. Si l’IA produit le motif réel de la rupture, le risque devient majeur.

Le salarié licencié doit demander la lettre de licenciement, les éléments de preuve invoqués, les données utilisées, les règles internes sur l’outil, les informations données aux salariés, la consultation du CSE lorsqu’elle était nécessaire et les traces de validation humaine. Il faut distinguer trois situations :

  • l’IA a seulement aidé à organiser des données déjà vérifiées par un manager ;
  • l’IA a orienté la décision sans que le salarié comprenne les critères ;
  • l’IA a déclenché ou recommandé la sanction de manière déterminante.

La troisième situation est la plus contestable. Elle peut nourrir plusieurs arguments : absence de cause réelle et sérieuse, preuve déloyale, contrôle disproportionné, défaut d’information, discrimination indirecte, atteinte à la vie privée ou décision fondée sur des données inexactes.

Caméra, ordinateur, badgeuse : quand la surveillance devient abusive

Les requêtes Google montrent que les salariés cherchent aussi “surveillance salarié”, “caméra sur lieu de travail” ou “employeur surveille ordinateur”. Ces questions ne disparaissent pas parce que l’outil est présenté comme une IA. Une caméra augmentée, un logiciel de productivité, une badgeuse enrichie ou un outil qui analyse les temps de connexion restent soumis aux mêmes exigences : information préalable, finalité déterminée, proportionnalité et absence de surveillance permanente.

L’employeur peut contrôler l’activité professionnelle, mais il ne peut pas transformer chaque geste en indicateur disciplinaire sans justification. Il doit aussi éviter le détournement de finalité. Des données collectées pour la sécurité des locaux ne devraient pas devenir, sans information claire et base juridique adaptée, un outil de sanction sur le rythme de travail. De même, un logiciel installé pour organiser les tâches ne doit pas être utilisé discrètement pour noter les salariés ou préparer des licenciements.

Dans un litige, le salarié doit donc identifier l’outil exact : caméra, logiciel métier, messagerie, CRM, badgeuse, GPS, outil de scoring, module IA d’un ATS ou tableau de bord managérial. Plus l’outil est discret, continu et intrusif, plus la discussion portera sur la loyauté de la preuve, la proportionnalité et l’information préalable.

Quels recours pour le salarié en cas d’IA opaque ou abusive ?

Le premier recours est probatoire. Avant d’agir, il faut récupérer les traces. Le salarié peut demander à l’employeur les données personnelles utilisées dans le cadre de son dossier professionnel, les éléments d’évaluation, les logs utiles, les critères d’appréciation communiqués aux managers et les informations générales sur le traitement.

Le deuxième recours est collectif. Si l’outil concerne plusieurs salariés, le CSE peut demander des explications, une consultation, une expertise dans certains cas, ou l’inscription du sujet à l’ordre du jour. Cette voie est utile lorsque le dispositif touche les cadences, les objectifs, les plannings, la surveillance ou les entretiens d’évaluation.

Le troisième recours est prud’homal. Le salarié peut contester une sanction, une mise à l’écart, une mutation, une évaluation dégradée, une rupture de période d’essai abusive ou un licenciement lorsque la décision paraît liée à un traitement automatisé opaque ou à un outil de surveillance disproportionné. Dans un dossier contentieux, l’objectif n’est pas seulement de dénoncer “l’IA”. Il faut montrer en quoi l’outil a affecté la décision et pourquoi son usage était irrégulier ou injuste.

Quelles preuves préparer avant de contester ?

Un dossier solide doit éviter les généralités. Il faut réunir des pièces précises :

  • les mails annonçant l’outil d’IA ou la nouvelle solution RH ;
  • les notes internes, chartes informatiques, politiques IA ou politiques de surveillance ;
  • les captures d’écran de l’outil ou des scores affichés ;
  • les comptes rendus d’entretien d’évaluation ;
  • les objectifs modifiés après déploiement de l’outil ;
  • les comparaisons avant/après sur la charge de travail ou les plannings ;
  • les messages de managers évoquant un score, un classement ou une recommandation automatique ;
  • la lettre de sanction ou de licenciement ;
  • les procès-verbaux ou informations transmises au CSE ;
  • les demandes d’accès aux données personnelles et les réponses de l’employeur.

Le point central est le lien entre l’outil et la décision contestée. Un outil d’IA présent dans l’entreprise ne suffit pas. Il faut établir qu’il a influencé l’évaluation, la sélection, la sanction ou la rupture.

Paris et Île-de-France : pourquoi agir vite

À Paris et en Île-de-France, beaucoup d’entreprises déploient déjà des outils d’IA dans les fonctions support, les centres d’appel, les plateformes, les cabinets de conseil, les start-up, les services RH et les métiers commerciaux. Les litiges peuvent donc mêler droit du travail, RGPD, preuve numérique, consultation du CSE et discrimination.

En pratique, il faut agir avant que les preuves ne disparaissent : export des données, captures d’écran datées, conservation des mails, demande écrite à l’employeur, et analyse de la procédure disciplinaire ou de licenciement. Lorsque le contrat est déjà rompu, le délai prud’homal dépend de la nature de la demande ; il ne faut donc pas attendre la fin d’un échange informel avec les RH pour sécuriser les pièces.

Que doit faire l’employeur pour réduire le risque ?

L’employeur qui utilise une IA au travail doit raisonner comme s’il devait expliquer son dispositif devant un juge. Il doit pouvoir répondre à quatre questions : pourquoi cet outil est-il nécessaire, quelles données traite-t-il, qui contrôle le résultat, et comment le salarié peut-il contester une erreur ?

Avant le déploiement, il est prudent de cartographier les usages IA, séparer les outils sans impact RH des outils sensibles, informer les salariés, consulter le CSE si nécessaire, prévoir une validation humaine, tester les biais, limiter les données collectées et former les managers. Un manager qui se contente de suivre un score automatique sans vérification crée un risque contentieux.

Pour les usages RH sensibles, l’entreprise doit aussi vérifier les clauses du fournisseur : localisation des données, conservation, accès, logs, paramétrage, explicabilité, sécurité et possibilité d’audit. L’outil ne doit pas devenir une preuve impossible à discuter.

Checklist rapide avant d’utiliser une IA RH

Avant de déployer un outil d’IA dans le recrutement ou la gestion des salariés, l’employeur devrait vérifier au minimum :

  • la finalité exacte de l’outil : aide, tri, score, surveillance, recommandation ou décision ;
  • les données utilisées : CV, historique RH, mails, appels, badgeage, objectifs, données sensibles ou données externes ;
  • l’information donnée aux candidats et aux salariés ;
  • la consultation du CSE lorsque l’outil modifie les méthodes de recrutement, d’évaluation, de contrôle ou les conditions de travail ;
  • l’existence d’une intervention humaine réelle et documentée ;
  • la possibilité de contester une erreur ou un biais ;
  • les durées de conservation des données et des logs ;
  • le contrat avec le fournisseur : hébergement, sous-traitance, sécurité, audit, réversibilité ;
  • les risques de discrimination indirecte ;
  • la cohérence avec la charte informatique, le règlement intérieur et les politiques internes.

Cette checklist est volontairement concrète. Dans un contentieux, le problème ne vient pas seulement de l’outil. Il vient souvent de l’absence de trace : personne ne sait expliquer pourquoi l’IA a été choisie, quelles données elle a utilisées, quel manager a validé la recommandation, ni comment un candidat ou un salarié pouvait contester le résultat.

L’angle pratique à retenir

En 2026, la question “IA au travail” se pose moins en termes de technologie qu’en termes de pouvoir de décision. Plus l’outil influence une décision individuelle, plus l’employeur doit être transparent, documenté et capable d’assurer un contrôle humain réel.

Pour un salarié, le bon réflexe est de ne pas contester l’IA de façon abstraite. Il faut cibler la décision : refus d’embauche, notation, mise à l’écart, sanction, changement d’horaires, surcharge de travail ou licenciement. Puis il faut demander les données, les critères, les informations données au CSE et les preuves concrètes.

Pour une entreprise, le bon réflexe est inverse : ne pas attendre le contentieux. Un outil d’IA RH doit être audité avant son usage opérationnel. La conformité doit être prouvable, pas seulement déclarée.

Sources utiles

Besoin d’un avis rapide sur votre dossier.

Vous pensez qu’une décision de recrutement, d’évaluation, de sanction ou de licenciement a été influencée par une IA ou par un outil de surveillance opaque. Le cabinet peut analyser les preuves, la procédure, les données utilisées et les recours envisageables.

Consultation téléphonique en 48 heures avec un avocat du cabinet. Appelez le 06 89 11 34 45 ou utilisez la page contact du cabinet.

À Paris et en Île-de-France, l’analyse doit aussi intégrer le conseil de prud’hommes compétent, le CSE, la conservation des preuves numériques et les délais pour agir.

📄 Circulaire officielle

Nos données proviennent de la Cour de cassation (Judilibre), du Conseil d'État, de la DILA, de la Cour de justice de l'Union européenne ainsi que de la Cour européenne des droits de l'Homme.

Recherche dans la base juridique

Trouvez une décision, une chambre, un thème

Plus de 100 000 décisions commentées par notre intelligence artificielle, indexées en temps réel.

    Recherche propulsée par Meilisearch sur kohenavocats.com et kohenavocats.fr.
    Analyse stratégique offerte

    Envoyez vos pièces. Recevez une stratégie.

    Transmettez-nous les pièces de votre dossier. Maître Hassan KOHEN vous répond personnellement sous 24 heures avec une première analyse stratégique de votre situation.

    • Première analyse offerte et sans engagement
    • Réponse personnelle de l'avocat sous 24 heures
    • 100 % confidentiel, secret professionnel garanti
    • Jusqu'à 1 Go de pièces, dossiers et sous-dossiers acceptés

    Cliquez ou glissez vos fichiers ici
    Tous formats acceptes (PDF, Word, images, etc.)

    Envoi en cours...

    Vos donnees sont utilisees uniquement pour traiter votre demande. Politique de confidentialite.

    Discover more from Maître Hassan Kohen, avocat en droit pénal à Paris

    Subscribe now to keep reading and get access to the full archive.

    Continue reading