Intelligence artificielle au travail : que faire si l’IA vous surveille, vous note ou menace votre emploi ?

Parler à un avocat 06 89 11 34 45

L’actualité du 12 mai 2026 a remis le sujet au centre du débat public : auditionné à l’Assemblée nationale, le dirigeant de Mistral AI a reconnu que l’intelligence artificielle pouvait transformer l’emploi et certains métiers. Dans le même temps, plusieurs annonces de suppressions de postes dans la tech, justifiées par des réorganisations autour de l’IA, alimentent une inquiétude très concrète : un salarié peut-il être noté, surveillé, écarté, sanctionné ou licencié à cause d’un algorithme ?

La demande Google confirme que le sujet monte. Le Keyword Planner remonte notamment « intelligence artificielle travail » à 260 recherches mensuelles en France, avec un CPC haut de 1,53 euro, et « ia au travail » à 90 recherches mensuelles, avec un CPC haut de 3,82 euros. Les volumes restent plus faibles que les grands sujets de rupture du contrat, mais l’intention est déjà qualifiée : le lecteur ne cherche pas une définition abstraite de l’IA. Il cherche à savoir si l’employeur peut utiliser un outil opaque pour contrôler son travail, noter ses performances, trier les salariés ou préparer une rupture.

L’angle est donc pratique. Si votre employeur utilise une IA dans l’organisation du travail, vous devez identifier trois choses : ce que l’outil fait réellement, quelles données il exploite, et si une décision humaine a encore été prise. Pour replacer ce sujet dans une stratégie sociale plus large, vous pouvez consulter notre page dédiée aux avocats en droit du travail à Paris.

Ce que l’employeur peut faire avec une IA

L’employeur peut utiliser des outils numériques pour organiser l’activité. Il peut automatiser des tâches, faciliter la planification, analyser des flux, préparer des synthèses, assister les équipes RH, comparer des données de production ou aider un manager à suivre des objectifs. Le droit du travail n’interdit pas l’IA par principe.

Mais l’outil ne devient pas libre parce qu’il est nouveau. Dès qu’il touche à une personne identifiée, à son activité, à ses performances, à sa santé, à ses horaires, à ses communications ou à son avenir professionnel, plusieurs règles s’appliquent.

La première est la transparence. L’article L. 1222-4 du Code du travail prévoit qu’aucune information concernant personnellement un salarié ne peut être collectée par un dispositif qui n’a pas été porté préalablement à sa connaissance. Si une IA analyse vos connexions, vos tickets, vos courriels professionnels, votre productivité, vos appels, vos déplacements ou vos interactions clients, l’employeur doit pouvoir expliquer le dispositif.

La deuxième est la proportionnalité. Un outil de contrôle ne doit pas porter aux libertés du salarié une atteinte qui dépasse le but poursuivi. Une IA utilisée pour détecter une fraude ponctuelle n’a pas la même portée qu’un suivi permanent de tous les gestes, messages, temps morts ou micro-comportements.

La troisième est le contrôle humain. Un algorithme peut aider. Il ne doit pas devenir le décideur réel lorsque la décision affecte le salarié de manière importante.

Les situations qui doivent alerter

Plusieurs indices doivent conduire à réagir rapidement.

Le premier est l’apparition d’une notation nouvelle. Vous recevez soudain un score de performance, un classement, une note de « fiabilité », un indicateur de « risque », une alerte comportementale ou un tableau de bord dont les critères ne sont pas expliqués.

Le deuxième est le changement de management. Votre supérieur vous oppose des données dont vous ne connaissez pas l’origine : baisse de productivité calculée automatiquement, taux de réponse, temps de connexion, vitesse de traitement, comportement client, tonalité de messages, absence de « collaboration » ou suspicion de mauvaise utilisation d’un outil.

Le troisième est la préparation d’une sanction. Une convocation à entretien préalable mentionne des éléments techniques : logs, historiques, scoring, logiciel de contrôle, analyse automatisée, détection d’anomalies ou rapport généré par un outil RH.

Le quatrième est le risque de licenciement économique ou de réorganisation. L’entreprise annonce que l’IA remplace certaines tâches, modifie les postes ou rend un service redondant. Dans ce cas, le débat n’est pas seulement technologique. Il porte sur la réalité du motif économique, l’adaptation des salariés, la formation, le reclassement et, dans les entreprises concernées, la consultation du CSE.

L’IA ne peut pas décider seule de votre licenciement

Un licenciement reste une décision de l’employeur. Il doit être justifié par des faits, une procédure et un motif. Un outil automatisé ne peut pas remplacer cette analyse.

En pratique, le danger vient rarement d’une phrase écrite noir sur blanc : « l’IA vous licencie ». Il vient d’un processus plus discret. L’algorithme classe les salariés. Le manager reprend le score. Le dossier disciplinaire est construit avec les données. La lettre de licenciement transforme ensuite ces éléments en griefs.

Le salarié doit alors poser les bonnes questions.

Quel outil a été utilisé ? Depuis quand ? Avec quelles données ? Quelle information a été donnée aux salariés ? Le CSE a-t-il été informé ou consulté lorsque l’entreprise y était tenue ? Le manager a-t-il exercé une appréciation réelle ou a-t-il seulement validé le résultat de l’outil ? Les critères étaient-ils objectifs, loyaux, pertinents et vérifiables ?

Si l’employeur ne peut pas répondre, la contestation devient sérieuse. Le litige ne porte pas seulement sur l’IA. Il porte sur la loyauté de la preuve, la transparence du dispositif, la proportionnalité du contrôle et la cause réelle et sérieuse du licenciement.

CSE, nouvelles technologies et contrôle de l’activité

Dans les entreprises d’au moins 50 salariés, le CSE est informé et consulté sur les questions intéressant l’organisation, la gestion et la marche générale de l’entreprise, notamment l’introduction de nouvelles technologies ou un aménagement important modifiant les conditions de travail. L’article L. 2312-8 du Code du travail vise expressément ce type de sujet.

L’article L. 2312-38 prévoit également l’information et la consultation du CSE sur les moyens ou techniques permettant un contrôle de l’activité des salariés.

Cela vise directement certains usages de l’IA : logiciel de scoring RH, analyse automatisée des performances, outil de surveillance des appels, contrôle des temps de connexion, suivi algorithmique des livraisons, planification automatique des horaires, outil de tri de candidatures internes, ou dispositif d’aide à la décision disciplinaire.

La Cour de cassation a rendu le 18 mars 2026 un arrêt utile sur le déploiement d’outils informatiques dans un contexte de réorganisation et de plan de sauvegarde de l’emploi. L’arrêt rappelle l’importance de la consultation et de l’expertise du CSE lorsque les outils informatiques participent à la réorganisation et ont des effets sur les conditions de santé, de sécurité et de travail.

Pour un salarié isolé, cette question peut sembler lointaine. Elle est pourtant utile. Si le dispositif d’IA qui a servi à le contrôler n’a jamais été présenté au CSE alors qu’il aurait dû l’être, cela peut fragiliser la sanction, la preuve ou le licenciement.

Les preuves à demander et à conserver

Le premier réflexe consiste à ne pas rester dans le flou. Il faut demander des explications écrites.

Le salarié peut demander :

  • le nom de l’outil utilisé ;
  • sa finalité exacte ;
  • les catégories de données traitées ;
  • les critères utilisés pour produire un score, une alerte ou une recommandation ;
  • la période analysée ;
  • les personnes ayant accès aux résultats ;
  • la durée de conservation des données ;
  • l’existence d’une information préalable des salariés ;
  • l’existence d’une consultation du CSE lorsque l’entreprise en dispose ;
  • la part exacte de décision humaine dans la mesure prise.

Il faut aussi conserver les pièces internes : captures d’écran de tableaux de bord, messages RH, notes de service, procédures d’utilisation de l’IA, charte informatique, règlement intérieur, convocation à entretien préalable, compte rendu d’entretien, lettre de sanction, lettre de licenciement, bulletins de paie si une prime variable est affectée, et tout document montrant que le score a eu une conséquence concrète.

Pour exercer vos droits sur vos données personnelles, la CNIL rappelle que le salarié peut demander l’accès aux données que l’employeur détient sur lui, notamment dans son dossier professionnel. Cette demande doit être formulée de manière précise : il ne s’agit pas seulement de demander « toutes les données », mais les données ayant servi à l’évaluation, au scoring, à la sanction ou à la décision contestée.

Que faire si une sanction est déjà engagée ?

Si vous recevez une convocation à entretien préalable, le temps devient court. Il faut préparer une réponse structurée.

Avant l’entretien, demandez les éléments précis reprochés. Si l’employeur mentionne un outil, demandez son nom, sa finalité et les données analysées. Si la convocation reste vague, préparez une chronologie et une liste de questions.

Pendant l’entretien, ne reconnaissez pas un score que vous ne comprenez pas. Demandez comment il a été calculé. Demandez qui l’a vérifié. Demandez si le CSE a été informé. Demandez si les salariés ont été prévenus. Demandez quelle règle interne autorise ce contrôle.

Après l’entretien, écrivez. Un courriel sobre suffit souvent : vous contestez les éléments issus de l’outil, vous demandez la communication des données vous concernant, vous rappelez l’absence d’information ou l’absence d’explication, et vous demandez qu’aucune sanction ne soit prise sur une base que vous ne pouvez pas vérifier.

Cette trace écrite peut devenir décisive devant le conseil de prud’hommes. Elle montre que vous n’avez pas découvert le sujet après coup. Vous avez contesté la méthode dès que vous avez compris qu’un outil automatisé pesait sur votre dossier.

Licenciement économique et IA : l’employeur doit démontrer plus qu’une tendance

Les annonces médiatiques sur l’IA donnent parfois l’impression qu’un employeur pourrait supprimer des postes en se contentant d’expliquer que la technologie rend le travail plus rapide. Ce n’est pas suffisant.

Un licenciement économique doit répondre aux conditions du Code du travail. L’employeur doit établir le motif, respecter la procédure, rechercher les possibilités de reclassement et, selon la taille de l’entreprise et le nombre de ruptures, consulter les représentants du personnel.

L’IA peut être un élément d’une réorganisation. Elle ne dispense pas l’employeur de démontrer la réalité des difficultés économiques, de la mutation technologique, de la réorganisation nécessaire à la sauvegarde de la compétitivité ou de la cessation d’activité, selon le motif invoqué.

Le salarié doit donc regarder les faits. Son poste disparaît-il réellement ? Ses tâches sont-elles redistribuées ? Des recrutements ont-ils lieu sur des fonctions proches ? Une formation à l’outil a-t-elle été proposée ? Un reclassement compatible existe-t-il ? L’IA sert-elle de justification générale, ou existe-t-il un dossier économique précis ?

Paris et Île-de-France : préparer un dossier prud’homal exploitable

À Paris et en Île-de-France, les dossiers liés à l’IA concernent déjà des secteurs très variés : start-up, conseil, plateformes, relation client, informatique, marketing, commerce, transport, logistique, ressources humaines, audit et services externalisés.

La difficulté est souvent probatoire. Les outils changent vite, les noms commerciaux sont flous, les salariés n’ont pas toujours accès au paramétrage et les managers présentent les résultats comme de simples indicateurs.

Le bon réflexe est de constituer un dossier en 48 heures :

  • contrat de travail et avenants ;
  • charte informatique et politique IA éventuelle ;
  • captures d’écran de scores, alertes ou tableaux de bord ;
  • courriels RH ou managers mentionnant l’outil ;
  • preuve d’absence d’information préalable ;
  • questions posées au CSE ou aux représentants du personnel ;
  • demande d’accès aux données personnelles ;
  • convocation, sanction ou lettre de licenciement ;
  • chronologie courte des faits.

Pour les litiges devant le conseil de prud’hommes, notre page sur le contentieux prud’homal à Paris présente le cadre d’intervention du cabinet.

Les erreurs à éviter

La première erreur est de débattre uniquement de technologie. Le juge ne se prononce pas sur la qualité commerciale de l’IA. Il vérifie si la preuve est loyale, si le salarié a été informé, si le contrôle est proportionné, si le CSE devait être consulté, si la décision humaine existe réellement et si le licenciement repose sur des faits vérifiables.

La deuxième erreur est d’attendre la lettre de licenciement. Une fois la lettre envoyée, elle fixe les limites du litige. Il faut agir dès la convocation ou dès la première mention d’un outil opaque.

La troisième erreur est de demander trop largement. Une demande d’accès mal ciblée produit souvent une réponse générale. Il faut viser les données ayant servi à l’évaluation, au score, au classement, à la sanction ou à la décision de rupture.

La quatrième erreur est de négliger le CSE. Même si vous n’êtes pas élu, l’information-consultation du CSE peut révéler que l’outil n’a pas été présenté, que ses finalités ont changé ou que l’employeur ne maîtrise pas les conséquences sur les conditions de travail.

Ce que vous pouvez demander

Selon le dossier, plusieurs demandes peuvent être envisagées :

  • communication des données personnelles utilisées ;
  • explication sur la logique du traitement ;
  • retrait d’une sanction fondée sur un outil irrégulier ;
  • contestation d’un licenciement sans cause réelle et sérieuse ;
  • nullité si une atteinte à un droit fondamental ou une discrimination est caractérisée ;
  • dommages-intérêts pour atteinte à la vie privée ou traitement déloyal ;
  • rappel de prime si un score a réduit une rémunération variable ;
  • régularisation d’une évaluation professionnelle ;
  • alerte auprès du CSE, de l’inspection du travail ou de la CNIL selon la nature du manquement.

Tout dépend du rôle exact de l’IA dans la décision. Un outil simplement consulté n’a pas la même portée qu’un système qui classe, déclenche une alerte, propose une sanction ou remplace l’analyse humaine.

Sources et repères juridiques

Les repères à vérifier sont notamment l’article L. 1222-4 du Code du travail sur l’information préalable du salarié, l’article L. 2312-8 sur l’introduction de nouvelles technologies et les conditions de travail, l’article L. 2312-38 sur les moyens de contrôle de l’activité, le RGPD pour le droit d’accès et les décisions automatisées, ainsi que le règlement européen 2024/1689 sur l’intelligence artificielle.

La jurisprudence récente utile comprend notamment la décision de la Cour de cassation, chambre sociale, du 18 mars 2026, n° 23-22.270, publiée au Bulletin, sur les outils informatiques, la réorganisation et l’expertise du CSE, ainsi que la décision du 21 mai 2025, n° 22-19.925, sur l’utilisation de données personnelles issues d’un système de vidéoprotection dans un contentieux de licenciement.

Besoin d’un avis rapide sur votre dossier.

Consultation téléphonique en 48 heures avec un avocat du cabinet.

Analyse de l’outil utilisé, des données collectées, de la sanction ou du licenciement envisagé.

Appelez le cabinet au 06 89 11 34 45 ou utilisez le formulaire de contact.

Le cabinet intervient à Paris et en Île-de-France pour les litiges liés à l’IA au travail, à la surveillance des salariés, aux sanctions disciplinaires et aux licenciements.

📄 Circulaire officielle

Nos données proviennent de la Cour de cassation (Judilibre), du Conseil d'État, de la DILA, de la Cour de justice de l'Union européenne ainsi que de la Cour européenne des droits de l'Homme.

Recherche dans la base juridique

Trouvez une décision, une chambre, un thème

Plus de 100 000 décisions commentées par notre intelligence artificielle, indexées en temps réel.

    Recherche propulsée par Meilisearch sur kohenavocats.com et kohenavocats.fr.
    Analyse stratégique offerte

    Envoyez vos pièces. Recevez une stratégie.

    Transmettez-nous les pièces de votre dossier. Maître Hassan KOHEN vous répond personnellement sous 24 heures avec une première analyse stratégique de votre situation.

    • Première analyse offerte et sans engagement
    • Réponse personnelle de l'avocat sous 24 heures
    • 100 % confidentiel, secret professionnel garanti
    • Jusqu'à 1 Go de pièces, dossiers et sous-dossiers acceptés

    Cliquez ou glissez vos fichiers ici
    Tous formats acceptes (PDF, Word, images, etc.)

    Envoi en cours...

    Vos donnees sont utilisees uniquement pour traiter votre demande. Politique de confidentialite.

    En savoir plus sur Maître Hassan Kohen, avocat en droit pénal à Paris

    Abonnez-vous pour poursuivre la lecture et avoir accès à l’ensemble des archives.

    Poursuivre la lecture