IA et représentants du personnel : de l’obligation d’un déploiement concerté
Au-delà d’une nécessité, l’intelligence artificielle en entreprise devient chaque jour un peu plus une réalité. Son déploiement requiert la consultation des représentants du personnel. Trois ordonnances de référé[1] aux termes desquelles les juges ont suspendu le déploiement d’outils utilisant l’IA rappellent que l’introduction de l’IA ne doit se concevoir que dans un cadre concerté.
1 – La consultation du CSE : un préalable incontournable
Le Code du travail est explicite. L‘article L. 2312-8 impose la consultation du comité social et économique sur toute « introduction de nouvelles technologies tout aménagement important modifiant les conditions de santé et de sécurité ou les conditions de travail ». L’article L. 2312-38 prévoit, quant à lui, une information-consultation préalable sur les « traitements automatisés de gestion du personnel et sur toute modification de ceux-ci. » ainsi que sur les « moyens ou techniques permettant un contrôle de l’activité des salariés ». Ces textes, conçus bien avant l’essor de l’IA générative, trouvent aujourd’hui une résonance accrue.
Dans l’affaire MetLife, l’entreprise avait déployé plusieurs outils reposant sur des technologies d’IA générative et d’analyse automatisée, destinés à assister les salariés dans différentes tâches professionnelles (création de contenus, analyse de documents, détection d’anomalies). Alors même que la procédure de consultation du CSE était en cours, ces outils avaient été mis à disposition des salariés. L’argument selon lequel il ne s’agissait que d’une « phase pilote » n’a pas convaincu le juge : dès lors que les outils étaient accessibles aux salariés concernés et que des formations avaient été organisées, le tribunal a considéré que l’expérimentation avait cédé la place à une mise en œuvre effective. Dès lors, le trouble manifestement illicite était constitué, et la suspension du déploiement a été ordonnée sous astreinte.
Dans l’affaire France Télévisions, deux dispositifs étaient en cause : d’une part une plateforme interne permettant aux salariés d’accéder de manière sécurisée à des outils d’IA générative et de créer des assistants automatisant certaines tâches professionnelles, et d’autre part une nouvelle version d’un chatbot RH destiné à répondre aux questions des salariés. Le tribunal a considéré que la plateforme constituait l’introduction d’une nouvelle technologie nécessitant la consultation préalable du CSE. En revanche, la nouvelle version du chatbot n’a pas été qualifiée de technologie nouvelle : le juge y a vu une simple évolution technique d’un outil déjà existant.
L’ordonnance rendue dans l’affaire CS Group France affine encore davantage le raisonnement. Les outils concernés étaient des logiciels de gestion des compétences intégrant des fonctionnalités d’intelligence artificielle permettant notamment d’identifier les compétences des salariés, de générer des CV ou encore de proposer des profils pour certaines missions. L’argument tiré de la continuité technologique (selon lequel ces outils remplaçaient les précédents, qui utilisait déjà l’IA) n’a pas convaincu. Pour le tribunal, ce n’est pas la nature intrinsèque de la technologie qui importe, mais bien l’étendue de son déploiement et les nouveaux usages qui en résultent. L’extension du périmètre de déploiement à l’ensemble de l’entreprise, mais surtout l’utilisation de ces données dans les entretiens annuels, pour l’évaluation des collaborateurs et l’affectation à leurs missions, ont suffi à qualifier l’introduction d’une « nouvelle technologie » au sens du Code du travail. Là encore, la suspension a été prononcée, assortie d’astreintes.
L’introduction de l’intelligence artificielle ne relève pas uniquement de consultations ponctuelles. Elle peut également s’inscrire dans les consultations récurrentes du CSE, notamment celles relatives aux orientations stratégiques de l’entreprise, à la politique sociale et aux conditions de travail. L’IA est également appelée à occuper une place croissante dans le dialogue social, en particulier dans les négociations relatives à la gestion des emplois et des parcours professionnels (GEPP) ou à la qualité de vie et aux conditions de travail (QVCT).
2 – Le critère fonctionnel s’impose sur le critère technique
La qualification de « nouvelle technologie » se détermine désormais de manière fonctionnelle, plutôt que de manière purement technique. Un employeur ne peut donc se prévaloir du fait que l’IA était déjà présente dans l’environnement de travail, si de nouveaux usages de l’outil risques de modifier les conditions de travail des salariés.
Parmi les indices à surveiller :
- l’extension du périmètre d’utilisation à de nouveaux salariés ;
- le caractère obligatoire ou fortement incité de l’outil ;
- l’introduction de nouveaux usages à fort impact RH (entretiens annuels, évaluation des performances, détermination des affectations).
Cette approche fonctionnelle rappelle d’ailleurs celle retenue par le Règlement européen sur l’IA[2] qualifie les systèmes à haut risque en matière sociale : l’Annexe III du RIA classe expressément parmi les systèmes à haut risque ceux utilisés pour le recrutement, l’évaluation des performances, la promotion ou la résiliation de contrats de travail. Les logiciels de gestion des compétences qui alimentent les entretiens annuels et déterminent les affectations sur missions entrent, à l’évidence, dans cette catégorie. La convergence entre le droit du travail et la réglementation IA témoigne d’une préoccupation commune pour la protection des travailleurs (et, au-delà, des « valeurs sur lesquelles l’Union est fondée » pour reprendre les termes du RIA) face à l’automatisation des décisions qui les concernent.
3 – La surveillance des salariés à l’ère de l’IA : un terrain sensible
Outre la consultation du CSE, le déploiement d’outils d’IA en milieu professionnel soulève également des questions majeures de protection des données à caractère personnel. Les autorités de contrôle, au premier rang desquelles la CNIL, ont récemment été désignées (ou restent pressenties) pour contrôler la mise en œuvre du RIA, seules ou en conjonction avec d’autres autorités. Les principes fondateurs du RGPD[3] – une base légale valable, respects des principes de nécessité et de proportionnalité, analyse d’impact (DPIA) préalable… – trouveront donc leur place en plus de l’application du RIA.
Dans ces cas, les employeurs devront non solum identifier une base légale renforcée, sed etiam documenter, dans leur DPIA, pourquoi aucune alternative moins intrusive n’était envisageable.
4 – Ce que les entreprises doivent retenir
La première leçon de ces récentes décisions est très concentrée : les communications internes peuvent se retourner contre l’employeur. Dans l’affaire CS Group, le procès-verbal de réunion du CSEC a joué un rôle déterminant révélant le caractère non facultatif des outils. La maîtrise du discours managérial autour du déploiement des outils d’IA est, désormais, une question juridique à part entière.
Plus largement, ces décisions invitent à intégrer la consultation des représentants du personnel dans la gouvernance des projets d’IA dès leur conception, et non comme une formalité a posteriori. Le dialogue avec les représentants du personnel n’est pas un frein à l’innovation : c’est une condition de sa pérennité. Les entreprises qui anticipent cette contrainte – par exemple, en cartographiant les impacts RH de leurs outils, en documentant leurs choix technologiques et en engageant la procédure de consultation en amont – éviteront les suspensions judiciaires et les astreintes qui grèvent désormais les retardataires.
Le droit du travail, le RGPD et le RIA convergent ainsi pour former un cadre de conformité exigeant, dans lequel l’introduction de l’IA en entreprise repose sur trois principes essentiels : transparence, consultation et proportionnalité. Ce sont ces principes, in fine et principalement, de bon sens, que les juges n’hésitent plus à faire respecter par la voie de l’urgence.
[1] TJ Nanterre, ord. réf., 14 févr. 2025, RG n° 24/01457 (« MetLife ») et TJ Nanterre, ord. réf., 29 janv. 2026, RG n° 25/02856 (« CS France »), TJ Paris, ord. Ref ; 2 sept. 2025, RG 25/53278 (« France Télévisions »).
[2] Règlement 2024/1689 du 13 juin 2024 établissant des règles harmonisées concernant l’intelligence artificielle (« RIA »)
[3] Règlement 2016/679 du 27 avril 2016 relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel
Tribune co-écrite avec Claude-Étienne Armingaud
avocat spécialisé en protection des données (RGPD, EU Data Act) . Il conseille notamment des entreprises innovantes pour sécuriser et valoriser leurs actifs immatériels (données, propriété intellectuelle, savoir-faire), en s’appuyant sur une forte compréhension des technologies et des processus. Il accompagne aussi des organisations sur des projets complexes de traitement et de valorisation des données (IoT, fintech, blockchain, véhicules connectés, IA). Il est reconnu pour ses conseils pratiques, son approche internationale (droit français et common law américaine) et sa capacité à anticiper les évolutions du secteur. ce.armingaud@latournerie-wolfrom.com

