Société, Syndicalisme
IA au travail : des droits à défendre dès maintenant
9 avril 2026
L’intelligence artificielle (IA) s’impose désormais dans nos milieux de travail. Pendant que le droit du travail peine à suivre, une chose est claire : si rien n’est fait, ce sont les travailleuses et les travailleurs qui en paieront le prix. C’est le constat lucide posé par des expertes lors du Forum national sur l’IA de la CSQ, qui a eu lieu en mars dernier.
Par Félix Cauchy-Charest, conseiller CSQ
Imaginez un gestionnaire invisible, qui ne dort jamais et ne prend aucune pause. Il scrute vos moindres faits et gestes, analyse vos actions et évalue vos décisions en continu. Un arbitre a déjà utilisé cette image pour décrire la surveillance électronique en milieu de travail. Aujourd’hui, ce « gestionnaire » peut aussi trier votre curriculum vitæ (CV) avant même la première rencontre avec une direction des ressources humaines, évaluer votre conduite toutes les deux minutes ou encore recommander votre congédiement sur la base d’algorithmes opaques, que personne dans l’entreprise ne comprend vraiment.
C’est dans ce contexte que Dalia Gesualdi-Fecteau, professeure titulaire à l’École de relations industrielles de l’Université de Montréal et directrice du Centre de recherche interuniversitaire sur la mondialisation et le travail (CRIMT), et Geneviève Richard, avocate et docteure en droit associée au même centre, ont pris la parole lors du forum. Leur message est sans équivoque : le cadre normatif existe, mais il est fragmenté, souvent méconnu… et insuffisant.
Charte ou pas, l’IA discrimine
Pour illustrer l’ampleur du phénomène, Dalia Gesualdi-Fecteau pose d’abord le décor avec une anecdote qui en dit long : dans le cours qu’elle donne en droit du travail, sur 80 étudiantes et étudiants, huit sur dix ont dit avoir déjà interagi avec un système d’IA dans le cadre d’un processus d’embauche. Certains d’entre eux ont même affirmé n’avoir jamais interagi avec un être humain, du tri de leur CV jusqu’à l’entrevue menée par un robot conversationnel. Ce n’est pas de la science-fiction, c’est le monde du travail d’aujourd’hui.
Le problème? Un système d’IA entraîné sur un profil précis tend à reproduire et à amplifier les biais existants. Il écarte plus facilement les personnes qui ne correspondent pas au modèle : femmes, personnes diplômées à l’étranger, membres de minorités. « L’IA peut être un allié ou un ennemi de l’accès à l’égalité », tranche la chercheuse. Mais pour savoir dans quel camp l’IA se range, il faut pouvoir regarder dans la boîte noire, ce que très peu d’employeurs font ou savent faire.
La Loi 25 sur la protection des données et renseignements personnels a introduit une protection méconnue : lorsqu’un processus de recrutement est entièrement automatisé, l’employeur doit en informer la candidate ou le candidat, qui peut ensuite demander d’interagir avec un être humain. « La norme existe, dit Dalia Gesualdi-Fecteau. L’enjeu, c’est sa connaissance et sa mise en œuvre. » Dans les faits, il est difficile de savoir si l’IA est utilisée dans un processus d’embauche sans faire de démarche auprès de la Commission d’accès à l’information, ce qui est loin d’être un réflexe pour celles et ceux qui n’ont pas obtenu l’emploi.
La surveillance sur stéroïdes
Après l’embauche, la logique algorithmique ne disparaît pas, elle peut même s’intensifier. Geneviève Richard décrit un véritable arsenal auquel les employeurs ont accès : surveillance constante, gestion automatisée des horaires et des tâches, ajustement en temps réel des quotas, etc. Pourtant, entrer au travail ne signifie pas renoncer à sa vie privée. En principe, la jurisprudence s’applique : pas de surveillance en continu, des motifs raisonnables obligatoires et un principe de proportionnalité.
Le problème, c’est que « l’IA va au-delà de ce qui était possible avec les technologies précédentes », indique Geneviève Richard. Les changements vont plus vite que la capacité d’adaptation du système juridique. Elle cite notamment le cas d’une entreprise de transport ayant installé un système d’IA dans ses véhicules. Les enregistrements déclenchés par des comportements non sécuritaires ont été jugés acceptables. En ce qui concerne la fonction permettant à l’employeur de regarder en direct dans la cabine du chauffeur, même pendant ses pauses, l’arbitre a tranché : cela va à l’encontre de la Charte des droits et libertés de la personne. Compensation accordée à l’employé : 100 $. « Ce n’est pas beaucoup, c’est une demi-épicerie », affirme Geneviève Richard avec un brin d’humour. Mais la décision fait jurisprudence.
Autre enjeu majeur, la gestion algorithmique du travail, qui intensifie les cadences : quotas fixés par des machines, objectifs ajustés automatiquement, tâches dictées en continu. « Si on te dit quoi faire à chacun de tes mouvements, je ne suis pas sûre que la motivation soit au rendez-vous », laisse tomber l’avocate.
Des leviers à saisir
Malgré ce portrait préoccupant, des pistes d’action existent. Dalia Gesualdi-Fecteau rappelle que la Loi modernisant le régime de santé et de sécurité du travail (LMRSST) oblige désormais les employeurs à identifier et à prévenir les risques psychosociaux, avec la participation des travailleuses et travailleurs. Une porte d’entrée concrète pour aborder les effets de l’IA.
Plus largement, les deux spécialistes invitent à cesser d’attendre qu’une grande loi-cadre sur l’IA règle tout. « On a déjà un environnement normatif complexe, rappelle Dalia Gesualdi-Fecteau. Avant d’empiler une autre loi, allons voir ce qu’on peut faire avec celles qu’on a déjà. »
La convention collective demeure un outil de premier plan. On peut y inclure des avis obligatoires avant les changements technologiques, un droit de consultation, un encadrement des données collectées, etc. Cependant, pour faire valoir ces droits, encore faut-il comprendre les outils en jeu. « En plus de vos compétences en droit du travail, prévient-elle, cette compétence technique va devenir fondamentale. »
Le signal de départ est déjà donné. La course a commencé et il est encore temps de s’y engager.