L’intelligence artificielle (IA) modifie radicalement le paysage du travail : automatisation, prise de décision par algorithme, robotisation des activités ou encore embauche prédictive. Cette avancée technologique, accélérée par la pandémie, suscite de nombreuses questions relatives à l’évolution du droit du travail. Face à un cadre juridique en cours d’élaboration, les entreprises sont confrontées à des enjeux liés à la sécurité juridique, l’émergence de nouveaux droits fondamentaux et la responsabilité algorithmique.
Un bouleversement technologique aux effets multiples sur les relations de travail
L’intelligence artificielle n’est plus simplement une question d’avenir : elle est déjà en vigueur dans de nombreux domaines, allant du transport à la finance, sans oublier la santé, l’industrie ou encore les services. Elle a de nombreuses conséquences sur la structuration du travail. Certaines applications de l’IA prennent le relais sur des tâches réalisées par l’homme (diagnostic, rédaction, aide en comptabilité), tandis que d’autres améliorent l’efficacité interne de la société (planification, logistique, gestion des ressources humaines).
Cependant, ces transformations entraînent des dangers considérables pour les employés : perte d’emplois, surveillance renforcée, décisions automatisées sans intervention humaine. Selon le rapport de France Stratégie publié en 2022, près de 15 % des postes en France pourraient être considérablement modifiés, voire substitués, par des technologies d’IA avant 2035. Historiquement fondé sur une relation humaine et contractuelle, le droit du travail peine à intégrer ces nouvelles dynamiques créées par les algorithmes et les données.
Une adaptation nécessaire du cadre juridique : entre lacunes et initiatives
Devant cette progression, le droit du travail en France commence à se transformer, cependant les réformes demeurent dispersées. Selon l’article L1222-4 du Code du travail, révisé en 2019, il est obligatoire d’informer le salarié de tout traitement automatisé de ses données personnelles dans un but de surveillance. Toutefois, cet article ne s’adresse pas spécifiquement à l’IA décisionnelle ou générative. Cependant, les instruments fondés sur l’apprentissage automatique ou les modèles linguistiques de grande envergure (tels que ChatGPT) ne sont pas impartiaux : ils entraînent des conséquences juridiques tangibles, en particulier pour ce qui est de l’embauche, du licenciement ou de l’évaluation.
Le projet de loi européen sur l’intelligence artificielle (AI Act), dont l’adoption finale est prévue pour 2025, envisage une régulation rigoureuse des systèmes dits à « haut risque », y compris les outils de gestion des ressources humaines basés sur l’IA. Par exemple, ce texte proscrit les systèmes d’évaluation automatisée basés sur des critères discriminatoires ou opaques. Il requiert également que les sociétés réalisent une étude d’impact algorithmique (similaire au DPIA du RGPD) avant toute application.
Dès 2022, le Conseil d’État en France a plaidé pour une refonte du Code du travail afin d’incorporer l’idée de décision algorithmique dans les relations contractuelles, s’appuyant sur l’article 22 du RGPD comme modèle. Actuellement, ces principes s’apparentent plutôt à de la soft law ou des chartes internes qu’à des textes ayant force obligatoire.
Nouveaux devoirs pour l’employeur : transparence et éthique algorithmique
Désormais, les entreprises sont tenues d’adopter de nouvelles responsabilités lorsqu’elles exploitent l’intelligence artificielle pour la gestion des ressources humaines. Il est primordial d’assurer une transparence totale : les employés doivent être notifiés quand leurs informations sont sujettes à un traitement algorithmique, et lorsque des décisions les impliquant reposent sur un instrument d’IA. C’est une obligation découlant directement du RGPD (articles 13 et 22), qui acquiert néanmoins une nouvelle portée avec l’émergence des IA autonomes.
Par la suite, le principe de loyauté exige que l’utilisation de l’IA soit conforme au droit à l’égalité et à l’absence de discrimination. Il a été prouvé que certains algorithmes de recrutement amplifient ou répètent des préjugés de sexe, de race ou sociaux. La Cour européenne commence à se prononcer sur la responsabilité de l’employeur en cas d’usage de dispositifs défectueux, même lorsqu’ils sont fournis par un fournisseur externe.
Pour finir, la problématique de la « responsabilité algorithmique » demeure sans réponse. Qui porte la responsabilité si un employé est licencié à cause d’une évaluation incorrecte faite par l’IA ? La société ? Qui a conçu l’algorithme ? La question joue un rôle crucial dans l’application du devoir de vigilance stipulé par la loi n° 2017-399 concernant le devoir de vigilance des sociétés mères, qui pourrait englober les pratiques numériques internes.
Une nécessaire garantie des droits fondamentaux des salariés à l’ère numérique
La progression de l’IA ne doit pas se réaliser au détriment des droits fondamentaux des employés. Selon l’article L1121-1 du Code du travail, « personne ne peut imposer des restrictions aux droits et libertés individuelles et collectives qui ne seraient pas justifiées par la nature de la tâche à accomplir ». Ceci est entièrement applicable aux systèmes d’algorithmes de contrôle, aux outils de suivi de performance ou aux logiciels prédictifs.
Il faut garantir le respect de la vie privée, l’absence de discrimination, la liberté d’expression et le droit à une explication en cas de décision prise automatiquement. Certaines personnes plaident pour l’établissement d’un « droit à l’humain », c’est-à-dire la possibilité pour chaque travailleur d’exiger qu’une décision le touchant soit prise ou révisée par un individu. Cette affirmation, influencée par le droit numérique, s’aligne sur les suggestions du Défenseur des droits qui plaide également pour l’établissement d’un droit à la transparence algorithmique dans le milieu professionnel.
Enfin, les délégués du personnel ont un rôle à assurer. Avant l’implémentation de tout système automatisé de gestion des données des employés, il est obligatoire de consulter les Comités Sociaux et Économiques (CSE). Il est donc crucial d’avoir un dialogue social pour réguler les pratiques, assurer les libertés et prévenir les litiges.
L’intelligence artificielle s’affirme comme un participant à part entière dans le monde professionnel, révolutionnant les pratiques de recrutement, d’évaluation, de production et de gestion. Même si le droit du travail français repose toujours sur un modèle humain et hiérarchique, il commence à s’adapter à ces changements en se basant sur les principes européens, les obligations du RGPD et les standards futurs de la loi sur l’IA.
Pour les sociétés, cela signifie réévaluer leur gouvernance numérique et adopter une approche proactive en matière de conformité. La réforme du droit du travail en réponse à l’IA ne se résume pas à l’intégration de nouvelles clauses : elle nécessite une reconfiguration des rapports de force, une surveillance ininterrompue des distorsions algorithmiques et une assurance tangible des droits essentiels.
L’enjeu est colossal : concevoir un droit du travail qui puisse intégrer la complexité technologique, sans compromettre les principes sociaux qui le soutiennent.
