DANS L’ENTREPRISE /
IA en entreprise: l’urgence de réguler
TEXTE Manon Van Thorre / PHOTO Shutterstock / 14 janvier 2026 / temps de lectures 6 minutes
Le 17 décembre dernier, les eurodéputés ont voté, à une très large majorité, un texte formulant une série de recommandations à la Commission européenne au sujet de la digitalisation, de l’intelligence artificielle (IA) et de la gestion algorithmique au travail (1). C’est maintenant à la Commission d’agir, car elle seule peut lancer une initiative législative en la matière.
À ce jour, il n’existe aucune législation (tant au niveau européen qu’au niveau belge) entourant l’utilisation des technologies d’IA sur le lieu de travail, et le besoin de régulation se fait de plus en plus pressant.
Pour donner un ordre d’idée, en 2025 en Belgique, plus d’une entreprise sur trois (34,5%) utilisait au moins une technologie d’intelligence artificielle. (2) Par ailleurs, l’impact sur les travailleurs promet d’être très important. On pense souvent en premier lieu à l’impact de l’IA sur le marché de l’emploi, aux risques de pertes d’emplois et aux opportunités de nouvelles créations d’emplois et, de manière générale, au bouleversement de la nature des tâches effectuées, dont certaines pourront être en tout ou en partie automatisées. Mais l’impact de l’IA se reflète déjà, et se reflètera aussi dans le quotidien des travailleurs.
Il faut distinguer ici le fait d’utiliser une ou plusieurs technologies d’IA dans le cadre de son travail (le plus souvent, via l’utilisation d’outils d’IA générative ou prédictive), et les technologies d’IA utilisées dans le cadre des ressources humaines (on parle alors de «gestion algorithmique»), c’est-à-dire quand une IA est impliquée pour le recrutement, met en place les horaires, détermine le temps de pause ou les objectifs à atteindre ou encore, est utilisée dans le cadre d’évaluations. Cette dernière comporte des risques plus importants pour les conditions de travail et le bien-être au travail en particulier. Les études suggèrent en effet une augmentation probable des risques, surtout des risques psychosociaux, qui découlent du recours de plus en plus important à l’IA, liés entre autres à l’intensification du travail, au stress, à la crainte de perdre son emploi, et à l’opacité des décisions prises par la machine.
-//-
La gestion algorithmique comporte des risques importants pour les conditions de travail et le bien-être au travail.
_
Le Règlement européen sur l’IA du 13 juin 2024 faisait office de première étape dans la régulation de ces technologies. Il se concentre principalement sur la mise sur le marché des technologies d’IA en fonction de leur degré de risque. Ainsi, au plus la technologie comporte des risques, au plus sa mise sur le marché est réglementée. Certaines dispositions du Règlement sont pertinentes dans le cadre de l’utilisation de l’IA au travail, mais elles sont insuffisantes et ne répondent pas à une série de préoccupations qui se posent sur le terrain. De plus, une partie de son contenu et surtout le timing des obligations prévues par le Règlement sont en passe d’être modifiés par une nouvelle directive Omnibus (3).
Au vu de la rapidité de ces évolutions et des défis qui y sont liés, les protections légales des travailleurs sont actuellement insuffisantes. Sans règles claires et applicables, l’IA risque de nuire à la qualité des emplois et aux droits des travailleurs. La CSC accueille donc très favorablement ce message politique envoyé par le Parlement européen indiquant que l’IA non réglementée au travail n’est pas acceptable.
Quelles recommandations pour l’utilisation de l’IA au travail?
Dans ce contexte, le texte voté par le Parlement européen est un bon signal. En préambule, on y reconnait que «les systèmes de gestion algorithmique ont d’abord été adoptés et déployés à grande échelle par les plateformes de travail numériques, mais qu’ils sont désormais largement utilisés sur l’ensemble du marché du travail». Effectivement, ce texte arrive environ un an après l’adoption d’une directive sur les travailleurs de plateformes, dont l’un des chapitres concernait la gestion algorithmique, désormais omniprésente dans ce secteur. Cette directive apportait des éléments intéressants et précurseurs pour reconnaître et concrétiser les droits des travailleurs, mais ne s’applique qu’aux travailleurs de plateformes et pas aux autres secteurs. Via cette nouvelle résolution, le Parlement reconnait la nécessité d’appliquer une législation similaire à tous les travailleurs européens, quel que soit leur secteur, étant donné que l’IA est désormais utilisée partout, y compris via des outils de gestion algorithmique.
Ainsi, le Parlement propose donc une directive qui fixe des règles claires en matière de transparence, de consultation et de contrôle humain dans l’utilisation de systèmes de gestion algorithmique, dont les éléments suivants:
• Supervision et contrôle humains: la proposition vise à garantir un contrôle humain continu, pertinent et efficace en tout temps sur toutes les décisions prises ou appuyées par des systèmes de gestion algorithmiques. Le tout sera de voir comment cela se concrétise dans les entreprises et organisations. Si une IA peut être utilisée pour prendre une décision, en particulier s’il s’agit de gestion algorithmique, elle devra toujours être supervisée par un être humain.
• Transparence et droit à l’information: la proposition doit garantir que les employeurs fournissent aux travailleurs concernés et à leurs représentants des informations écrites et dans un format accessible concernant l’utilisation (prévue) de systèmes de gestion algorithmique sur le lieu de travail. Ces informations doivent être fournies au plus tard le premier jour ouvrable des travailleurs concernés, avant toute modification substantielle de leurs conditions de travail, et à tout moment sur demande des travailleurs ou de leurs représentants.
L’essentiel ici sera de s’assurer que l’information est bien évidemment fournie, mais surtout qu’elle est effectivement compréhensible pour tous les travailleurs. Ceux-ci doivent être au courant qu’ils travaillent avec une IA et des implications que cela comporte: quelles données personnelles sont traitées à leur sujet, pourquoi, dans quel but. Il doit y avoir une transparence par rapport à la technologie et par rapport au fonctionnement des algorithmes utilisés.
Cette info-consultation doit également se dérouler autour des initiatives de formation à prévoir pour que les travailleurs puissent se mettre à jour en termes de nouvelles compétences à acquérir, et afin de s’adapter au mieux aux éventuels changements de tâches qui pourraient survenir.
• Pratiques interdites: la proposition devrait interdire la collecte, le stockage, la surveillance, la vente ou tout autre traitement, entre autres:
a) des états émotionnels, psychologiques ou neurologiques, de l’activité cognitive ou des données biométriques des travailleurs;
b) des communications privées;
c) des données des travailleurs en dehors de leurs heures de travail.
En vertu du RGPD (Règlement général sur la protection des données), des données telles que l’affiliation syndicale sont également des données sensibles et le traitement de ces données doit donc également être interdit.
• Santé et sécurité au travail: la proposition doit garantir que les employeurs intègrent, en collaboration avec les représentants des travailleurs, l’évaluation des risques liés aux systèmes de gestion algorithmique dans leurs dispositifs de santé et de sécurité au travail, notamment en ce qui concerne les risques
d’accidents du travail, les risques psychosociaux et ergonomiques, ainsi que les pressions excessives exercées sur les travailleurs. Les employeurs doivent utiliser les systèmes de gestion algorithmique de manière à respecter le bien-être des travailleurs et à ne pas compromettre leur sécurité ni leur santé physique et mentale. Ils doivent prendre des mesures d’atténuation appropriées.
Ce point est particulièrement important. L’une des priorités lorsqu’on introduit une IA en entreprise doit être d’évaluer l’impact de cette technologie sur le bien-être des travailleurs. Il faut s’assurer du respect de la législation sur le bien-être au travail et effectuer une analyse des risques régulièrement en impliquant les représentants des travailleurs.
Un modèle de CCT d’entreprise
La CSC n’a pas attendu cette initiative
législative pour lancer des négociations sur l’adoption et l’utilisation de l’IA en entreprise. Celle-ci doit faire l’objet d’une concertation sociale dans tous les secteurs et entreprises concernés, afin que tous les travailleurs qui sont concernés par ces technologies, soit parce qu’ils sont amenés à travailler avec elles, soit parce qu’ils en subiront les effets, puissent être représentés et que leurs droits soient défendus.
C’est pourquoi, nous avons développé un modèle de CCT d’entreprise ou sectorielle, dont vous pouvez vous inspirer afin de négocier une convention collective de travail sur l’intelligence artificielle en entreprise. Certains points peuvent bien sûr être adaptés à chaque situation au cas par cas. Comme vous pourrez le lire, certains éléments figurent déjà parmi les recommandations faites par le Parlement européen, présentées ci-dessus.
Vous pouvez retrouver ce modèle de CCT sur notre site internet: www.lacsc.be/nouvelles-technologies
En tant que CSC, nous en sommes convaincus: la concertation sociale et les négociations collectives doivent être au cœur de l’introduction et du déploiement de l’IA sur les lieux de travail. Pour toute question à ce sujet, n’hésitez pas à prendre contact avec votre permanent!
(1) https://brnw.ch/recommandations_ia