close

Une question ou une remarque? Faites-le nous savoir!

Syndicaliste // Confédération des syndicats chrétiens (CSC) // Secrétariat de rédaction // Donatienne Coppieters // syndicaliste@acv-csc.be // Besoin de plus d'informations? Visitez www.cscmilitants.be

Retour au numéro actuel

CONGRÈS CSC /

Intelligence artificielle: à prendre ou à laisser

PROPOS RECUEILLIS PAR Jean-François Libotte | PHOTO Shutterstock | 21 FÉVRIER 2024 | TEMPS DE LECTURE: 4 minutes

L’intelligence artificielle (IA) trouve de plus en plus sa place sur nos lieux de travail. Les emplois ne disparaîtront pas nécessairement, mais ils seront profondément modifiés. Avec quelles conséquences pour le respect de la vie privée? Et pour le contrôle au travail? Qui décide encore à l’heure de l’IA: l’algorithme ou l’être humain? Et qui assume la responsabilité finale? Telles sont les questions que nous devons nous poser dans la perspective du congrès de la CSC sur «le travail à retravailler».

Quel est le rôle de l’IA dans les nouvelles formes de surveillance et de subordination au travail? Quels sont les risques sociaux engendrés et les moyens pour y faire face? Un militant syndical cadre, occupé dans une entreprise d’ingénierie informatique, nous apporte quelques réponses. (1)

(1) L’interview intégrale est parue dans «Le droit de l’employé» de février 2023.

Le développement de l’IA a-t-il un impact potentiel sur la surveillance et l’évaluation de la main-d’oeuvre?

Clairement. Certains traitements sont possibles via l’IA et ne le seraient pas humainement. Par exemple, il est possible de déduire certains schémas de comportement d’une personne à partir d’une grande quantité de données récoltées sur celle-ci, principalement via les Gafam (2). L’IA permet également de récolter et d’analyser ces données en permanence, ce qui ne serait pas non plus faisable humainement.

Quels sont les risques que cela soulève?

Il y a, d’une part, les risques liés à la quantité d’informations récoltées en permanence, qui génèrent un sentiment d’asservissement, d’insécurité, voire de harcèlement sur le lieu de travail. D’autre part, il y a les risques liés aux erreurs diverses qui se cumulent tout au long de la chaîne (récolte, analyse, interprétation, utilisation des résultats). Par exemple, des évaluations de performance sont souvent faites, mais la notion de performance elle-même n’a pas été suffisamment analysée. Ces erreurs peuvent mener non seulement à une sous-efficacité au niveau de l’entreprise, mais aussi à des injustices plus ou moins graves au niveau des personnes. Il faut se rappeler qu’il est impossible, même pour une IA, de déterminer les intentions d’une personne: elle ne peut qu’évaluer une probabilité d’intention, ce qui peut être suffisant au niveau économique et commercial, mais pas au niveau juridique ou éthique.

Un autre risque qui est apparu depuis peu est la banalisation de l’IA, qui donne l’impression qu’elle est moins dangereuse, alors que les outils de profiling n’ont jamais été si puissants.  Cela permet également à des entreprises moins «numériques» de franchir le pas.

Jugez-vous ces risques minimes, acceptables, élevés ou inacceptables?

L’importance des risques et la gravité de l’impact dépendent essentiellement de la personne qui fixe les missions de suivi, d’évaluation et de surveillance. C’est toujours une personne humaine qui décide d’utiliser l’IA comme un outil ou comme une arme. Selon que le traitement est destiné à vérifier l’exécution du contrat de travail, à mesurer la performance ou à contrôler/surveiller le travailleur, les risques grandissent.

C’est pourquoi il faut constamment veiller à ce que les informations légitimement recueillies ne soient pas utilisées à d’autres fins que celles qui ont justifié leur récolte et qui ont été communiquées au travailleur.

Que faire pour minimiser les risques?

Aujourd’hui, le RGPD (3) est le principal rempart contre l’utilisation de l’IA en tant qu’arme contre les employés. L’obligation de justifier toute récolte de données personnelles au regard des principes de transparence, finalité et proportionnalité limite la profondeur avec laquelle une IA peut profiler quelqu’un. Le RGPD (article 22.1) limite en outre le profilage lui-même.

Récemment, la Commission européenne a démarré un cycle de réglementations qui devraient à terme limiter l’utilisation abusive de l’IA.

Cependant, cela ne suffit pas. C’est au niveau de la direction que des décisions éthiques doivent être prises et communiquées pour limiter la surveillance et l’usage de l’IA dans la gestion du personnel. Ces décisions concernent avant tout la finalité et la transparence des traitements, puis l’exactitude, la minimisation, la durée de conservation, l’intégrité et la confidentialité des données personnelles. Il est nécessaire que les représentants du personnel négocient ces sujets à ce niveau-là.

(2) Acronyme désignant les cinq plus grandes multinationales du numérique: Google, Apple, Facebook, Amazon, Microsoft.
(3) Règlement général pour la protection des données personnelles.

/«Après les réticences, presque tout le monde trouve ce système positif»

INTERVIEW Bram Van Vaerenbergh | PHOTO Maarten De Bouw

En plus d’aider les clients, Kate, un assistant d’intelligence artificielle, joue un rôle majeur dans le quotidien des travailleurs de la banque KBC. «Avant la mise en œuvre de ce système, le personnel s’inquiétait du rôle que Kate allait jouer, mais finalement, presque tout le monde y est favorable», explique Tim Vercammen, délégué syndical chez KBC.

schermafbeelding-2024-02-26-om-114123.png

Quel est l’impact de Kate sur votre travail?

Pour moi, Kate a eu un impact positif. Kate analyse les leads potentiels des clients et nous devons téléphoner chaque jour à trois d’entre eux. Avant, nous devions aussi effectuer ce travail, mais en choisissant nous-mêmes les clients au hasard. Nous tablions sur un taux de réussite de nos appels de 2% à 3%. Aujourd’hui, nous atteignons 30% à 40% pour certains produits, ce qui est très motivant.

Et vous, qu’en pensez-vous?

Pour moi, c’est quelque chose de positif. Mes entretiens avec la clientèle n’ont pas changé depuis 15 ans. En fait, Kate nous remplace pour les tâches faciles: les questions à propos d’une carte de banque, nous rappeler de vérifier les assurances d’un client qui a acheté une maison, etc. En fait, nous pouvons être moins nombreux pour effectuer le même travail. Pour moi, ce n’est pas une menace: notre secteur emploie surtout des travailleurs plus âgés et nous éprouvons des difficultés à recruter des collaborateurs.

Comment traitez-vous les données des clients?

Très prudemment. Nous recevons une formation approfondie sur les fuites de données. Kate nous permet de travailler de manière ciblée avec les données client, ce qui leur permet de recevoir les bonnes informations au bon moment.

Que permet encore Kate?

Désormais, le système fait le lien entre les ventes à un client et la discussion que nous avons eue avec lui, ce qui permet des ajustements. Aujourd’hui, mes patrons n’ignorent rien de ce que j’ai fait. Cela permet de mieux corriger le tir lors des entretiens de fonctionnement ou des évaluations.

Articles liés publiés précédemment