vous êtes ici : accueil > Confédération
Les progrès techniques en matière d’intelligence artificielle offrent de nouveaux outils aux employeurs pour surveiller leurs salarié·es, au détriment de leur santé et de leurs conditions de travail.
L’intelligence artificielle est de plus en plus utilisée par les employeurs pour surveiller leurs salarié·es
C’est notamment le cas dans les centres d’appels, où des algorithmes étudient les appels de tou·tes les salarié·es et rapportent les écarts à la hiérarchie.
Un récent article d’Alternatives économiques, voir ci-dessous, cite les exemples de TP (ex-Teleperformance) et Concentrix. Dans ces entreprises, la CGT dénonce des atteintes à la santé et à la sécurité des salarié·es à la suite de la mise en place d’un logiciel de surveillance par l’employeur.
Explosion des risques psychosociaux
Le périmètre de ces logiciels est opaque. Les salarié·es n’ont aucune certitude sur les éléments analysés par l’application : quels sont les mots surveillés ? Quelles attitudes sont sanctionnées ? D’autant que le développement de l’IA permet d’aller très loin dans le contrôle : stress, prononciation, hésitations, émotions… Désormais, le moindre détail peut être épluché par la machine.
Les conséquences néfastes de ce nouveau mode de surveillance sont nombreuses : augmentation des contraintes, dépersonnalisation de la relation managériale, augmentation du stress, augmentation du nombre de sanctions (parfois sur la base de prétextes)…
On ne peut pas faire ce qu’on veut avec l’IA
Il existe de nombreux garde-fous sur l’utilisation de l’intelligence artificielle. Ainsi l’article 5 de la loi européenne sur l’intelligence artificielle interdit, entre autres, l’utilisation de systèmes d’IA :
– « pour l’évaluation ou la classification de personnes physiques […] en fonction de leur comportement social […], la note sociale conduisant [à un] traitement préjudiciable ou défavorable […] injustifié ou disproportionné par rapport à leur comportement social » (art. 5, 1.c) ;
– « pour inférer les émotions d’une personne physique sur le lieu de travail » (art. 5, 1.f).
Bien entendu, les employeurs prétendent ne pas utiliser ces systèmes à des fins de notation ou de contrôle, mais « pour améliorer la qualité de service »…
Dans tous les cas, ils sont bien souvent en dehors des clous : l’utilisation de systèmes d’IA doit donner lieu à une consultation du CSE – comme pour toute introduction de nouvelle technologie (art. L. 2312-8 4° du Code du travail), faute de quoi le CSE peut saisir le tribunal judiciaire pour contraindre l’employeur à le consulter.
L’employeur ne peut mettre en place le projet avant que le CSE n’ait rendu un avis, et le refus par l’employeur de consulter le CSE constitue un délit d’entrave, passible de 7 500 euros d’amende.
Chaque salarié·e doit également être informé·e de l’utilisation de ses données personnelles par un système d’IA, comme le précise l’article 13 du RGPD, et « aucune information concernant personnellement un salarié ne peut être collectée par un dispositif qui n’a pas préalablement porté à sa connaissance » (art. L. 1222-4 du Code du travail).
Enfin, les salarié·es doivent être informé·es des « méthodes et techniques d’évaluation professionnelles mises en œuvre à [leur] égard » (art. L. 1222-3 du Code du travail), et si l’employeur envisage de prendre une décision fondée exclusivement sur le traitement automatisé, il doit obtenir au préalable le consentement explicite de la personne concernée – sans cela, la décision pourrait être illicite (article 22 du RGPD).
Communiqué CGT du 28 janvier 2026
Dans les centres d’appels, l’IA met les téléconseillers sur écoute et sous pression
Chez TP et Concentrix, géants des centres d’appels, les écarts au script commercial sont détectés par les algorithmes et remontées à la hiérarchie. Les syndicats s’inquiètent des conséquences psychosociales.
Sur le plateau d’appels de Duacom, une filiale de TP (ex-Teleperformance) basée à Douai (Nord) qui gère les relations clients d’EDF, les téléconseillers ont l’interdiction de proposer aux clients des contrats de gaz, afin de respecter les règles concurrentielles imposées à l’électricien1. Si un salarié prononce le mot « gaz », un logiciel de reconnaissance automatique de la parole et d’analyse conversationnelle le repère instantanément et transmet une alerte à la hiérarchie.
« Le téléconseiller est alors convoqué par la direction. On le fait culpabiliser en lui disant qu’EDF vient d’attribuer un malus de 2 000 euros à la boîte à cause de lui », constate Rachel2, salariée depuis une dizaine d’années dans l’entreprise. Depuis 2022 et l’arrivée d’Allo Media – l’intelligence artificielle (IA) d’analyse conversationnelle utilisée pour détecter les expressions interdites – « les salariés ne touchent plus leur treizième mois, tellement l’entreprise est malussée », poursuit la téléconseillère.
Chez Concentrix, un géant américain des centres d’appels qui a récemment racheté le Français Webhelp, les « mots noirs » coûtent de l’argent aux salariés. Sur le plateau d’appels de Caen, lui aussi prestataire de services pour EDF, la première évocation du « gaz » fait baisser la prime de performance de moitié. A la seconde, la prime saute.
« En moyenne, ça concerne deux salariés par mois. Ce n’est pas énorme mais tout le monde ressent une pression accrue. Avec l’IA, le contrôle qualité est devenu systématique, là ou auparavant il reposait sur des écoutes humaines aléatoires », note Guillaume Bouillet, délégué syndical (CGT) dans l’entreprise.
Contactée, Concentrix a expliqué « ne donner aucune interview sur ce sujet pour le moment ».
Stress des salariés
Une appréhension accentuée par le flou entourant les capacités techniques et le périmètre de surveillance des logiciels de speech analytics. « Je suspecte l’application de surveiller d’autres choses que les mots noirs. Hélas, je ne peux pas le prouver », poursuit Rachel.
Dans son entreprise, les représentants du personnel n’auraient pas été consultés sur l’introduction d’Allo Media, de source syndicale. Dans une récente décision, le juge des référés de Paris a pourtant confirmé la nécessité de consultation du CSE (comité social et économique) en cas de recours dans l’entreprise à des outils d’intelligence artificielle dès lors qu’il s’agit de l’introduction d’une nouvelle technologie.
Dans un document interne qu’a pu consulter Alternatives Economiques, TP explique que son outil de speech analytics – baptisé TP Interact et développé avec l’entreprise CallMiner – est capable de détecter les « silences, agitation du téléconseiller, tempo, émotions… ». TP Interact peut aussi noter automatiquement chaque appel en fonction de la « satisfaction client, du respect du script, de la performance commerciale… ».
« Hésitations, répétitions, tics de langage, absence de reformulation, formule de politesse mal prononcée… Le client prompte les points qu’il souhaite superviser. Il peut repérer ce qu’il veut », confirme le manager produit d’une entreprise spécialisée dans l’analyse conversationnelle et l’IA pour le compte de services clients dont ceux de la BPCE, La Poste, ou encore de Se Loger.
« On développe aussi des IA qui valident les gestes métiers. Si par exemple, le téléconseiller dit “je vous rappelle dans quinze jours”, le prompt ira vérifier que l’agent l’a bien fait », poursuit-il.
Risques psychosociaux
Sollicité par les représentants du personnel de TP, Syndex a rendu un avis alarmant sur les conséquences psychosociales de la surveillance algorithmique dans l’entreprise. Le cabinet d’expertise spécialisé dans le conseil auprès des CSE écrit dans un rapport interne consulté par Alternatives Economiques que cet outil « élargit les potentialités de contrôle », avec un « risque de dépersonnalisation de la relation managériale ». Le tout débouchant sur de « nouvelles prescriptions, donc de nouvelles contraintes sur un travail qui est déjà fortement contraint ».
TP se défend de toute logique de supervision algorithmique du travail. « L’entreprise rappelle que ses dispositifs internes n’ont pas vocation à surveiller les collaborateurs, mais à accompagner la qualité de service dans un cadre éthique et transparent. Elle déplore que certaines informations, sorties de leur contexte ou fondées sur des témoignages partiels, contribuent à une vision erronée de son fonctionnement », explique le service communication de l’entreprise.
« A quoi cela sert-il d’évaluer le niveau de stress des téléconseillers si ce n’est pas pour améliorer nos conditions de travail ? », s’interroge un délégué syndical de TP, qui souhaite rester anonyme. Selon lui, les données récoltées par les logiciels d’analyse conversationnelle sont utilisées pour identifier les téléconseillers les moins performants.
« Comme il est illégal de justifier une insuffisance professionnelle par le niveau de stress présumé d’un salarié, la direction joue sur d’autres critères : utilisation de mots noirs, qualité de service… », poursuit l’élu.
En France, le Code du travail reconnaît à l’employeur le droit de contrôler la bonne exécution des missions de ses salariés mais l’encadre de près. Les salariés doivent être informés des dispositifs de collecte de l’information sur leur travail, faute de quoi l’employeur peut s’exposer à des sanctions de la CNIL (Commission nationale de l’informatique et des libertés).
Mais les représentants des salariés ont des difficultés à « appréhender les algorithmes, leurs codes et à savoir comment ils sont programmés. La transparence n’est pas de mise de la part des employeurs », constate Sylvain Descamps, secrétaire fédéral en charge de la négociation dans la branche des prestataires de services du secteur tertiaire à la CFDT. « Il est impossible de garantir que des mises à jour “discrètes” ne s’étendent pas au domaine de la surveillance par exemple. »
Pour clarifier le cadre légal, le règlement européen sur l’intelligence artificielle (l’AI Act), adopté en mars 2024, a établi une typologie de ces nouveaux modes de surveillance. Elle classe en « risque élevé » les systèmes d’IA utilisés pour l’évaluation des performances.
Article Alternatives Économiques du 13 janvier 2026
Article publié le 30 janvier 2026.