Speech Analytics : les élus décodent les risques

   Longtemps fantasmée dans les scénarios de science-fiction, l'intelligence artificielle s'invite désormais dans les pratiques quotidiennes, et ce, jusque dans l’environnement professionnel.

   Son déploiement prévu dans les centres d'appels a soulevé de vives inquiétudes, notamment lors de la présentation du projet de déploiement de Speech Analytics et Mon Assistant IA dans les centres d'appels. Entre surveillance algorithmique et protection des données, le dossier cristallise les tensions.

   Le 14 octobre 2025 lors du CSEC n°44, les élus ont rendu un avis défavorable unanime sur ce projet et ils ont mandaté une des commissions santé du CSEC, la CSSCTC Centrale.

Un travail d'analyse minutieux de la CSSCTC

   Réduction des temps de silence, remontée instantanée d'informations, arborescence de solutions… Speech Analytics et Mon Assistant IA (MAIA) promettent de faciliter les pratiques de plus de 1 200 conseillers, dont 111 en situation de handicap, en USC et A2P lors des échanges avec les clients. Le déploiement progressif débutera fin 2025 dans les USC Grand Nord-Est et Grand Sud-Est, avant une généralisation au premier trimestre 2026. Mais derrière ces outils séduisants, la Commission SSCT centrale a identifié des risques concrets. Le GEP ayant classé Speech Analytics en criticité forte et Mon Assistant IA en criticité moyenne, les membres de la Commission insistent sur la nécessité d'un encadrement strict et d'une démarche de co-construction avec les salariés.

   Ils estiment le temps de formation comme étant insuffisant : 45 minutes pour MAIA (dont 15 minutes d'e-learning et 30 minutes d'atelier pratique). Bien trop court pour accompagner les salariés face à ces nouveaux outils. Ils craignent une surcharge cognitive liée à l'intensification du travail. Quant à l'enregistrement aléatoire de la moitié des appels par Speech Analytics, conservés six mois, il crée un sentiment de surveillance permanente. La Commission a également pointé la situation des salariés éloignés du service, appelant à un rappel des dispositifs d'accompagnement.

   Enfin, elle exige la mise à jour des DUERP, un comité de pilotage paritaire et une présentation aux CSSCT locales.

Front syndical unanime et Inspection du travail alertée

   Toutes les organisations syndicales se sont opposées au projet, pointant le non-respect du RGPD, notamment l'article 25 sur la protection dès la conception, l'absence de consentement éclairé et la collecte de données biométriques liée à la voix. Une demande la suspension immédiate du projet, estimant que l'outil relève des systèmes à haut risque de l'AI Act européen. Une autre alerte sur le retour déguisé des scripts retirés, il y a près de 15 ans, pour leurs effets sur la santé mentale des conseillers et une troisième appelle à un accord d'entreprise encadrant l'IA.

   L'Inspection du travail abonde dans leur sens. L’inspectrice du travail, présente lors des débats au CSEC, souligne un manque d'analyse des risques psychosociaux et l'absence de vraies mesures de prévention. Pour l’inspectrice, une évidence : la formation ne peut se résumer à apprendre aux salariés à « être écoutés » dans leur activité.

Une Direction sur la défensive

   La Direction défend un projet centré sur la relation client et le développement des compétences, sans volonté de contrôle. Le déploiement sera progressif, avec des chartes signées par les managers. Elle assure respecter le cadre réglementaire via le Comité éthique, sécurité et compliance. Mais pour les élus, ces garanties restent floues. L'absence d'expérimentation préalable prévue par l'accord de 2011 pose problème, tout comme le bilan environnemental indiqué comme nul dans le dossier.

Justice en ligne de mire

   Les 23 votants ont rendu un avis défavorable unanime. Ils exigent la suspension du déploiement tant que plusieurs garanties ne seront pas mises en place : application de l'accord sur les expérimentations, droit de refus pour les salariés, comité de pilotage paritaire, information dans les CSEE et suivi régulier en CSEC. Mais leur demande centrale reste la formalisation d'un accord d'entreprise encadrant strictement l'usage de l'IA.

   En cas de refus de la Direction, le secrétaire du CSEC saisira la justice. Le message est sans équivoque : l'IA ne doit pas s'imposer sans cadre éthique clairement défini et négocié.

 

Conditions de Travail et Santé

Nos coordonnées

CFE-CGC Orange
10-12 rue Saint Amand
75015 Paris Cedex 15

   
nous contacter
01 46 79 28 74
01 40 45 51 57

Epargne

Formation

Siège : CFE-CGC Orange - 89 Bd de Magenta, 75010 PARIS - SIRET 50803050900030 - 9420Z
Mentions Légales - Protection des données - Accès rédacteur