Information sur la charte et gouvernance éthique de la Data et de l'IA Orange

L’éthique de la Data & IA fait partie intégrante des ambitions RSE portées par le Groupe Orange. Elle relève pour grande partie d’enjeux réglementaires qui à ce stade n’ont pas encore trouvé une expression à l’échelle mondiale. 

  

La Charte Ethique Data & IA d’Orange aujourd’hui présentée en CSE : 

  • structure une démarche que le Groupe entend observer pour déployer des solutions embarquant Data & IA, 
  • engage dans un esprit de confiance tous les acteurs économiques et sociaux, actuels et à venir, que nous côtoyons sur les territoires où nous opérons, 
  • anticipe, au niveau européen et mondial, l’adoption d’un cadre règlementaire propre, a priori, à poser les limites à ne pas dépasser pour protéger l’humain de façon durable d’atteintes à sa vie privée, 
  • cherche à tracer, sur la base d’une gouvernance établie, une amélioration continue propre, a priori, à servir des redevabilités avec nos parties prenantes, 
  • est suffisamment « light » pour à la fois servir le déploiement de nos réseaux intelligents, l’expérience client ou encore l’efficacité opérationnelle, et pour à la fois être adaptée à la maturité des écosystèmes côtoyés sur notre footprint. 

 
Cette charte éthique Data & IA, comme celles déjà adoptées par de nombreux acteurs, petits ou grands, de tous secteurs rassure et inquiète. 

 
Sur la question de l’éthique de la Data&IA, comment Orange entend proposer une différenciation responsable ? 

L’IA du quotidien peut-elle être éthique ?  
Ces questions taraudent nombre de personnes ! 

Face à ces doutes, apporter des garanties aux parties prenantes, et illustrer de façon transparente la prise en compte des risques en fonction des parties prenantes concernées, s’impose. Définir des indicateurs pour mesurer l’amélioration continue associés à ces engagements posés sur cette charte s’impose tout autant. 

Associant données massives (big data) et algorithmes d’apprentissage automatique (machine learning), la puissance des outils de décision automatique suscite en effet autant d’espoir que de craintes. De nombreux textes législatifs européens (RGPD) et français récemment promulgués tentent d’encadrer les usages de ces outils. Si même on laisse de côté les problèmes bien identifiés de confidentialité des données et ceux d’entrave à la concurrence, les risques par exemple de discrimination, de problèmes de transparence ou ceux de qualité des décisions algorithmiques, tracassent. La mise en perspective détaillée des textes juridiques, face à la complexité et l’opacité des algorithmes d’apprentissage, révèle la nécessité d’importantes disruptions technologiques que ce soit pour détecter ou réduire le risque de discrimination ou pour répondre au droit à l’explication. La confiance des usagers (citoyens, justiciables, clients) étant indispensable, les algorithmes exploitant des données personnelles se doivent d’être déployés dans un cadre éthique strict. Une charte éthique apporte des garanties qui doivent aussi s’appuyer sur d’autres possibilités de contrôle à développer : institutionnel, audit externe attaché à la délivrance d’un label, pour ne citer que deux exemples. 

  Au regard de ce que vous venez de présenter, différentes questions s’imposent :  

  •  « Régulation en construction en Europe » 

« des obligations pour les systèmes high risks : données, documentation, transparence, contrôle humain, robustesse sécurité » 

Pourquoi ne rester focus que sur les « high risks », le diable se cache souvent dans les détails ? 

   « Communiquer de manière transparente et intelligible sur la finalité des solutions à base d’intelligence artificielle et mettre en place une chaîne de responsabilité (redevabilité) claire. » 

  • Pouvez- détailler/illustrer ces redevabilités à l’égard de nos parties prenantes (salariés, clients, investisseurs, fournisseurs, actionnaires, société civile, institution….) ? Et préciser le dialogue parties prenantes établi pour que ces redevabilités puissent être respectées afin d’offrir des garanties réciproques à tous (le tout en fonction des pays et zones ou Orange opère) ? 

   Pour que l'IA soit éthique, ne faudrait-il pas revoir et refaire tous les algorithmes ?  

  • - Aujourd'hui les développements en IA se font le plus régulièrement via les API de Google, quelles autres solutions pourraient être envisagées ?  
    - En termes de responsabilité, est ce que les salariés, première partie prenante de l’entreprise sont suffisamment sensibilisés, face aux enjeux d’une étique Data & IA ? 
    - Enfin, en fonction de logiques culturelles, comment s’aligner sur une gouvernance et une règlementation Data & IA qui pourrait être mondiale ? 

Par Ghislaine De salins

Economie et Réglementation des Télécoms Numérique Responsabilité Sociale et Environnementale

Nos coordonnées

CFE-CGC Orange
10-12 rue Saint Amand
75015 Paris Cedex 15

   
nous contacter
01 46 79 28 74
01 40 45 51 57

Epargne

Formation

Siège : CFE-CGC Orange - 89 Bd de Magenta, 75010 PARIS - SIRET 50803050900030 - 9420Z
Mentions Légales - Protection des données - Accès rédacteur