AI : Attendus Irréalistes ?

Orange, paré de ses atours d’employeur « digital et humain », n’est pas la dernière entreprise à faire grand cas de son intérêt pour l’intelligence artificielle, et aura récemment multiplié les communications internes lui prêtant une véritable expertise en la matière. Pour autant, ce discours bien souvent emprunté d’un enthousiasme spéculatif soulève plus d’interrogations qu’il n’apporte de réponses aux personnels du groupe quant aux applications concrètes dans leur quotidien professionnel des ambitions affichées par leur direction.

Il faut dire qu’à l’exception notable de l’approche pédagogique adoptée par le directeur de la recherche, il n’est guère question de « biais » ou encore d’ « anthropomorphisme » dans les présentations optimistes plus infantilisantes que ludiques qui leur sont régulièrement données à consulter sur l’intranet de l’entreprise. A cette aune, d’aucuns se préoccupent légitimement de la résilience d’un certain nombre d’idées reçues sur le sujet, surtout lorsqu’elles motivent des choix stratégiques et organisationnels…

 

Le « I » de « IA » : Intelligence ou Instinct ?

Si longtemps l’élaboration d’intelligences artificielles se réalisait par le truchement d’arborescences des possibles - tout l’art et la difficulté résidant dans la conception d’algorithmes arbitrant la sélection des meilleures branches - l’avènement des réseaux neuronaux et autres logiciels apprenants a ouvert la voie à de nouvelles méthodologies permettant d’effectuer des opérations jusqu’alors jugées trop lourdes ou trop complexes pour les approches précédentes.

Cependant si un programme basé sur un parcours d’arborescence peut précisément décrire les raisonnements à l’origine de chacun de choix d’embranchement dont découlent sa prise de décision, un autre résultant d’un entrainement par jeu de données ne pourra se justifier qu’en affichant un pourcentage de certitude à l’aune de ses expériences passées.

Bien sûr, cela n’empêche pas ces derniers d’être de formidables outils qui bousculent nos habitudes de travail, puisqu’ils permettent ainsi d’automatiser certaines tâches qui ne pouvaient l’être avant, tant que leur taux d’incertitude demeure inférieur à celui d’un être humain.

Toutefois leur prêter des vertus de l’intelligence serait faire aveu de leur méconnaissance, puisqu’il s’avère que leur fonctionnement semble davantage relever de l’automatisation d’un réflexe, ou encore d’un instinct…

 

Les méprises de l’anthropomorphisme

Bien évidemment, savoir d’un logiciel qu’il s’élabore par un processus d’apprentissage automatisé, cela est propre à éveiller bien des fantasmes nourris par des années de science-fiction, et notre tendance naturelle à l’anthropomorphisme constitue notre première difficulté à appréhender justement les capacités et limitations de ces nouvelles méthodes algorithmiques.

Ainsi même si certains sont conçus pour s’affiner et s’améliorer à l’usage, leurs capacités d’analyse sont cependant fortement contraintes au seul domaine d’application auquel ils sont confinés ; même si dans l’exécution d’une tâche bien précise, la qualité de leur performance nous amène à la comparer aux nôtres, en termes d’autonomie et de prise de décision, ces fameuses intelligences artificielles restent de simples outils, à l’instar d’une calculatrice posée là sur un bureau.

Au contraire certaines actions et capacités prétendument l’apanage de l’être humain, en considération des nombreuses connaissances et compétences nécessaires à leur mise en œuvre, s’avèrent tout à fait reproductibles et automatisables pourvu que leur abstraction soit modélisable. Concrètement, il s’agit par exemple d’observer et reproduire le comportement d’un vendeur qui accueille et conseille des clients en boutique.

 

Les failles de l’automate                         

Corollairement aux limitations de ces visions anthropomorphiques, l’imaginaire collectif associe, à la froideur et l’implacabilité des mécanismes, des vertus d’intégrité et de précision.

Pourtant tout logiciel, comme tout outil, résulte d’une conception humaine qui détermine les règles de son fonctionnement. S’il est par exemple paramétré afin de privilégier telle catégorie de population dans un système d’attribution de prestations, alors ses choix ne relèveront d’aucune forme d’impartialité, tout automatiques qu’ils soient.

Cette subjectivité héritée de leurs concepteurs se double de la reproduction des biais présents dans les jeux de données avec lesquels sont entrainés les logiciels apprenants. A ce titre, le système d’Amazon d'automatisation des recrutements représente un cas d’école, puisqu’il ne proposait pas de postes de direction aux postulantes ; ceux-ci étaient principalement occupés par des hommes dans le modèle de données qui lui fût confié.

Un échec qui questionne les orientations de la direction d’Orange en matière d’ambitions numériques, lorsque l’on considère son association avec la jeune pousse Clustree pour expérimenter l’automatisation logicielle des parcours de carrière de ses salariés, et souligne l’importance d’une communication en transparence des limitations et caractéristiques des outils algorithmiques.

Nos coordonnées

CFE-CGC Orange
10-12 rue Saint Amand
75015 Paris Cedex 15

   
nous contacter
01 46 79 28 74
01 40 45 51 57

Accès rédacteurs

Siège : CFE-CGC Orange - 104 rue Oberkampf, 75011 PARIS - SIRET 50803050900014 - 9420Z - Mentions Légales - Protection des données