Confiance et adoption : les prérequis pour la généralisation de l’IA

07/06/2022

En cette première partie de 2022, nous constatons qu'au-delà de l'innovation, l'intelligence artificielle s’impose désormais comme un enjeu de transformation fondamental des entreprises. Ces dernières, désireuses d'exploiter le potentiel des solutions cognitives via des initiatives transformationnelles de leur activité, se heurtent à un grand obstacle : l’adoption de l’IA.

L'adoption et plus encore l’appropriation par les humains de l’informatique cognitive exigent une bonne compréhension de ce qu’est l'IA1, la confiance de chaque utilisateur dans ces systèmes avancés et, enfin, la volonté d’objectiver à quel moment se fier aux humains, aux machines ou aux deux. Mais, avant tout, pour réussir le déploiement de l'initiative cognitive à grande échelle, il convient de présenter et de démystifier trois idées reçues et leurs impacts respectifs.  

Déconstruction d’idées reçues sur l’IA 

Données ET apprentissage

Pour commencer, au lieu de se focaliser sur les données il faut penser processus d'apprentissage. Le défi de l’IA est celui de l’apprentissage par un système de quelque chose dans un contexte et un but donnés. Cet apprentissage est piloté par des humains qui opèrent donc un transfert de connaissances, de savoir-faire et de savoir-être vers un système dit « intelligent ». L’enjeu porte sur la donnée ET l’apprentissage. Voilà la véritable promesse de l’IA. Plus elle apprend et plus elle est utilisée, plus elle sera performante.  

Algorithmes, mathématiques... ET sciences cognitives  

Deuxièmement, il ne faut pas réduire l’IA aux algorithmes, aux statistiques et aux mathématiques : il s’agit aussi de sciences cognitives. L’IA est un sujet éminemment humain. Elle couvre des dimensions cognitives à travers six facultés : le langage, la voix, la vision, le raisonnement complexe, la gestion des connaissances et l’empathie. Les grands projets transformationnels d’IA et de données nécessiteront donc non seulement des spécialistes de la donnée, mais aussi un large panel d’experts métiers et industriels, des sociologues, des spécialistes de la sémantique ou encore des psychologues. La pluridisciplinarité deviendra un impératif et le développement d’un large panel de compétences au sein des équipes sera plus que jamais nécessaire.  

Technologie ET humains  

Mais la question n’est pas uniquement technologique. Il s’agit, en grande partie, d’une question de gestion du changement et de s’assurer de l’adoption et de l’appropriation des systèmes mis à la disposition des utilisateurs. Nous sommes confrontés à une nouvelle collaboration qui exige de nouvelles compétences et de nouveaux comportements : l’intelligence artificielle est une technologie qui change tout pour tout le monde. Elle pourra influencer les processus décisionnels à tous les stades et dans tous les secteurs. Souvent réduite à sa dimension technologique, l’intelligence artificielle est avant tout une révolution humaine et non pas une simple tendance.  

Les systèmes cognitifs ont des qualités indéniables en termes de capacités techniques, mais il est indispensable de valoriser l’intelligence humaine (savoir-être, empathie, esprit d’équipe...) pour créer une relation gagnant-gagnant et faire les meilleurs choix : « L’IA sera ce que nous en ferons »2. Les clés du succès sont donc l’adoption et l’appropriation. Il est par ailleurs essentiel de se préparer à surfer sur la vague de l’IA et de ne pas se laisser submerger. Pour ce faire, des compétences non techniques telles que l’esprit critique ou la pensée horizontale, le travail d’équipe et la volonté sont essentielles pour optimiser l’interaction avec ces systèmes : vous saurez pourquoi, quand et comment l’utiliser - ou pas ! 

Objectiver l’utilisation de l’IA

Le développement inexorable de l’IA nous a amenés à voir les choses de manière binaire : soit l’humain doit être au centre de tout et tout le temps soit, au contraire, ce sont les machines qui doivent prendre le dessus du fait de leur supériorité dans de nombreux domaines.  

Mais en réalité les choses ne sont pas aussi tranchées. Il faut faire preuve de discernement pour être capable d’objectivité et de prendre des décisions en connaissance de cause : pourquoi, quand, comment optimiser la prise de décision en minimisant les biais cognitifs et en maximisant les caractéristiques intrinsèques de l’humain et/ou de la machine. Il faut à présent accepter que dans certains cas l’IA soit privilégiée et que dans d’autres l’Humain doive décider seul. Mais il y aura aussi des cas où l’Humain et la Machine n’auront d’autre choix que de collaborer. Toutefois, pour suivre une telle approche, l’humain devra faire confiance aux propositions du système cognitif.

La confiance dès le départ

Diversité et inclusion

Si nous ne sommes pas inclusifs et ne garantissons pas une diversité équitable du groupe d’individus intervenant au début du processus d’apprentissage de l’IA et qui veillent ensuite à ce que les systèmes apprennent et s’améliorent, nous continuerons, par nature, à créer des biais. Nous devons veiller à ce que les humains qui travaillent sur le sujet reflètent la diversité au sens large du terme : croyances, race, sexe, etc. Il reste encore beaucoup de chemin à parcourir, beaucoup de travail à faire. Tant que nous n’aurons pas atteint ce stade, nous aurons beau avoir développé les meilleurs outils et normes, nous continuerons par nature à générer des biais dans les systèmes d’IA.  

Un cadre de confiance pour déployer l’IA

La capacité à articuler une telle démarche autour des 3 leviers que sont la gouvernance d’entreprise, l’ingénierie de l’IA et la culture et le design créera sans conteste un véritable avantage concurrentiel. Une étude récente d’IBM a révélé que « 75 % des dirigeants considèrent l’éthique comme une source de différenciation concurrentielle »3. Les entreprises devront démontrer qu’elles minimisent les risques de biais par la capacité d’explication, la robustesse et la transparence de leurs solutions cognitives.  

La même étude montre que « moins de 20 % des cadres sont fermement convaincus que leurs actions en matière d’éthique d’IA sont conformes ou excèdent les principes et valeurs qu’ils prônent »4 et qui sont au cœur de leur activité et de celle de leurs clients. 

Tout ceci doit être appréhendé dans un cadre éthique qui se concentre sur des sujets tels que les valeurs, les croyances, le sens des responsabilités, le bien-être... Cela signifie que nous devrons définir explicitement ce que signifie l’éthique dans un contexte spécifique, pour une entreprise donnée et pour les individus.  

Mais trêve de discussions sur les tendances et concentrons-nous sur le déploiement de l’IA dans tous les processus métier ! Car, oui, nous arrivons bel et bien dans un monde augmenté. D’ailleurs, les initiales IA ne devraient-elles pas signifier « intelligence augmentée » ?

Jean-Philippe Desbiolles, Vice-President & Managing Director, Financial Services, AI & Data Leader, IBM Industry Academy 

1Intelligence Artificielle
2Desbiolles, Jean-Philippe. « AI will be what you make of it: The 10 golden rules of AI » (L’IA sera ce que nous en ferons : les 10 règles d’or de l’IA) Dunod Editions, Août 2019
3Goehring, Brian, Francesca Rossi et Beth Rudden. « AI ethics in action, an enterprise guide to trustworthy AI » (L’éthique de l’IA en action : un guide d’entreprise pour une IA digne de confiance), IBM Institute for Business Value, Avril 2022
4Goehring, Brian, Francesca Rossi et Beth Rudden. « AI ethics in action, an enterprise guide to trustworthy AI » (L’éthique de l’IA en action : un guide d’entreprise pour une IA digne de confiance), IBM Institute for Business Value, Avril 2022

Banner EIS