L'IA porte en elle quelque chose de futuriste, une espérance pour certains et l'annonce d'une grande menace pour d'autres. Les rangs des sceptiques sont également importants, mais aujourd'hui il devient difficile de douter de cette avancée technologique, de rester en dehors du débat et d'ignorer ses opportunités et/ou ses menaces.
Il est intéressant de noter que l'émergence de l'IA dans le monde scientifique n'a pas toujours connu l'engouement qu'on perçoit aujourd'hui. Le milieu académique connu pour sa rigueur a eu de la peine à faire de la place à cette technologie perçue comme de seconde zone, car elle remplace la preuve absolue, le théorème, le déterminisme par l'apprentissage.
Nous quittons le monde du binaire, du vrai ou du faux et nous rentrons dans le monde du probablement vrai ou probablement faux. Ceci a conduit l'IA à connaître pas moins de deux grands hivers, le premier entre 1974 et 1980 et un second entre 1987 et 1993, impliquant la mise en retrait de la communauté scientifique qui travaillait sur ce sujet. La promesse fut relancée par IBM et son projet Deep Blue, qui battit Garry Kasparov aux échecs en 1997.
Ce rapide flash-back montre que les hauts et les bas font partie de l'histoire de l'IA. Aujourd'hui encore, force est de constater qu'il y a toujours quelque chose qui n'est pas apaisé autour de ce sujet. Toutefois, la prédiction d'Arthur Samuel de 1959 qui annonçait « la capacité des ordinateurs à apprendre sans être explicitement programmés» est en train de prendre vie sous nos yeux, chaque jour un peu plus.
Avec la généralisation d'assistant du type de Siri, l'apparition de la médecine augmentée, les systèmes de segmentation et de recommandation automatiques, la traduction en temps réel, et quelques scandales démocratiques ici et là, bien malin celui qui pense ne pas être à l'abri de cette technologie.
Suis-je en train de dire que notre rapport à l'IA a fini par se pacifier, à force d'usage conscient ou in-conscient, et qu'aujourd'hui nous l'intégrons sereinement dans notre paysage?
À titre personnel, je ne pense pas et l'apaisement passera par deux étapes: d'une part comprendre l'enjeu réel de l'IA et d'autre part poser un cadre sécurisant dans lequel cette technologie se développera.
Comprendre les enjeux de l'IA. Mon aventure avec l'IA a commencé dans une entreprise de la Riviera suisse. Nous sommes loin de la Silicon Valley et du monde bouillonnant des start-up et de ses licornes, nous sommes dans notre bon vieux terroir, dans une entreprise bien vaudoise. Le lean management vient de passer par là et il nous invite à revisiter un processus central avec la promesse que nous allons gagner en efficience et en satisfaction client. Le saint graal de l'efficience opérationnelle. La chasse aux Muda était ouverte. Quoi de mieux pour rendre un processus plus lean que de le digitaliser ? La recette a fait ses preuves. Lors de la digitalisation d'un processus, on se rend vite compte qu'il y a deux types d'actions:
la retranscription numérique de règles métiers;
la retranscription numérique d'une expérience métier basée sur un apprentissage en évolution.
À ce stade, on voit bien que le parcours fluide et sans friction promis au client devra passer par de la digitalisation classique, mais aussi par des points de contrôle construits avec du machine learning. En partant de cet exemple de digitalisation d'un processus métier, j'ai compris le pouvoir transformationnel de l'IA. Autrement dit, en quoi cette technologie peut pousser plus loin les limites de ce que nous appelons communément aujourd'hui la « transformation digitale des métiers». En d'autres termes, l'IA est un puissant levier de transformation des métiers !
Un deuxième enjeu qui se cache, selon moi, dans les projets de machine learning est la culture agile. Là aussi, il est très intéressant de noter qu'un processus de machine learning est par essentiel agile. Pas surprenant, nous parlons d'apprentissage! Pour rappel, l'agilité dit que le seul moyen que nous avons d'appréhender l'incertitude et la complexité est de nous appuyer sur l'empirisme: observation, transparence et adaptation. Ceci me rappelle curieusement le CRISP-DM2, approche bien connue pour décrire toutes les phases d'un problème de machine learning. L'IA est aussi un puissant levier de transformation culturelle !
Travailler sur des projets d'IA va donc à la fois offrir des opportunités de transformer les métiers et permettre d'introduire la culture de l'agilité par exemple.
Si le potentiel que l'lA présente ne fait plus de doute, des zones d'ombre persistent. Ces ombres viennent des usages de l'IA qui sont des fois éthique-ment discutables, du manque de transparence sur les données d'appren-tissage, du manque de garantie sur l'absence de biais, du manque de clarté des algorithmes et enfin des divers impacts de cette technologie. Tous ces points méritent d'être adressés dans un cadre sécurisant qui facilitera l'adoption de cette technologie.
Poser un cadre sécurisant: les éléments clés qu'on se doit d'adresser dès lors que nous introduisons de l'IA dans nos activités sont les suivants.
Usage avec des finalités éthiques.
Il y a définitivement de la place pour une IA de confiance et responsable au service de notre société. Bien souvent, ce n'est pas tant la technologie qui est en cause, mais les intentions sous-jacentes. Un exemple significatif est celui des algorithmes employés dans certaines universités américaines pour détecter les étudiants ayant le moins de chance de réussir.
Quelques-unes d'entre elles utilisent ces algorithmes pour se défaire de ces étudiants à risque et préserver leur ranking, alors que d'autres utilisent ces mêmes algorithmes pour apporter l'aide nécessaire et éviter l'échec à ces étudiants. Tous les cas d'usage de l'IA ne sont pas équivalents.
L'engagement éthique des équipes travaillant sur ces sujets est détermi-nant. Il serait bon également que les médias valorisent plus les cas d'usages vertueux, afin que collectivement naissent une volonté et une sensibilité pour renforcer les engagements dans ce sens.
Biais dans les données.
Si les données n'ont pas connaissance de certains phénomènes, elles ne peuvent pas les refléter dans les modèles. De ce fait, il est primordial de comprendre que l'analyse des modèles de machine learning doit être faite par des équipes ayant des compétences larges et variées. Les modèles issus du machine learning doivent être soumis à des équipes qui contiennent aussi bien des sociologues, des psychologues que des experts de divers métiers. Il faut absolument éviter de créer un huis clos entre les algorithmes, les données et les data scientists. Si nous ne faisons que prédire sur la base de notre perspective du passé, nous nous coupons de cette capacité qu'a l'homme de transcender sa réalité en explorant de nouveaux champs du possible. Nous pourrions même mettre en danger des initiatives rares et innovantes car elles seraient sous-représentées.
Boîte noire et difficulté de définir la responsabilité.
Bien souvent les algorithmes issus du deep learning sont des boîtes noires qui, en fonction d'une entrée, donnent un résultat en sortie sans que cela puisse être expliqué par un modèle clair et déterministe. Ce point est une des causes les plus importantes pour la non-acceptation de l'IA par des experts métiers habitués à comprendre les règles qui régissent leur activité. La complexité de l'algorithme ne facilite pas non plus la prise de décision de qui est responsable des effets des modèles.
Il est important qu'une lecture pédagogique des modèles puisse être posée et d'éviter un jargon technique incompréhensible par les experts métiers qui vont les utiliser.
Impact sociétal et environnemental.
L'IA a une grande capacité de prendre en charge des tâches répétitives. Ceci aura fatalement une conséquence sur les métiers de demain: certains évolueront, d'autres disparaîtront et nous assisterons à l'émergence de nouveaux métiers. Comment seront répartis les gains engrangés par les entreprises qui automatiseront toujours plus? Quelle sera leur responsabilité dans la prise en charge des personnes qui perdront leur travail? Quel rôle vont jouer les États face à ce problème? Pour l'instant, l'impression est que les Gafam dictent les règles du jeu et le reste du monde essaie de suivre comme il peut. L'importance d'un État fort et garant du cadre général et du bien commun sera plus que jamais d'actualité.
Par ailleurs, dans une société de plus en plus concernée par les enjeux climatiques, l'impact environnemental de l'IA ne doit pas être oublié. Tout ce qui est techniquement possible n'est pas forcément bon à faire. Nous pouvons stocker beaucoup de données et les calculer, mais est-ce toujours pertinent? Nous savons tous que l'empreinte numérique se traduit par une empreinte carbone. Les algorithmes sont gourmands en puissance de calcul et les données en zone de stockage. Tout cela consomme une énergie considérable. La sobriété d'utilisation et la responsabilisation des acteurs du numérique face à leur impact écologique sont une nécessité face au défi climatique.
Protection des données.
La société civile devient de plus en plus méfiante face à l'utilisation abusive des données personnelles. Des procédures de demande de consentement des utilisateurs devraient être suivies avec plus de rigueur. Au-delà de demander à un client son accord pour l'utilisation de ses données, un soin particulier doit être mis pour lui expliquer la finalité de leur utilisation. De plus, le transfert de données à des tiers devrait se faire dans la plus grande transparence. L'enjeu ici est de garder la confiance entre les acteurs économiques et l'usager final.
Après deux hivers académiques, tel le sphinx, l'IA renait de ses cendres. Les géants du numérique excellent aujourd'hui dans l'art de tirer profit du potentiel de l'IA. Toutefois, la tension entre le potentiel et la méfiance reste vive. Aujourd'hui les comités d'éthique autour de l'IA fleurissent de par le monde. C'est une très bonne nouvelle mais nous, les utilisateurs locaux de l'IA, ne devons pas rester en dehors de ce débat, sous prétexte que nous sommes trop petits. La nature a horreur du vide et tout débat que nous n'occuperons pas sera occupé par d'autres.
Travaillons alors sur des projets d'IA qui soient le reflet de nos valeurs, intégrons des règles d'éthique qui soient en adéquation avec nos idéaux démo-cratiques, sociétaux et environne-mentaux. Participons à ce débat collectif et seulement ainsi nous pourrons influencer le cours des choses. Soyons le changement que nous voulons voir dans ce monde numérique !
Par Assia Garbinato, extrait du livre CODE IA, 2021 pour le Manufacture Thinking