
Knowledge Management et intelligence artificielle : entre esprit de géometrie et esprit de finesse, quelles complémentarités ? - Entretien G. Chastenet de Géry avec É. de Rocquigny - Revue I2D
GCG : La place de l’Intelligence Artificielle dans la gouvernance des connaissances (qui est essentiellement humaine, parfois outillée mais maîtrisée) est de plus en plus questionnée. L’Intelligence Artificielle peut-elle remplacer le travailleur du savoir ? L’Intelligence artificielle est-elle un outil non maîtrisé, un outil puissant qu’on ne comprend pas et donc non gouverné.
EdR : Il me paraît nécessaire d’être précis pour éviter les caricatures. Je distinguerais :
- Ce qui relève de la paresse intellectuelle : c’est-à-dire construire des modèles d’IA peu robustes, avec un très grand nombre de paramètres, souvent bien trop eu égard aux données réellement disponibles. Ces modèles sont paresseux. Ils relèvent d’un laxisme dont il faut se méfier et qui est un risque aujourd’hui. Si on abandonne la spécification du modèle, on arrive à ce type de situation. Une IA peut bêtifier si le praticien ne maîtrise pas ses sources. Elle devient une boîte noire auto-référencée.
- Ce qui relève de l’habileté commerciale : les vendeurs du Cloud et de plateformes d’IA ont intérêt à faire compliqué, car leur modèle économique est basé sur le volume d’usage. De fait, la force commerciale est naturellement portée à exalter les modèles à plusieurs centaines de milliards de paramètres, goulus en capacité mémoire, puissance de calcul et algorithmes d'entraînement.
- Ce qui relève de la complexité réelle : comment une « tour de Babel” de réseaux de neurones, c’est-à-dire fondamentalement une intrication de fonctions fort simples mais non linéaires, arrive à être performante. En identifiant des régularités profondes et subtiles de la géométrie du réel, et en inférant ainsi des contenus avec un réalisme stupéfiant. C’est un problème ouvert en mathématique.
Un knowledge manager fera remarquer qu’il est possible d’aider un professionnel à prendre une décision avec un guide métier et une dizaine de cas. Et que pour obtenir une aide à la décision par une IA, les données nécessaires se comptent en dizaines ou centaines de milliers [1]. Par exemple, un radiologue qui prend l’avis de ses collègues versus une IA qui analyse une radio après un long apprentissage requérant des milliers de radio.
Cette illustration me paraît caricaturale. Les avis de la dizaine de radiologues peuvent être biaisés. Les biais cognitifs [2] sont une réalité qu’il faut connaître et prendre en compte. L’IA permettant d’accéder efficacement à des bases extrêmement étendues de retours d’expérience et permet de réduire les erreurs médicales liées aux biais cognitifs, au conformisme ou parfois à la simple paresse d’un groupe d’experts.
Je préconiserai une approche des solutions d’IA qui :
- soit conçue de manière exigeante au service d’un usage précis. Eviter autant la techno-idolâtrie que la paresse,
- associe plusieurs types d’IA (prédictive, non supervisée, générative).
- permette le dialogue entre le praticien (ici le radiologue) et l’outil (l’IA).
Et effectivement il y a un risque de biais même dans les démarches de partage de connaissances en groupe. Une communauté de pratique rassemblant uniquement des personnes au profil semblable risque de tourner en rond.
Le risque de données biaisées existe aussi avec l’IA : l’IA actuellement dominante est la branche de l’apprentissage statistique (machine learning) qui consiste essentiellement à reproduire des régularités observées dans de vastes quantités de données. Tels des “perroquets savants”, les machines y reproduisent tout naturellement les biais des données utilisées pour l’entraînement. D’où des risques importants de biais - souvent subis, car la tentation est grande de nourrir l’IA en privilégiant la quantité à la qualité des données d’entraînement, sans se rendre compte qu’on y déséquilibre grandement la représentation honnête du réel ; parfois voulus, en écartant délibérément certains contenus ou en rééquilibrant volontairement certains contenus que le concepteur considère comme indésirables. Au risque de faire subir à l’utilisateur de l’IA des préférences à son insu. C’est d’ailleurs l’un des risques les plus grands au plan sociopolitique.
Le knowledge management s’intéresse aux solutions de recherche d’information dans un ensemble de sources, internes ou externes à l’organisation, validées par les experts ou les praticiens. L’IA y trouve sa place pour améliorer la pertinence et la sérendipité.
Oui l’IA doit être vue aussi comme une solution de recherche d’information avec un dialogue. Les avancées dans le traitement automatique de la langue (NLP, dont hérite la suite GPT3.5, GPT4 …) ont aussi apporté de nombreuses avancées pour améliorer la performance des moteurs de recherche. Il faut aujourd’hui imaginer qu’en combinant les différentes formes d’IA (prédictive, non supervisée et générative), il serait possible de construire des solutions permettant à une personne de concevoir de manière extrêmement efficace un point de vue (diagnostic, décision, document, maquette, …) en dialoguant avec un outil qui propose des sources, des propositions de contenu, des indications de pertinence statistique, …
L’efficacité n’est pour autant pas toujours un gage de qualité et d’engagement. C’est toujours le professionnel qui décide … tout au moins en principe. Car la machine ne fait que sélectionner des contenus et proposer des pistes : mais hélas, la paresse conduit souvent le professionnel à suivre sans réfléchir l’aide à la décision. A renoncer à pas moins qu’un élément-clé de la dignité de son travail : son libre-arbitre.
Les organisations mettent aujourd’hui en avant les filières d’experts. Pour devenir un expert il faut avoir beaucoup pratiqué, au départ des cas simples puis de plus en plus complexes et avoir pris du recul avec sa pratique pour la comprendre. Si l’IA prend en charge ces tâches, comment un apprenti peut-il devenir un expert ? Comment devenir un expert dans un monde où l’IA se serait imposée ?
C’est une question essentielle. Là encore, oublions l’idée que l’IA est une boîte noire dont on subit passivement les irrésistibles avancées. Une IA utile doit être programmée pour une finalité donnée. Cette finalité peut être l’automatisation pure et simple … ou bien l’automatisation partielle, servant de support à l’apprentissage de personnes humaines pour devenir de meilleurs experts. Regardons ce qui est déjà acquis avec les outils actuels. Avec les moteurs de recherche, il est possible d’accéder à un nombre considérable de données. L’IA intégrée dans les moteurs de recherche peut nous aider à accéder soit à plus de pertinence - au risque de subir passivement les préférences embarquées d’un contenu prémâché fermé - soit à étendre nos recherches vers encore plus de sérendipité - dans un équilibre homme-machine ouvert.
J’accompagne actuellement la transformation complète d’une entreprise de géo ingénierie. Il ne s’agit pas de remplacer l’expert mais d’utiliser l’IA en particulier pour augmenter l’expertise et enrichir la formation des jeunes en leur donnant un accès efficace à des centaines d’hommes-an d’expertise de terrain. Et mon conseil aux jeunes, c’est : outre de maîtriser en profondeur la programmation de l’IA, continuer à aller soi-même sur le terrain pour ne pas perdre le contact avec le réel. De même que le radiologue doit continuer à pratiquer lui-même pour porter un diagnostic sur une radio, par exemple savoir pourquoi une radio peut être biaisée ou incomplète.
Pour devenir un expert, il faut aller chercher des données sur le terrain pour en mesurer tous les biais potentiels, non pas les subir.
C’est aussi le conseil que la gouvernance des connaissances donne aux experts : rester proche du terrain, discuter avec les praticiens, participer aux communautés de pratique. Sinon c’est le bras de fer entre les praticiens et ceux qui incarnent l’autorité technique.
D’une certaine manière, l’accès massif et ergonomique (“intelligent”) aux données via l’IA renouvelle la confrontation entre l’autorité technique et le terrain. Par exemple, l’autorité en géo-ingénierie se construisait en digérant à la fois les modèles théoriques et l’expérience de nombreuses années d’études de sol sur le terrain. Le bigdata des sols peut remettre en question des a priori d’autorités en présentant des cas de sols échappant à la mémoire d’un grand expert ; ou de manière plus positive enrichir cette autorité technique si elle s’en saisit en “s’augmentant”. Car l’esprit humain est assez “bayésien”, et mémorise prioritairement les régularités qui constituent autant d’a priori - le plus souvent efficaces : ce qu’on appelle le jugement d’expert. Mais qu’il est salutaire de remettre en question à l’aune des données, surtout si l’on gère des risques ! Bien maîtrisée, l’IA permet de faire cela de manière immensément efficace.
Comment combiner les solutions proposées par l’IA et les ressources proposées par la gouvernance des connaissances ? Le cas du développement de nouveaux médicaments mené par les laboratoires pharmaceutiques me parait illustratif. L’IA apporte de réelles perspectives dans les étapes amont, induisant beaucoup de tests répétitifs : le criblage des molécules candidates, le choix des patients des études cliniques ou l’analyse des données des expériences. En revanche la conception des protocoles, la conception des expériences, le choix des matériels d’analyse, ... suppose une pratique et sont peu répétitifs.
Le cas de la gestion des risques est assez emblématique de la complémentarité : les aléas relativement fréquents sont le terrain naturel d'apprentissage du machine learning, c’est le domaine typique de la maintenance prédictive par exemple dans l’industrie, où l’IA peut s’avérer incroyablement plus efficace que des arbres de décision de petite taille. Dès que l’on approche les cas rares, on se limite à la barrière fondamentale de l’extrapolation : car l’IA statistique n’est qu’un gigantesque interpolateur. L’IA “hallucine” - selon le terme consacré - quand la machine d’inférence statistique est utilisée hors du domaine d’apprentissage. Tout devient possible, le pire comme le meilleur, sans contrôle crédible de la fiabilité. Ce qui est le comble si l’on prétend gérer les risques …
Il est intéressant de convoquer à la barre du tribunal … Blaise Pascal, triplement coupable d’invention de l’IA [3]: (i) il a construit la première machine mentale algorithmique (la pascaline, calculateur mécanique); (ii) il a co-inventé les probabilités, fondement essentiel de l’IA générative actuelle; (iii) fait moins connu, l’homme du Pari fut passionnément entrepreneur en série: l’aventure de l’IA est structurellement un pari entrepreneurial. Pascal discourt d’ailleurs de la machine dans les Pensées, un terme désignant chez lui à la fois la machine mentale qu’il a construite (qui préfigure l’IA), mais aussi le fonctionnement machinal de l’être humain, qui reproduit si naturellement des habitudes. Une machine si puissante selon lui pour emporter l’adhésion qu’elle a bien plus de poids en pratique que les raisonnements logiques complexes et rigoureux, qui fatiguent et désintéressent. D’où la grande nécessité de contrôler la machine (et donc d’éduquer ses habitudes, notamment homme-machine), en faisant preuve pour cela autant d’esprit de géométrie que d’esprit de finesse … un exercice rare et exigeant d’ailleurs !
Dans l’exercice de la gouvernance des connaissances, l’esprit de géométrie et l’esprit de finesse sont autant requis. Pour construire des dispositifs de capture, traitement et diffusion des savoirs et des savoir-faire, il faut de l’esprit de géométrie. Pour comprendre les freins humains, mobiliser les dynamiques humaines vers le partage des connaissances, notamment tacites, il faut de l’esprit de finesse.
Entretien par Gonzague Chastenet de Géry et Etienne de Rocquigny
[1] Voir par exemple les témoignages de l’Inserm sur son site
2] Les biais cognitifs sont des déviations dans la pensée logique et rationnelle (biais de confirmation, biais de sur confiance, biais de sélection, …)
[3] voir le blog https://blaisepascal-advisors.com/blog
Etienne de Rocquigny -mathématicien et entrepreneur, fondateur de Blaise Pascal Advisors. Diplômé de l’Ecole Polytechnique et de l’Imperial College of London, professeur habilité à diriger les recherches et expert auprès d’organisations européennes et internationales. Il a été vice-doyen de l’Ecole Centrale Paris et dirigeant d’EDF R&D avant d’entreprendre et d’accompagner une vingtaine d’entreprises algorithmiques de toute taille dans des secteurs variés. Conférencier et auteur de nombreuses publications, enseignements et ouvrages de référence en mathématiques appliquées, modélisation et intelligence artificielle, décision dans l’incertain, éthique de l’entrepreneuriat à l’ère des algorithmes, il a fondé un think-tank d’entrepreneurs & philosophes de l’intelligence artificielle.
Gonzague Chastenet de Géry - Directeur associé d’Ourouk depuis 2007, Gonzague Chastenet de Géry y développe l’offre de conseil en Knowledge Management, prônant un équilibre entre un KM mécaniste et un KM humaniste. Il a accompagné depuis 35 ans plusieurs dizaines d’entreprises, grands comptes et PME, par des cadrages stratégiques suivis le plus souvent par un accompagnement du partage d’informations métiers. Il est professeur associé au CNAM/INTD et coordinateur du certificat de spécialisation en gestion des connaissances (CRS 0200A) qu’il a créé il y a 7 ans. Il a publié « Le Knowledge management, levier de transformation à intégrer » (Deboeck, 2018).