Joël, vous avez plus de 35 ans d’expérience dans les grandes transformations, notamment dans la finance : qu’est-ce qui vous a convaincu que l’IA agentique constituait une nouvelle rupture, différente des vagues précédentes de digitalisation que vous avez pilotées ?
Je ne dirais pas que l’IA est de nature complètement différente de révolutions majeures que l’humanité a connues comme l’électricité ou le digital par exemple. Mais elle frappe par la rapidité de sa diffusion et la simultanéité touchant en peu de temps l’ensemble des secteurs économiques et sociaux. Cela dit, je pense qu’il existe sans doute encore devant nous de nouvelles frontières comme par exemple la robotique ou la super intelligence…
Mais l’IA argentique me parait une rupture majeure car elle permet de réellement transformer l’organisation du travail dans les entreprises avec un haut niveau de fiabilité et de précision.
Durant toute ma carrière, en travaillant avec mes clients des services financiers nous avons toujours cherché à mettre en œuvre des process plus efficaces et produisant des résultats de meilleure qualité à des couts optimisés… Les Agents IA permettent d’atteindre ces objectifs voire de les surpasser.
Encore faut-il prendre en compte sa réelle puissance de transformation ! Pour moi, la question n’est plus de savoir s’il faut déployer des agents IA : c’est acquis. La question est de décider si on met en œuvre des agents qui exécutent des tâches — même très bien — ou si on construit des agents capables de réfléchir ensemble, d’apprendre des équipes et de rendre l’organisation plus intelligente.
Vous insistez sur le fait que les briques technologiques pour déployer des projets agentiques existent déjà, et qu’une plateforme peut être mise entre les mains de managers non techniques. Concrètement, à partir de votre expérience, à quoi ressemble un premier projet « raisonnable » d’IA agentique dans une entreprise, et quelles sont les erreurs les plus fréquentes que vous observez à ce stade de démarrage ?
Je ne suis pas sûr qu’il existe déjà de méthode « éprouvée » de mise en œuvre de projets agentiques même si tous les consultants disent le contraire. Pour ma part, je tire des enseignements de la mise en œuvre de notre projet agentique dans la construction de Cirkles, notre plateforme collaborative de lutte contre les fraudes aux financements. Cirkles a commencé comme une entreprise « ordinaire » avec une équipe, des process et une offre différenciante. Nous avons décidé de mettre en œuvre progressivement une architecture à base d’agents IA.
Une bonne manière de se lancer est de commencer par une réflexion sur les tâches et les interactions au niveau d’une entité idéalement sous le même management pour éviter dans un premier temps de traiter trop de processus en simultané ou, à l’opposé, de se focaliser sur des activités trop petites par rapport aux enjeux de l’entreprise. La manière la plus pragmatique est de décrire le fonctionnement cible par des fiches de postes (et non des spécifications fonctionnelles !) qui mettent en évidence non seulement les tâches confiées mais également les comportements et valeurs à adopter ainsi que les modes d’interactions.
Bien sûr, cette approche doit être précédée par une phase de sensibilisation à la démarche de l’ensemble des parties prenantes, à la fois sur les aspects technologiques et de transformations des organisations. Je suis en effet souvent surpris de constater que les équipes ont une vision réduite des capacités des agents IA et de leur potentiel d’actions.
Il faut ensuite progresser par versions successives dans une approche « essai/erreur » mais en gardant toujours la vision de la globalité de l’organisation. C’est ce que j’appelle « évoluer par état stable ». En effet, la principale erreur à éviter dans un projet de ce type là est d’en faire d’abord un projet technologique pour optimiser jusqu’au bout une tache par un agent IA puis passer à la suivante sans se préoccuper du fonctionnement global de l’Entité et de la qualité finale du service qu’elle délivre pendant cette période de construction.
Vous expliquez que les grands modèles de langage généralistes sont peu adaptés à certains contextes industriels, et que la valeur vient d’agents spécialisés formés sur des données métiers. Pourriez-vous décrire un cas d’usage type – par exemple dans le secteur financier ou le business development – où cette spécialisation change réellement la donne en termes de productivité ou de qualité de service ?
Ce n’est pas le LLM quel qu’il soit qui est en cause mais plutôt les données d’apprentissage (pas seulement les données factuelles mais également les données non structurées comme les consignes, les critères d’appréciation, les valeurs de l’entreprise…). Il faut vraiment disposer de sources de données qu’on estime fiables et représentatives de l’activité. Par exemple, pour entrainer nos agents IA, nous avons utilisé près de 500 000 dossiers de financements alimentés par nos partenaires bancaires. Chaque bloc de dossiers a été enrichi de méta données propres à la politique et culture financière et de risque des entités parties prenantes.
Mais le problème principal n’est pas là. En fait, notre ambition est de mettre en œuvre une organisation globale de l’entreprise plus efficace et plus intelligente. Elle est fondée sur une organisation « hybride » où humains et agents IA collaborent ensemble pour détecter les fraudes. Ils apportent leur raisonnement, remettent en question l’analyse des agents et ajustent les recommandations et le système enregistre non seulement ce qu’ils ont décidé, mais aussi comment ils ont raisonné. Nous sommes persuadés que c’est au final le partage de points de vue et d’intelligences qui fait la force du service délivré ! Il est donc important d’avoir une diversité d’intelligences pas seulement entre humains et machines mais également entre Agents IA qui collaborent aussi entre eux. Quand un agent IA en charge des limites de risque demande son avis à un autre Agent IA en charge des analyses de liasses fiscales, il nous parait clé qu’ils raisonnent sur la base d’intelligences différentes. Dans ces conditions, construire des Agents IA sur la base de LLM différents devient très intéressant. Et cela n’est pas encore si simple à l’heure actuelle…
Vous parlez d’agents qu’il faut « gérer » et « coacher » comme des collaborateurs humains. Si l’on se place à l’échelle d’un comité de direction, comment doit-on, selon vous, structurer la gouvernance de ces agents IA : qui est responsable de leurs performances, de leurs dérives potentielles, et comment mesure-t-on leur contribution réelle à la création de valeur ?
Si on prend la mesure totale de la transformation avec l’Agentique, on voit bien que l’on met en œuvre des équipes « hybrides » mixant les postes et les responsabilités. Dans ces conditions, les objectifs sont fixés à l’ensemble du Service ou de l’Entreprise et non aux seuls humains. Il est important de s’assurer que tout le monde (humain et agents IA) partage les mêmes critères de décisions et les mêmes valeurs. Diffuser une culture d’entreprise à des humains est quelque chose de connu (c’est le rôle des RH, de la Com et du management…) mais la faire partager par des agents IA, c’est autre chose ! il faut ajuster leur programmation pour leur faire intégrer des nuances, des critères de décisions parfois complexe à exprimer. On y arrive rarement du premier coup et on risque ce qu’on appelle un mauvais « alignement ». En cela il faut reprendre et corriger les outputs des agents pour leur faire intégrer progressivement des notions telles que le sens du service ou le fait que le manque de certains documents ne signifie pas forcément « fraude potentielle ». Tout cela s’apparente à du « coaching » auprès d’agents IA.
La coexistence d’équipes mixtes – humaines et agentiques – pose des questions RH inédites : culture d’entreprise, éthique, responsabilité sociale. À partir de vos travaux (Next Generation Bank, Scenarios for the World to Come…) et de votre expérience de dirigeant, quelles nouvelles compétences et nouveaux rôles doivent émerger dans les RH et le management pour éviter que ces agents ne deviennent des « boîtes noires » incontrôlées au cœur des organisations ?
Je crois que les méthodes de motivations individuelles et collectives doivent évoluer pour prendre en compte ces équipes hybrides. Le plus souvent, ces méthodes se structurent autour d’actions cohérentes autour du triptyque Richesse des taches – Exemplarité du manager – Fierté dans l’entreprise. Avec l’émergence des agents IA, il faut y intégrer des notions nouvelles liées à la programmation des éléments de récompense d’un agent IA. Cela se résume souvent à la manière de fixer les objectifs aux agents IA en prenant en compte des facteurs que l’on juge implicite ou que l’on décrit de manière floue. Comment traduire pour une intelligence artificielle des notions telles que « faire preuve d’indulgence », « faire confiance », « avoir le sens du service » …
Je ne pense pas que les RH et les managers doivent acquérir des compétences plus technologiques mais davantage de précisions et d’explicitations dans les concepts qu’ils manipulent et les actions qu’ils entreprennent. Au final peut être qu’une sensibilisation aux neurosciences pourrait être une première action valable.
Si l’on se projette à 5–10 ans, à quoi ressemble, selon vous, une entreprise qui a pleinement intégré l’IA agentique : quels métiers auront le plus changé, quels seront les nouveaux risques systémiques à surveiller, et sur quels critères se fera la différence entre les entreprises qui auront réussi cette transition et celles qui l’auront subie ?
La mise en œuvre d’une architecture agentique se met souvent en œuvre de manière progressive : On commence souvent par des agents IA focalisés sur des taches précises dans une recherche de gains de productivité puis vers des agents multi taches qui assument de véritable « Poste de travail ». Mais les capacités les plus transformatrices sont encore devant nous avec la mise en œuvre des agents IA vers « un écosystème d’agents » : une architecture dans laquelle des agents IA communiquent et collaborent avec d'autres agents humains ou IA.
Ainsi, la réussite se jugera sur la capacité des entreprises à capter et générer le plus de valeur de nouvelles propositions de valeur, de nouveaux métiers et de nouvelles sources de business.
On peut penser qu’il existera encore des entreprises qui prendront le chemin inverse et décideront de se différencier par un recours à « l’humain avant tout ». Je suis persuadé qu’elles pourront avoir leur place et trouver leur clientèle mais sur un marché limité. Un peu comme le marché « bio » ou « fait maison » aujourd’hui.
Pour conclure, quel message souhaiteriez-vous adresser aux dirigeants et managers qui voient bien le potentiel de ces agents IA mais hésitent encore, entre fascination et crainte : par quoi leur conseillez-vous de commencer, et quel principe éthique ou stratégique devraient-ils garder en tête en permanence ?
Je leur recommande d’avoir une ambition élevée pour leur projet Agentique : Penser à une organisation complète pour augmenter la performance actuelle de leur entreprise ou du département en ne considérant pas les agents IA comme de simples outils de productivité ni les humains comme des contrôleurs ou des superviseurs des Agents IA mais plutôt comme des collègues qui collaborent ensemble pour une plus grande intelligence collective…
Je trouve que c’est un projet positif qui ne s’énonce pas comme une simple réaction à un environnement business qui s’impose.
Joël Nadjar est le Chief Strategy Officer et co-fondateur de Cirkles, où il développe une plateforme technologique pour prévenir la fraude financière à l'aide de modèles d'intelligence artificielle. Il possède plus de 35 ans d'expérience dans le conseil et la mise en oeuvre de projets de technologies avancées, notamment chez Accenture et Wavestone, principalement dans le secteur des services financiers. External Lecturer à l'Essec et dans une école d'ingénieurs IT, il a lancé la division Éducation de Teamwill, une ESN spécialisée dans le financement. Il est diplômé de l'Institut d’Études Politiques de Paris.