La Fresque de l'IA, un atelier pour comprendre, débattre et agir !  (Nicolas Blanchon, La Fresque de l'IA)

Bonjour Nicolas, pourriez-vous partager avec nous le moment où vous avez décidé de vous investir dans le domaine de l'intelligence artificielle et de créer La Fresque de l'IA ?

Cela remonte à plusieurs années, dès ma formation initiale de juriste. À l’époque, on parlait beaucoup du Big Data : ses impacts juridiques commençaient tout juste à émerger, et les réponses du législateur ou du juge tâtonnaient. Nous venions à peine de prendre conscience de ce « monde parallèle » qu’est le web, un espace où le rôle de l’État était remis en question, incapable de maîtriser complètement cette nouvelle dimension. C’est aussi à ce moment-là que nous avons commencé à déléguer, souvent sans le savoir, la gestion de nos données personnelles, sans mesurer les conséquences que cela aurait pour l’avenir.

Par la suite, à travers différentes expériences, notamment dans le conseil en informatique pour les entreprises, j’ai pu approcher l’IA non plus seulement sous l’angle juridique, mais également sous l’angle technique. J’ai appris à comprendre comment fonctionnaient les systèmes informatiques, des architectures classiques jusqu’aux systèmes experts, aux réseaux de neurones, au machine learning et au deep learning.

Et puis l’IA générative est arrivée, et je m’y suis plongé avec passion depuis plusieurs années. C’est donc tout naturellement que j’ai voulu créer La Fresque de l’IA, pour réunir mes deux intérêts (technique et juridique) et contribuer à une IA plus responsable, éthique, ou à tout le moins, mieux encadrée.

En tant que fondateur de La Fresque de l'IA, quels sont selon vous les aspects les plus méconnus mais cruciaux des impacts de l'intelligence artificielle générative sur notre société ?

Grâce à mon associé Jérôme, philosophe et psychologue de formation, et à notre intérêt partagé pour les neurosciences, je dirais que ce qui nous frappe le plus aujourd’hui, au-delà des impacts plus ou moins connus (sociaux, environnementaux, économiques, éthiques, culturels ou liés à la cybersécurité), c’est l’incroyable paradoxe autour de la notion même d’intelligence.

Depuis trois ans, jamais nous n’avons autant utilisé les mots intelligence artificielle… alors même qu’aucun consensus n’existe sur ce qu’est l’intelligence, ni même sur ce que recouvre réellement l’IA. Et pourtant, nous avançons tête baissée, souvent en laissant libre cours à nos fantasmes technophiles ou technophobes. Je ne parle même pas de notre incompréhension de la conscience humaine, qui alimente l’illusion qu’une IA forte, dotée d’intentionnalité, serait à portée de main.

Un autre aspect méconnu mais essentiel est celui de la comparaison implicite que nous faisons entre l’humain et la machine : en accolant le mot artificielle à intelligence, nous suggérons une forme de mimétisme ou de rivalité. Pourtant, peu de personnes comprennent réellement le fonctionnement de leur propre cerveau, alors même que cette connaissance est indispensable pour poser les bases d’un débat éclairé sur ce qui distingue fondamentalement l’humain de la machine.

Si chacun prenait le temps de s’interroger sur ces fondements avant de se précipiter dans les impacts mis en avant par des discours parfois très sensationnalistes, cela permettrait de retrouver un esprit critique salutaire, cette prise de hauteur indispensable face au changement de paradigme que représente l’intelligence artificielle (qui, je le rappelle, ne date pas du "coup marketing" d’OpenAI en novembre 2022).

Pourriez-vous nous parler d'un cas d'usage de l'IA générative que vous avez trouvé particulièrement innovant ou pertinent, et comment vous l'avez exploré au sein de votre initiative ?

L’un des cas d’usage de l’IA générative que je trouve particulièrement innovant, et surtout véritablement impactant, est celui de la formation. C’est un domaine qui semble simple en apparence, notamment sur le plan textuel, mais qui ouvre des perspectives immenses.

On peut bien sûr imaginer une IA générative nous aider à créer des cours, à concevoir des parcours personnalisés, ou encore à automatiser certaines formes d’évaluation. Ce sont des usages qui font déjà couler beaucoup d’encre dans le monde académique. Mais la vraie question, selon moi, est : comment repenser en profondeur notre rapport à l’apprentissage, à l’enseignement, et plus largement à la transmission des savoirs ? On observe déjà, d’un côté, des étudiants qui ont tendance à déléguer facilement une partie de leur travail à l’IA, et de l’autre, des enseignants qui doivent réinventer leurs méthodes pour s’assurer que les savoirs sont réellement intégrés.

Dans le monde de l’entreprise, les potentialités sont tout aussi fortes : l’IA peut devenir un véritable levier pour le suivi des compétences, la personnalisation des parcours en fonction des expériences individuelles, voire une meilleure adaptation aux spécificités de chacun, notamment en matière de handicap et d’accessibilité. On peut aussi imaginer un usage très pertinent dans l’onboarding des nouveaux arrivants : aujourd’hui, le salarié senior qui accompagne un nouveau collègue n’a pas toujours le temps de transmettre efficacement, car il continue d’exercer son activité à plein temps. Sans remplacer le lien humain, on peut envisager une IA générative, sous forme de "jumeau numérique" ou de chatbot spécialisé, entraînée sur les processus internes, les bonnes pratiques, l’expertise de terrain… pour offrir un accompagnement accessible, disponible à tout moment, et complémentaire aux temps d’échange en présentiel, plus qualitatifs mais moins fréquents.

Enfin, dans un contexte professionnel plus opérationnel, qu’il s’agisse de préparer un rendez-vous commercial ou un entretien sensible, l’IA générative peut aussi jouer un rôle très précieux. À condition, bien sûr, de bien paramétrer les modèles et de réfléchir aux bons prompts en amont. On voit déjà émerger des expérimentations intéressantes : des IA vocales utilisées pour simuler un client mécontent et s'entraîner à répondre de manière adaptée, ou encore, dans le domaine médical, des outils pour aider les médecins à se préparer à des échanges particulièrement délicats, comme avec des victimes de violences psychologiques ou sexuelles, en s'entraînant à choisir les bons mots, avec tact et justesse. Dans ce cas, l’IA devient un véritable sparring partner, renforcé par la dimension vocale, pour faire face à des situations humaines complexes.

Avec votre expérience en transformation des entreprises, quels sont les principaux défis auxquels les entreprises font face lors de l'intégration de l'intelligence artificielle, et comment peuvent-elles s'y préparer ?

Je dirais que les principaux défis liés à l’intégration de l’intelligence artificielle en entreprise relèvent davantage de réflexes humains que de freins techniques. L’un des premiers réflexes que nous observons concerne la cybersécurité, et plus précisément la crainte de fuites de données. Cette inquiétude se transforme rapidement en une réflexion plus large sur l’usage responsable de l’IA, avec en tête l’objectif de sécuriser au maximum les pratiques internes.

Face à cela, les entreprises réagissent de différentes manières. Certaines, par réflexe défensif, choisissent d’interdire purement et simplement tout usage d’IA générative. Cela leur semble être la meilleure manière d’éviter les risques, notamment la divulgation d’informations confidentielles. Mais cette stratégie du refus peut s’avérer contre-productive, car elle pousse les collaborateurs à utiliser ces outils en dehors du cadre professionnel, souvent via leur téléphone personnel, sans supervision, ni sensibilisation. On alimente ainsi ce qu’on appelle le « shadow AI » : une utilisation informelle et incontrôlée de l’IA, qui accroît paradoxalement les risques.

D’autres entreprises adoptent une posture plus ouverte, en autorisant l’usage de l’IA tout en posant rapidement des règles : elles définissent des usages éthiques, rappellent que ces outils ne sont pas infaillibles, et encouragent leurs collaborateurs à faire preuve d’esprit critique. Cette approche repose sur la confiance et sur l’idée que la formation est la meilleure protection. Enfin, certaines entreprises optent pour des outils maison, comme des ChatGPT internes. Cette solution semble idéale à première vue, mais elle implique de rester technologiquement à jour. Dans le cas contraire, on risque de proposer un outil peu ergonomique ou obsolète, que les collaborateurs déserteront au profit de solutions non encadrées.

Ce qui ressort de toutes ces approches, c’est qu’aucune ne peut faire l’impasse sur la formation. La sensibilisation apparaît comme le levier le plus important pour accompagner une adoption maîtrisée de l’intelligence artificielle. C’est précisément ce à quoi répond La Fresque de l’IA, qui s’inscrit d’ailleurs dans l’esprit de l’article 4 de l’AI Act : une obligation de moyens pour faire prendre conscience aux collaborateurs des risques liés à l’IA, afin qu’ils soient en capacité de les maîtriser. Cette responsabilisation individuelle contribue à bâtir une responsabilité collective, qui pourra ensuite être traduite dans une charte éthique et intégrée au règlement intérieur. Cela permet non seulement de formaliser un cadre d’usage, mais aussi d’engager officiellement l’entreprise dans une démarche cohérente, éthique et conforme.

La Fresque de l'IA met un accent sur la sensibilisation. Quels outils ou méthodes utilisez-vous pour éduquer efficacement les différentes parties prenantes sur les implications de l'IA, et lesquels ont montré le plus de succès ?

La Fresque de l’IA s’inscrit dans la grande famille des "fresques", aux côtés de celle du Climat ou du Numérique, qui ont largement contribué à éveiller les consciences. Bien que nous partagions leur démarche méthodologique (atelier collaboratif, jeu de cartes, intelligence collective), nous nous en différencions sur plusieurs points essentiels et c’est précisément ce qui fait la richesse et le succès de notre approche.

Chaque Fresque de l’IA est personnalisée. Elle l’est en fonction du niveau de maturité des participants vis-à-vis de l’IA, de leur métier (ou plus exactement de leurs fonctions), et des ambitions stratégiques de l’organisation dans laquelle nous intervenons. Ce n’est pas une fresque « générique », mais un atelier ancré dans le réel, pensé pour déboucher sur l’action.

Nous restons dans une logique de sensibilisation, mais avec une approche orientée solutions : nous travaillons à partir de cas d’usage concrets, métier par métier, afin d’identifier les opportunités liées à l’IA mais aussi les risques, et surtout les conditions de succès pour une intégration responsable. Ces impacts ne sont pas uniquement environnementaux (même si cet aspect est central) mais également sociaux, économiques, cyber, éthiques et culturels. Nous insistons particulièrement sur la notion de responsabilité.

Cette orientation « action » se prolonge au-delà de l’atelier. Deux à trois semaines après chaque fresque, nous remettons un livrable au commanditaire. Ce document revient sur les apprentissages clés de chaque atelier, propose une synthèse générale, et fait émerger, à partir d’un vote final, trois à quatre cas d’usage prioritaires, assortis de leurs conditions de réussite. On y trouve aussi des exemples inspirants issus d'autres entreprises, ainsi que des ressources pour poursuivre la réflexion (lectures, rapports, références...).

Un autre point fort de la Fresque de l’IA est l’ouverture réflexive avec laquelle nous débutons systématiquement chaque session. Nous commençons par un temps de prise de hauteur : qu’est-ce que l’intelligence ? La conscience ? Comment prend-on une décision ? Et où se situe réellement l’intelligence artificielle dans ce paysage ? Ce moment introductif est volontairement accessible et vulgarisé, pour que chacun puisse s’approprier les enjeux. Comme pour une télévision, il n’est pas nécessaire de savoir la réparer, mais il est légitime d’en comprendre le fonctionnement de base.

Enfin, nous abordons les questions de régulation, et notamment les réponses (ou tentatives de réponse) apportées par l’AI Act ou d’autres cadres juridiques. Ce moment d’introduction est conçu comme un temps de partage et de débat, où chacun peut exprimer ses interrogations, ses fantasmes technophiles ou technophobes. La Fresque devient ainsi un moment « sacralisé » autour de l’IA, un vrai temps de pause pour comprendre ce dont on parle réellement, avant de passer à l’atelier collaboratif.

En regardant vers l'avenir, quelles tendances ou évolutions majeures anticipez-vous dans le domaine de l'intelligence artificielle, et comment La Fresque de l'IA s'y adaptera-t-elle ?

Difficile de répondre à cette question sans boule de cristal !
Mais certaines grandes tendances se dessinent déjà clairement.

L’une des évolutions majeures à surveiller reste celle de l’intelligence artificielle générale (ou forte), c’est-à-dire une IA capable d’égaler, voire de dépasser, l’intelligence humaine. C’est cette perspective (encore lointaine) qui alimente nombre de fantasmes, tant technophiles que technophobes, et qui prolonge le rêve initial formulé dès la conférence de Dartmouth en 1956. Elle continue à attirer des investissements massifs dans la tech, tout en soulevant d'immenses questions éthiques et philosophiques.

Mais si l’on revient les pieds sur terre, la réalité immédiate tient à des enjeux bien plus concrets : la montée en puissance de l’obligation de sensibilisation à l’IA. L’article 4 de l’AI Act impose aujourd’hui aux organisations de former ou sensibiliser leurs collaborateurs à ces technologies. Or, très peu d’entreprises ont encore mis en place des dispositifs à grande échelle. C’est à la fois une tendance actuelle, une exigence réglementaire, et un impératif stratégique à moyen terme. C’est précisément là que La Fresque de l’IA se positionne : comme un outil accessible, personnalisé, qui permet à chacun de mieux comprendre, questionner et apprivoiser l’IA.

Autre évolution majeure : la démocratisation de l’IA générative. Elle bouscule les équilibres au sein des organisations, notamment sur le plan social. Les effets ressentis sont souvent humains avant d’être techniques. Cela ouvre un nouveau chapitre du dialogue social, dans lequel l’employeur a un devoir de transparence et de communication. La Fresque permet d’aborder ces sujets de façon constructive et ouverte, en partant des usages réels.

Une tendance plus discrète, mais structurante, concerne le modèle économique des fournisseurs d’IA générative. Ces acteurs cherchent encore leur équilibre entre accessibilité des outils, rentabilité des modèles, et coût environnemental. Cela affecte directement les organisations : le coût d’usage (licence, token, etc.) devient une question stratégique. Cela pousse aussi à explorer des architectures plus frugales, moins énergivores, et donc potentiellement plus durables. Là encore, nous intégrons ces considérations dans nos ateliers, notamment sur la responsabilité environnementale.

On observe aussi une attente croissante autour de la robustesse des modèles : réduction des biais, lutte contre les hallucinations, détection des fake news… Des défis techniques qui renvoient à nos propres limites cognitives et à la manière dont nous alimentons les IA. Cela explique, par exemple, la multiplication des partenariats entre grands éditeurs de presse et fournisseurs d’IA, pour nourrir les modèles avec des contenus fiables. Ce phénomène soulève bien sûr des questions centrales de propriété intellectuelle : comment garantir le respect du droit d’auteur à l’ère des IA génératives ? Comment encadrer juridiquement ces usages ? Ces débats sont désormais au cœur des évolutions réglementaires et nous les abordons dans La Fresque de manière accessible et engagée.

Enfin, l’arrivée annoncée de l’informatique quantique pourrait transformer profondément les capacités de traitement des IA. Si cette révolution technologique se confirme, elle amplifiera encore les usages possibles, mais aussi les responsabilités associées. C’est une perspective vertigineuse, qui nécessite plus que jamais de former, débattre, anticiper.

Face à toutes ces évolutions, La Fresque de l’IA s’adapte et évolue en permanence, à l’écoute des signaux faibles comme des grands basculements. Notre promesse reste la même : créer un espace de dialogue, de compréhension et d’alignement autour des usages de l’IA, au service d’une intégration responsable.

Quelles leçons avez-vous apprises de votre parcours, notamment en co-fondant Galances Conseil, qui pourraient bénéficier à ceux qui cherchent à se lancer dans le secteur de l'IA aujourd'hui ?

La première leçon essentielle que j’ai apprise, c’est l’importance de rester focalisé sur son expertise et sur ce qu’on peut concrètement apporter aux autres. Le secteur de l’IA regorge aujourd’hui d’« experts » autoproclamés qui pullulent sur les réseaux sociaux. Mais ce qui compte vraiment, c’est la capacité à traduire des compétences réelles au service de la sensibilisation ou de l’intégration de l’IA dans les organisations.

Chez Galances Conseil, par exemple, mon associé Jérôme est philosophe et psychologue. Il mobilise ses compétences pour aider chacun à prendre de la hauteur sur l’IA, notamment en questionnant les notions d'identité, de conscience et de décision qui sont au cœur de notre rapport à ces technologies. De mon côté, je suis juriste de formation : j’apporte une lecture éthique, réglementaire et responsable des usages de l’IA. C’est un axe fondamental aujourd’hui, car il ne suffit pas de savoir comment l’utiliser, il faut aussi réfléchir à pourquoi et dans quelles conditions.

Nous avons eu la chance de croiser deux centres d’intérêt très complémentaires : les sciences cognitives (ancrées dans le parcours de Jérôme) et la compréhension des technologies (sans se perdre dans la technique pure, mais en saisissant les logiques sous-jacentes). Cela nous a permis de construire, pas à pas, une offre cohérente, qui a donné naissance à des formats comme La Fresque de l’IA.

Autre leçon clé : il est vital de rester agnostique technologiquement. Il ne faut pas s’attacher à un outil ou à un fournisseur. Tout évolue très vite, et personne ne peut dire quels acteurs seront encore là dans 2, 5 ou 10 ans. En restant indépendants, on évite aussi les effets de verrouillage technologique et les conflits d’intérêts.

Enfin, il est crucial de ne pas tomber dans une posture pro-IA ou anti-IA. Dans un travail de sensibilisation, ce manichéisme est contre-productif. Il faut au contraire cultiver un regard critique, nuancé, et prendre de la hauteur, pour aborder l’IA sans fantasme ni rejet. Cette posture est essentielle, autant pour accompagner efficacement la conduite du changement que pour préserver la crédibilité de l’organisation et de ceux qui l’accompagnent.

Une chose à ne jamais perdre de vue : l’IA n’est pas une fin en soi. C’est un outil, qui peut aider à atteindre des objectifs plus rapidement, plus efficacement, et de façon plus sécurisée. Mais encore faut-il avoir un objectif clair. On ne fait pas de l’IA pour faire de l’IA.


Nicolas est juriste de formation, passionné de technologie et d’innovation. Il a eu l’opportunité d’accompagner plusieurs plans de transformation, principalement autour de la data. Co-auteur de l’ouvrage L’IA dans tous ses états (à paraître en décembre) et co-fondateur de La Fresque de l’IA et du Sac à dos de l'IA, il s’attache à rendre les bouleversements technologiques accessibles et concrets. À la croisée des enjeux humains, éthiques et économiques, il œuvre pour un usage responsable, souverain et créateur de valeur de l’intelligence artificielle dans nos sociétés.

Partager cette page
Publié le   •   Mis à jour le
Partager cette page
Parole d'experts




Les plus lus



À lire aussi










Les articles par date