
Rony, comment votre parcours en neuropédagogie et votre expérience de la transformation digitale dans l'éducation ont-ils influencé votre vision de l'intelligence artificielle dans le secteur de l'apprentissage ?
Je n’ai pas découvert l’IA par fascination technologique. Je l’ai rencontrée dans mes salles de cours, dans les pratiques des formateurs, dans les mains des étudiants.
Et tout de suite, une question m’a obsédé : qu’est-ce que cette machine change, profondément, dans notre façon d’apprendre ?
Mon parcours en neuropédagogie m’a appris une chose très simple, mais souvent oubliée : notre cerveau va au plus rapide. S’il peut déléguer une tâche mentale à un outil, il le fera. Et l’IA est justement conçue pour ça : anticiper, compléter, rédiger, résoudre… à notre place.
Le risque, c’est qu’à force de l’utiliser, on s’habitue à ne plus faire l’effort de penser. Et ce n’est pas une théorie : on commence à voir, dans certaines études, une baisse de l’attention, de la mémoire active, de la capacité à structurer ses idées.
Donc non, l’IA ne rend pas “bête”. Mais mal utilisée, elle peut nous déshabituer à penser par nous-mêmes.
Côté transformation digitale, ce que j’ai vu, c’est que les grandes ruptures ne se font pas avec de grands discours. Elles se font dans les petits gestes du quotidien.
Un étudiant qui demande à ChatGPT de lui réécrire une réponse d’examen.
Un enseignant qui crée une activité pédagogique sans savoir comment l’outil fonctionne.
Des contenus produits à la chaîne sans vraie relecture critique.
C’est ce mélange de puissance technologique et d’inconscience collective qui m’inquiète.
Pas pour demain. Pour aujourd’hui. Parce qu’on confond souvent ce qui est facile avec ce qui est utile.
Alors oui, mon parcours m’a rendu plus lucide que technophile.
Je crois au potentiel de l’IA dans l’apprentissage. Mais je crois surtout que si on ne prend pas le temps de former les esprits à s’en servir intelligemment, on risque de former des utilisateurs brillants… mais déconnectés de leur propre pensée
Pourriez-vous expliquer comment l'IA peut être intégrée de manière efficace et éthique dans les stratégies pédagogiques, en privilégiant la pédagogie avant la technologie ?
Intégrer l’IA dans l’éducation, ce n’est pas une affaire d’outils. C’est une affaire d’intention.
Quand on me demande comment faire, je réponds toujours : commencez par vous demander ce que vous voulez que vos apprenants deviennent.
Autonomes ? Critiques ? Créatifs ? Curieux ? Très bien.
Alors chaque usage de l’IA doit servir ces objectifs pédagogiques, pas l’inverse.
Aujourd’hui, beaucoup d’établissements adoptent des solutions IA comme on installe une imprimante. Rapide, pratique, standardisée.
Mais la vraie question, c’est : qu’est-ce qu’on gagne ? Et qu’est-ce qu’on perd ?
Une IA peut aider à personnaliser un parcours, générer des contenus adaptés, proposer des feedbacks en temps réel. C’est génial.
Mais si on l’utilise sans apprendre à penser avec elle, on fabrique des réponses automatiques… pas des compétences durables.
Je préfère qu’un étudiant se plante sincèrement dans un raisonnement que qu’il réussisse par copie assistée.
Et sur le plan éthique, il faut être clair :
– Qui contrôle les données générées ?
– Qui comprend comment fonctionne l’algorithme ?
– Qui peut expliquer à l’apprenant pourquoi la réponse de l’IA est pertinente, ou pas ?
Si ces questions n’ont pas de réponse dans une organisation, alors il ne s’agit pas d’une intégration éthique. Il s’agit d’un pilotage automatique.
Et en éducation, le pilotage automatique, c’est dangereux.
Pour moi, intégrer l’IA de façon efficace et éthique, c’est former les enseignants en premier, pas les plateformes.
C’est redonner du sens à ce qu’on appelle “apprendre”.
Et c’est poser cette règle simple :
Ce n’est pas parce qu’un outil est puissant qu’il doit remplacer l’effort humain.
Il doit l’augmenter, l’accompagner, mais jamais le court-circuiter.
En tant que facilitateur d'ateliers sur l'impact de l'IA en éducation, quelles sont les principales préoccupations des éducateurs concernant l'adoption de l'IA et comment y répondez-vous ?
Quand j’anime un atelier, il y a toujours un moment où ça craque.
Pas techniquement. Humainement.
Parce que sous la fascination ou la curiosité, il y a souvent deux sentiments très forts chez les enseignants : la peur de devenir inutiles… et la fatigue de devoir s’adapter encore.
La première préoccupation, c’est clairement la perte de sens.
Certains me disent : « Si ChatGPT peut tout corriger, tout expliquer, à quoi je sers ? »
Et ma réponse est simple : vous ne servez pas à faire cours. Vous servez à faire comprendre.
L’IA peut donner une réponse. Vous, vous donnez du cadre, de la nuance, de l’exigence.
Un bon prof, aujourd’hui, c’est pas celui qui a toutes les réponses. C’est celui qui aide l’élève à se poser les bonnes questions face à une machine qui en donne trop.
La deuxième, c’est l’inflation des injonctions.
Numérique, hybridation, IA, inclusion, transition écologique… ça fait beaucoup.
Et souvent sans temps, sans formation, sans cadre.
Je leur dis : vous n’avez pas à tout faire. Mais vous avez le droit de comprendre.
On ne vous demande pas de devenir ingénieur en IA. Mais si vous ne comprenez pas les logiques derrière ces outils, vous ne pourrez pas protéger vos apprenants. Ni leur transmettre l’autonomie critique dont ils ont besoin.
Et puis il y a une autre peur, plus sourde : celle de tricher sans s’en rendre compte.
L’enseignant qui prépare un cours avec l’IA, l’étudiant qui répond avec l’IA, l’algorithme qui corrige… à la fin, qui a vraiment appris ?
Là, je travaille beaucoup sur la clarté des objectifs pédagogiques. On remet à plat ce qu’on veut évaluer. On distingue la forme et le fond. On expérimente des modes d’évaluation qui tiennent compte de l’IA sans la subir.
En fait, ces ateliers ne sont pas techniques. Ce sont des ateliers de lucidité.
On y parle d’IA, oui. Mais on y parle surtout de métiers qui changent, de postures à redéfinir, de valeurs à garder.
Et à la fin, souvent, il y a moins d’angoisse.
Pas parce que c’est facile. Mais parce que, quand on comprend, on arrête de fantasmer. Et on commence à agir.
Vous avez collaboré avec des institutions reconnues comme PSB, IPAG et EMLV. Quels sont les bénéfices et les défis que vous avez observés en intégrant des solutions IA dans des établissements d'enseignement supérieur ?
À l’époque où je travaillais avec PSB, IPAG ou EMLV, on ne parlait pas encore d’IA générative. On parlait surtout de classe inversée, de Moocs, de plateformes d’apprentissage, d’hybridation du présentiel.
Mais en réalité, les questions de fond qu’on se posait… sont exactement les mêmes qu’aujourd’hui avec l’IA.
Comment on change la pédagogie sans perdre le lien humain ?
Comment on modernise sans standardiser ?
Comment on fait évoluer les pratiques… quand les structures bougent lentement ?
Les bénéfices ? Il y en a eu.
Ces projets ont permis de redonner de l’agilité à des formats figés, de sortir du face-à-face descendant, de rendre l’apprenant plus actif.
On a vu émerger de nouvelles postures pédagogiques. Des enseignants qui n’avaient jamais filmé un module se sont mis à scénariser leurs contenus. Des étudiants qui n’osaient pas intervenir en classe ont pris confiance en s’entraînant sur des quiz interactifs ou des supports vidéo.
Mais les défis étaient déjà là, et ils sont encore plus visibles aujourd’hui.
D’abord, l’illusion que la technologie suffit à transformer la pédagogie.
Poser une vidéo sur Moodle n’a jamais transformé une expérience d’apprentissage.
Ce qui fait la différence, c’est l’intention pédagogique derrière, le feedback humain, le droit à l’erreur, la mise en action. Et ça, aucune plateforme ne peut le fabriquer à notre place.
Ensuite, il y a eu le défi du collectif.
Dans chaque école, tu as toujours une poignée de pionniers qui foncent, qui expérimentent. Mais la majorité suit avec prudence, voire avec scepticisme.
Pourquoi ? Parce que les temps pédagogiques, les outils, la reconnaissance institutionnelle, tout ça reste souvent pensé pour un modèle ancien.
Donc on voit des pratiques numériques avancer… mais en dehors du cadre.
Et ça, ça crée une fracture. Entre les enseignants, entre les disciplines, entre ce qu’on affiche en comité de pilotage et ce qui se vit dans les salles.
Enfin, il y a la question de la durabilité.
On a tous vu passer des projets innovants, parfois très bien financés… qui s’arrêtent dès que l’équipe change ou que le financement se tarit.
Le vrai enjeu, ce n’est pas de lancer une nouveauté. C’est de créer des pratiques qui tiennent dans le temps, même quand le mot “innovation” est passé de mode.
Aujourd’hui avec l’IA, je vois les mêmes dynamiques rejouées.
Les outils sont nouveaux, mais les questions de fond sont les mêmes :
Comment on accompagne le changement sans l’imposer ? Comment on garde du sens dans un contexte technologique qui va toujours plus vite que les structures ? Et surtout, comment on forme des esprits critiques… dans un monde qui valorise l’automatisation ?
Comment la création de campus en ligne sur mesure grâce à l'IA peut-elle répondre aux besoins spécifiques des entreprises modernes, en particulier face à l'évolution rapide des métiers en tension ?
Aujourd’hui, les métiers évoluent plus vite que les diplômes. Et les besoins en compétences dépassent largement ce que les formations classiques peuvent absorber.
Face à ça, les entreprises ne peuvent plus attendre.
Elles ont besoin de former vite, bien, et sur des contenus ultra-ciblés, qui répondent à leurs enjeux réels, pas à des référentiels figés.
C’est là que les campus en ligne sur mesure, dopés à l’IA, deviennent intéressants. Pas parce qu’ils sont “à la mode”, mais parce qu’ils permettent de sortir du prêt-à-porter pédagogique.
Concrètement, un campus en ligne assisté par IA peut aider à :
– Identifier les écarts de compétences en temps réel, en croisant les données internes (projets, entretiens, KPIs RH) avec les évolutions métiers du marché.
– Produire des parcours ciblés, alignés sur les compétences stratégiques à développer, en quelques jours au lieu de plusieurs mois.
– Adapter le rythme et le format à chaque profil : un technicien sur le terrain n’a pas les mêmes contraintes qu’un manager en télétravail ou qu’un salarié en reconversion.
Mais ce que je défends surtout, c’est que l’IA permet de concevoir une pédagogie qui colle aux usages réels du terrain.
Pas des modules théoriques, mais des cas concrets, des simulateurs d’entretien, des micro-décisions à prendre, des mises en situation contextualisées.
On passe d’une logique “cours + quiz” à une logique “problème + solution + réflexivité”. Et ça change tout.
Évidemment, il y a des limites.
Un campus sur mesure n’est pas magique. Il faut un cadrage clair, un pilotage pédagogique solide, et surtout des humains pour accompagner, donner du feedback, maintenir l’engagement.
L’IA peut créer un parcours. Mais elle ne remplacera jamais la confiance, l’exigence, ni la culture d’apprentissage dans l’entreprise.
Ce que je constate, c’est que les entreprises qui réussissent à créer ces campus hybrides, ce sont celles qui ne confient pas le sujet à un service formation isolé.
Elles le co-construisent avec les opérationnels, les RH, parfois même les clients.
Elles partent du terrain. Et elles utilisent l’IA non pas pour faire à la place, mais pour aller plus vite et plus juste.
Pouvez-vous partager une expérience concrète où l'IA a transformé la méthodologie d'apprentissage dans un projet que vous avez dirigé chez Futur Possible ?
Bien sûr. Je vais te raconter un cas très concret, qui résume bien notre approche chez Futur Possible.
On travaillait avec un groupe du secteur de la cybersécurité, confronté à un problème simple mais lourd : comment former 200 techniciens à des compétences critiques… sans les sortir du terrain, et sans créer une usine à gaz ?
On a pris le problème à l’envers : plutôt que de concevoir des modules puis chercher où les caser, on est partis des incidents réels remontés par les équipes.
On a utilisé l’IA pour analyser ces remontées : tickets, rapports d’intervention, verbatims internes. L’objectif n’était pas de produire un “cours”, mais d’identifier les situations d’apprentissage invisibles, celles que les équipes vivent sans jamais les nommer.
Une fois les situations types identifiées, on a co-construit des scénarios de micro-apprentissage intégrés dans leur environnement de travail, avec l’aide d’outils IA génératifs.
Mais attention : on ne s’est pas contentés de leur donner la “bonne réponse”.
Chaque scénario proposait plusieurs issues possibles, avec un retour immédiat, contextualisé, et un lien avec la politique de sécurité réelle de l’entreprise.
Et là où l’IA a changé la donne, c’est dans la personnalisation en temps réel.
Un agent qui répondait “juste mais trop tard” recevait un feedback différent de celui qui répondait “vite mais mal”.
Et surtout, on a pu détecter des biais récurrents dans les prises de décision, qu’on a ensuite retravaillés en ateliers humains.
Résultat ?
– 82% d’engagement sur les séquences (contre 30% habituellement)
– une montée en compétence observable en 3 semaines
– et surtout, une prise de conscience collective que “formation” ne voulait pas dire “PowerPoint + quiz final”.
Ce que ce projet m’a appris, c’est simple :
l’IA ne transforme rien si on ne change pas notre façon de poser les problèmes.
Mais si on part du terrain, si on utilise l’IA pour écouter, pour détecter, pour scénariser intelligemment… alors là oui, on peut créer des expériences d’apprentissage qui ont un vrai impact.
Et ça, c’est exactement ce qu’on essaie de faire chez Futur Possible : rendre l’apprentissage aussi vivant que les situations auxquelles on prépare.
Avec l'évolution continue de l'IA, quelles stratégies recommanderiez-vous aux institutions éducatives pour réussir leur transition digitale tout en gardant l'humain au centre de l'apprentissage ?
La première chose que je dis aux institutions, c’est : arrêtez de courir après les outils.
La vraie question, ce n’est pas “quelle IA adopter ?”, c’est “quelle pédagogie voulons-nous incarner dans 5 ans, et avec quels humains ?”
L’IA va continuer d’évoluer, c’est inévitable.
Mais les repères profonds d’un établissement — ce qu’on valorise, ce qu’on évalue, ce qu’on transmet —, ça, ça ne doit pas se faire au rythme des mises à jour.
Alors quelles stratégies je recommande ? Trois, très concrètes :
1. Commencer par former les équipes, pas par acheter des licences.
Si vos enseignants, vos coordinateurs pédagogiques, vos responsables de filières ne comprennent pas les logiques de l’IA (pas le détail technique, mais les grands mécanismes), ils ne pourront pas l’intégrer de manière consciente.
Et un outil mal compris devient vite un outil mal utilisé.
2. Repenser les modèles d’apprentissage autour de la décision humaine.
Aujourd’hui, l’IA peut produire, corriger, résumer, noter…
Mais elle ne peut pas remplacer la capacité à juger, à douter, à relier des savoirs entre eux.
Donc il faut repenser nos évaluations, nos activités, nos accompagnements… pour qu’ils forcent l’apprenant à se positionner, pas juste à consommer.
Former des esprits critiques, c’est encore plus vital qu’avant.
3. Créer une gouvernance éthique, pédagogique et partagée de la transition.
Ce n’est pas un sujet que l’on peut déléguer aux seuls services numériques ou aux directions générales.
Il faut une gouvernance mixte : profs, étudiants, équipes techniques, chercheurs, entreprises partenaires.
Et il faut des instances où on ose poser des questions difficiles : qu’est-ce qu’on veut garder ? qu’est-ce qu’on veut transformer ? à quelles conditions on accepte d’automatiser ?
Et surtout, il faut se souvenir de ça : le numérique, c’est un levier. L’humain, c’est le projet.
Une bonne transition digitale, ce n’est pas celle qui impressionne. C’est celle qui donne envie d’apprendre, de transmettre, de s’engager.
Et ça, aucune IA ne peut le faire à notre place.
Rony Germon, PhD, est le fondateur de Futur Possible, une entreprise spécialisée dans la transformation digitale des organismes de formation. Il possède plus de 15 ans d'expérience dans le domaine de la neuropédagogie et du digital learning. Rony propose des solutions personnalisées pour créer des campus en ligne, digitaliser des offres de formation et former aux métiers en tension. Il a dirigé des projets pour diverses institutions, en intégrant l'intelligence artificielle dans l'apprentissage. Son approche se concentre sur la pédagogie active et l'innovation technologique. Rony est également un facilitateur de la Fresque des IA Pédagogiques, explorant les impacts de l'IA sur les pratiques éducatives.