Réconcilier stratégie, éthique et performance : L’intelligence artificielle à hauteur de PME (Naully Nicolas, Plato’s Dilemma)

Bonjour Naully, dans le cadre de votre rôle en tant que Chief Strategy Officer chez GUILD4AI, comment avez-vous vu l'évolution de l'intégration de l'IA dans les PME et les ETI au cours des dernières années ?

L’intégration de l’IA dans les PME et ETI est passée du fantasme technologique au pragmatisme stratégique. Au départ, beaucoup se sont lancées avec des POCs (proof of concept) isolés, souvent portés par l’enthousiasme d’un décideur, mais sans vision d’ensemble. Aujourd’hui, on observe un tournant : les entreprises cherchent à structurer l’adoption de l’IA autour de cas d’usage simples, utiles et mesurables. L’IA n’est plus un sujet IT, c’est un levier de transformation transversal. Chez GUILD4AI, nous accompagnons les dirigeants à passer de la peur de “l’IA qui remplace” à la performance par l’IA qui augmente.

Étant un expert actif dans des secteurs aussi réglementés que l'énergie, la finance et la santé, quels sont les défis uniques que vous rencontrez lors de l'adoption de l'IA dans ces industries spécifiques ?

Trois défis principaux : la régulation, la confiance, et la gouvernance des données. Dans ces secteurs, l’IA ne peut pas être un “boîte noire”. Il faut des systèmes explicables, audités, et conformes. Par exemple, dans la santé, un modèle performant mais opaque est inutilisable s’il ne respecte pas le consentement éclairé et les protocoles. En finance, l’algorithme ne doit pas juste prédire — il doit aussi justifier ses décisions. Cela suppose une collaboration étroite entre métiers, DSI, juristes, et data scientists. L’IA ne remplace pas l’humain : elle doit rendre son jugement plus sûr, plus rapide, plus documenté.

Vous proposez des formations et des serious games autour des enjeux éthiques de l'IA - pouvez-vous partager certains des dilemmes éthiques les plus pressants auxquels les entreprises font face aujourd'hui concernant l'IA ?

Oui — et ces dilemmes ne sont plus théoriques. Chaque jour, des entreprises se retrouvent à arbitrer entre performance et transparence, automatisation et responsabilité humaine, optimisation des données et respect des libertés. Faut-il autoriser une IA à évaluer des candidats ? À détecter des signaux faibles de santé mentale chez des employés ? À prendre des décisions commerciales sans validation humaine ? Ces choix ne relèvent plus du futur : ils s’imposent maintenant.

Pour sensibiliser sans moraliser, j’ai conçu Plato’s Dilemma, un serious game qui transforme ces enjeux en expérience collective. À l’heure où l’intelligence artificielle influence de plus en plus les décisions humaines, ce jeu propose une immersion inédite : incarner des entités mythologiques chargées de gouverner une mégacorporation techno-divine. Chaque tour de jeu confronte les participants à des dilemmes stratégiques et éthiques inspirés du réel :

Faut-il interdire les IA capables de manipuler les émotions humaines ?

Peut-on sacrifier la vie privée pour garantir la sécurité d’un État ?

Une IA propose une réforme politique plus efficace que les humains. L’adopte-t-on ?

Chaque joueur incarne secrètement une faction — Olympiens, Titans ou Humains — avec des objectifs divergents. Certains veulent le progrès à tout prix, d’autres la protection de l’humanité ou la régulation du chaos. Les votes sont publics, les intentions masquées, les débats enflammés.

Pourquoi un jeu ?

Parce que l’éthique ne se transmet pas par des slides. Elle se vit, se discute, se conteste. Et parfois, se joue. Plato’s Dilemma crée un cadre où le conflit d’intérêts devient moteur d’apprentissage, et où l’humour permet de traiter de sujets graves sans les banaliser.

Ce jeu sera lancé sur Kickstarter en juin. Il s’adresse aux entreprises, aux enseignants, aux formateurs, mais aussi à toutes celles et ceux qui refusent de déléguer leurs dilemmes moraux aux algorithmes.

Avec votre longue expérience dans le domaine, quel serait le conseil le plus important que vous donneriez à une entreprise souhaitant démarrer un projet d'IA ?

Commencez petit. Mais pensez stratégique. L’IA n’est pas une technologie à tester : c’est une dynamique à intégrer. Un bon point de départ : un processus métier concret, une douleur réelle, une équipe motivée. Ensuite, structurez l’apprentissage : documentez, évaluez, capitalisez. Et surtout, construisez une gouvernance simple mais claire dès le début. Pas besoin d’un comité Orwellien, mais de règles du jeu connues sur l’usage, la responsabilité et la qualité des données. L’IA est une arme : elle doit être pointée dans la bonne direction.

En tant qu'auteur et podcaster, comment jugez-vous l'importance de la communication et de la sensibilisation lorsqu'il s'agit de technologies émergentes comme l'IA ?

Essentielle. Ce n’est pas l’IA qui divise, c’est le non-dit autour de l’IA. La technique avance plus vite que notre capacité à en débattre collectivement. En tant qu’auteur, j’essaie de traduire les enjeux complexes en récits accessibles. En tant que formateur, je m’appuie sur des formats pédagogiques qui confrontent, simulent, questionnent. L’IA ne doit pas rester dans les mains des ingénieurs et des juristes. C’est un sujet de société. Et plus que jamais, celui qui sait bien expliquer gagne en légitimité.

Pourriez-vous nous donner un aperçu des tendances à venir en matière d'intelligence artificielle et de la manière dont les entreprises peuvent s'y préparer ?

Trois mots-clés : autonomie, souveraineté, hybridation. Les IA deviennent autonomes dans l’exécution de tâches complexes : il faut penser “workflow augmenté”, pas juste génération de texte. Côté souveraineté, les entreprises cherchent à rapatrier leurs modèles, leurs données, leurs règles : on passe de l’IA consommée à l’IA pilotée. Enfin, l’hybridation : l’IA ne remplace pas l’humain, elle s’y greffe. Les meilleures entreprises à venir ne seront ni humaines ni artificielles, elles seront hybrides, et stratégiquement alignées.

Vous êtes impliqué à la fois en France et en Suisse - avez-vous remarqué des différences notables dans l'approche de ces deux pays en ce qui concerne l'adoption de l'IA et la transformation numérique ?

Absolument. La France avance avec le panache : beaucoup d’énergie, une appétence forte pour les effets d’annonce, et une dynamique “moonshot” où l’on rêve grand, quitte à ajuster en chemin. La Suisse, elle, privilégie la précision horlogère et le consensus collectif. C’est une culture de la progression maîtrisée, parfois frustrante pour les plus impatients… mais souvent plus durable.

Une phrase d’Alain Berset résume parfaitement cette mentalité : «Aussi vite que possible, aussi lentement que nécessaire.» Cette devise helvétique s’applique aussi bien à la régulation des IA qu’à la cuisson d’une fondue.

Plus sérieusement, je dirais que la Suisse excelle dans les projets collaboratifs bien documentés, avec une approche très pragmatique des risques et des opportunités. La France innove vite, mais doit parfois stabiliser après coup. Les deux modèles sont complémentaires. Mon travail consiste souvent à bâtir des ponts : injecter de la vitesse là où l’on manque d’audace, et structurer là où l’on s’emballe.



Naully Nicolas est un expert en intelligence artificielle et transformation digitale avec plus de 19 ans d'expérience dans l'IT. Il se spécialise dans l'élaboration de stratégies IA sur mesure pour aider les entreprises à améliorer leur compétitivité et leur retour sur investissement. Il utilise des méthodes éprouvées telles que PLATON et Cycle Innov'IA© pour intégrer l'IA et transformer numériquement les organisations. Naully propose des formations avancées en IA et anime des conférences pour inspirer l'adoption de technologies innovantes. Il est également co-créateur de jeux sérieux portant sur l'éthique de l'IA.

Partager cette page
Partager cette page
Parole d'experts
Les plus lus
Les articles par date