Bonjour Henry, avec plus de 40 ans d'expérience dans l'industrie du logiciel et comme cofondateur de Wassati, comment voyez-vous l'impact de l'intelligence artificielle sur notre société actuelle?
Bonjour. Après quatre décennies dans le logiciel, je perçois l'IA comme une force de révélation. Là où beaucoup voient une menace de remplacement, nous voyons chez Wassati une opportunité unique de révéler le potentiel humain. L'impact de l'IA n'est pas une fatalité technologique ; il dépend de notre intention. Nous refusons l'illusion techno-solutionniste qui consiste à croire qu'un outil, aussi puissant soit-il, peut résoudre des problèmes humains complexes. L'IA n'a de sens que si elle sert l'humain, avec ses imperfections et sa richesse. Son véritable impact sociétal sera de nous forcer à passer d'une logique d'humain augmenté, où l'on cherche à optimiser l'individu, à une logique de collectif augmenté, où l'on utilise l'IA pour améliorer notre capacité à ressentir, à créer du sens et à agir ensemble. C'est un changement de paradigme fondamental.
Pouvez-vous expliquer comment Wassati utilise l'intelligence artificielle pour résoudre des problèmes sociétaux et quel a été un des projets phares de votre entreprise en la matière?
Wassati a été fondée sur la conviction que le plus grand défi de l'IA n'est pas technique, mais humain. Notre mission est de construire des collectifs augmentés. Pour cela, nous utilisons notre technologie propriétaire, enga.ia, qui est une IA émotionnelle profonde. Elle ne se contente pas d'analyser des sentiments, elle cherche à comprendre les causes profondes des émotions en s'appuyant sur notre cadre des "cercles de valeurs". Cela nous permet de révéler l'invisible dans une organisation : les aspirations, les freins, les dynamiques de groupe. L'IA devient alors un membre de l'équipe au service du collectif, un support qui facilite l'émergence de l'intelligence collective, qui représente 70% de la capacité d'une organisation à innover.
Un projet qui illustre parfaitement cette approche est notre travail avec une ville de taille moyenne pour en faire un "Territoire Apprenant IA". L'objectif n'est pas de déployer des outils, mais d'accompagner une transformation culturelle profonde, par l'humain et pour l'humain. Nous y adaptons des processus comme la Théorie U pour permettre une co-création des usages de l'IA, en respectant le rythme de chacun et en créant des espaces de dialogue pour les trois intelligences : la tête (comprendre), le cœur (ressentir) et le corps (expérimenter). C'est la définition même de la construction d'un collectif augmenté.
De votre point de vue, quelles sont les principales difficultés auxquelles les entreprises font face lorsqu'elles tentent d'intégrer l'IA, et comment peuvent-elles les surmonter?
La principale difficulté est que la plupart des organisations, entreprises et collectivités abordent l'IA en restant dans un état d'esprit "IA Ready" alors qu'il faut devenir "AI Native".
• Être "IA Ready", c'est l'approche classique : on forme aux outils, on apprend à prompter, on subit la technologie et on la mesure avec des KPIs techniques traditionnels, comme le ROI (Retour sur Investissement).
• Devenir "AI Native", c'est une transformation culturelle et cognitive. Il s'agit de développer une nouvelle posture, d'apprendre à collaborer avec l'IA comme avec un collègue, et de changer radicalement de métriques individuelles et collectives.
Pour surmonter ces difficultés, il faut d'abord une posture d'humilité, car l'IA nous change cognitivement et de co-création donc de lacher prise. Il faut ensuite changer d'indicateurs. Le ROI est un indicateur du passé, focalisé sur le capital. L'avenir est au BNB (Bonheur National Brut), un indicateur holistique qui mesure ce qui compte vraiment : le bien-être des agents, la qualité du lien social et le sens au travail. En pilotant les projets IA avec le BNB, on ne cherche plus seulement à optimiser un processus, on cherche à améliorer une condition humaine et collective. C'est le chemin le plus sûr pour faire vouloir le changement et garantir une adoption durable.
Avec votre expérience dans la gouvernance des données et l'éthique de l'IA, comment percevez-vous l'évolution de la confiance et des valeurs dans le contexte de l'adoption croissante des technologies d'IA?
La confiance est la clé, mais nous faisons fausse route en parlant de "l'éthique" de l'IA au singulier. Cette vision est souvent le reflet d'une pensée occidentale, descendante et rigide dans laquelle la seule compliance avec AI Act garantira une adoption de l'IA. Or, la réalité est bien plus complexe. Nous devons parler des éthiques, au pluriel. Ces éthiques sont à dimensions variables, elles évoluent avec le temps et diffèrent profondément d'une culture, d'une communauté ou même d'une organisation à l'autre.
La seule façon de construire la confiance dans ce contexte est de mettre en place une écoute profonde des populations concernées. On ne peut pas plaquer un code de déontologie universel. Il faut aller sur le terrain, créer des espaces de dialogue sans jugement, et utiliser l'IA elle-même pour analyser et réconcilier ces différentes perspectives de valeurs. La gouvernance de l'IA de demain ne sera pas un ensemble de règles figées, mais un processus dynamique d'écoute et d'adaptation. C'est une gouvernance humaine, où la transparence sur les dynamiques invisibles est la condition de la confiance.
Quelles tendances émergentes en matière d'intelligence artificielle trouvez-vous les plus prometteuses pour l'avenir des interactions humaines et de l'expérience client?
La tendance la plus prometteuse est sans conteste celle qui mène au collectif augmenté. L'avenir de l'expérience client ne réside pas dans des chatbots qui répondent plus vite, mais dans la capacité d'une entreprise à mobiliser son intelligence collective pour créer une relation authentique. L'IA devient un outil au service de cette intelligence collective. Elle peut, par exemple, analyser des milliers de retours clients non pas pour sortir un score de satisfaction, mais pour révéler une tension sur une valeur fondamentale (par exemple, un besoin de justice ou de reconnaissance).
Cette information permet ensuite aux équipes humaines de collaborer de manière plus pertinente pour ajuster non seulement le produit, mais aussi la posture de l'entreprise. L'IA devient un révélateur, un facilitateur d'émergence. L'interaction humaine n'est pas diminuée, elle est augmentée car elle se concentre sur ce que l'humain fait de mieux : l'empathie, la créativité et la prise de décision complexe basée sur des valeurs.
En regardant vers l'avenir, comment pensez-vous que l'intelligence artificielle transformera les modèles économiques et les structures sociétales d'ici la prochaine décennie?
La transformation la plus radicale sera le passage d'une économie du ROI à une économie du BNB (Bonheur National Brut). Les modèles économiques qui ne maximisent que le profit financier sont à bout de souffle. Ils génèrent des externalités négatives (sociales, environnementales) qui ne sont plus soutenables. L'IA, en nous donnant la capacité de mesurer des indicateurs plus fins et plus holistiques, va permettre l'émergence de nouveaux modèles économiques.
Imaginez des entreprises dont la performance n'est plus évaluée sur leur Ebitda, mais sur leur contribution positive au bien-être de leurs employés, de leur clients, à la cohésion sociale de leur territoire et au sens qu'elles génèrent pour tous. C'est une révolution. Au niveau sociétal, cela signifie que nous pourrons piloter nos politiques publiques non plus seulement avec le PIB, mais avec des indicateurs de bien-être réel. L'IA peut être le catalyseur de cette transition vers une société qui valorise et mesure ce qui est vraiment essentiel à l'épanouissement humain.
Pour conclure, quel message personnel aimeriez-vous transmettre à nos lecteurs concernant l'importance de l'éthique et de la responsabilité dans le développement de l'intelligence artificielle?
Mon message est une invitation au courage et à l'humilité. Le courage de ne pas subir la technologie, mais de la façonner à notre image. L'humilité de reconnaître que nous n'avons pas toutes les réponses. L'éthique, ou plutôt les éthiques, ne doivent pas être un vernis ou une contrainte, mais le moteur de votre transformation pour devenir "AI Native".
Cela implique trois choses concrètes : premièrement, osez changer vos métriques, passez du ROI au BNB pour mesurer ce qui compte vraiment. Deuxièmement, cessez de penser "humain augmenté" et commencez à construire le "collectif augmenté". Troisièmement, mettez en place une écoute profonde et continue des valeurs de vos écosystèmes. C'est en faisant cela que vous ne construirez pas seulement une IA performante, mais une organisation plus juste, plus résiliente et fondamentalement plus humaine. Faisons de l'IA non pas une fin en soi, mais un moyen pour ré-enchanter notre avenir collectif.
Pour en savoir plus : https://www.wassati.com