Carmen, vous avez considérablement axé votre travail sur les LLM et le NLP chez Bodyguard.ai. Pouvez-vous expliquer comment ces technologies d'IA ont transformé votre approche produit et comment elles bénéficient à l'expérience utilisateur ?
Chez Bodyguard, nous avons intégré l'intelligence artificielle (IA) dès nos débuts, bien avant l'engouement généré par l'émergence des LLM (Large Language Models) comme GPT. Nous avons historiquement bâti notre technologie de modération sur le NLP (Natural Language Processing) en s'appuyant sur des règles linguistiques robustes.
Cette approche nous a permis de construire une IA capable de traiter d'énormes volumes de contenus en temps réel, sans fatigue, avec une homogénéité que l'humain seul ne peut égaler. Notre moteur peut, par exemple, analyser et classer un message en moins de 200 millisecondes (là où un humain prend plusieurs secondes) et ce, dans plusieurs langues simultanément. Cela a considérablement amélioré la rapidité, la fiabilité et la fluidité de l’expérience utilisateur.
Aujourd'hui, grâce aux avancées des LLM, nous avons pu franchir de nouvelles étapes. Nous avons enrichi notre plateforme avec des fonctionnalités inédites, telles que les insights communautaires : en quelques clics, nos utilisateurs peuvent comprendre le ressenti global de leur communauté, synthétisé à partir de milliers de commentaires.
De plus, des projets autrefois très lourds techniquement sont devenus accessibles. Par exemple, la modération d'images : impossible avec notre technologie NLP initiale, et trop coûteuse à développer en interne avec du machine learning classique. Grâce aux avancées des LLMs et de l'IA générative, nous avons pu prototyper, développer et lancer une API de modération d'images en production en seulement deux semaines, là où il nous aurait fallu plusieurs mois auparavant.
En résumé, ces nouvelles technologies ont renforcé notre capacité d'innovation rapide tout en offrant à nos utilisateurs une expérience toujours plus riche, fluide et fiable.
En tant que responsable de la livraison de plus de dix fonctionnalités majeures par an, comment jonglez-vous entre l'innovation technologique et la fidélité aux besoins des utilisateurs dans le contexte de l'IA ?
Aujourd'hui, intégrer l'IA est devenu une norme, presque une attente. Pourtant, il est facile de tomber dans le piège d'innover sans véritable valeur ajoutée pour l’utilisateur, juste pour "suivre la tendance". Chez Bodyguard, chaque nouvelle fonctionnalité doit renforcer notre proposition de valeur fondamentale et répondre à un besoin réel. Plus facile a dire qu'à faire.
L'innovation sans alignement utilisateur peut rapidement devenir contre-productive. Cela demande écouter ses utilisateurs, comprendre profondément pourquoi ils vous choisissent (dans notre cas, souvent pour la qualité et la fiabilité de la data et nos analyses) et s'assurer que l'innovation vient renforcer cette confiance plutôt que la fragiliser.
N’hésitez pas à lancer des prototypes rapidement pour valider ou invalider une idée. L'IA a grandement facilité ce processus : nous pouvons tester, échouer vite, apprendre vite et corriger rapidement. Mon conseil est simple : acceptez que vos premiers essais soient imparfaits, mais ne retardez pas l'expérimentation.
Pouvez-vous nous parler de la transformation vers une culture produit centrée sur l'utilisateur chez Bodyguard.ai et comment l'Intelligence Artificielle a joué un rôle dans cette transition ?
Mettre l’utilisateur au centre est un travail constant et exigeant. Chez Bodyguard, nos utilisateurs attendent de nous des données fiables, exhaustives et précises. C'est pour cette raison qu'ils choisissent Bodyguard plutôt qu'un concurrent.
Quand nous avons intégré des technologies d'IA générative, qui peuvent parfois produire des "hallucinations" (des réponses incorrectes mais formulées avec assurance), nous savions que nous touchions à un point sensible. Préserver la confiance de nos clients dans nos données était pour nous une priorité absolue.
Concrètement, cela signifie que nous avons investi dans :
- La rédaction et l'optimisation de prompts pour minimiser les hallucinations,
- La mise en place de garde-fous techniques pour vérifier et valider les réponses générées,
- L'audit et la transparence sur les limites de nos fonctionnalités basées sur l'IA.
Nous avons aussi choisi de ne pas masquer les imperfections : si une information générée est incertaine, nous le signalons clairement à l'utilisateur. Il vaut mieux être transparent que de risquer une perte de crédibilité.
Car nous savons qu’une seule mauvaise expérience peut nécessiter cinq bonnes expériences pour regagner la confiance.
Lors de votre parcours en gestion de produit, quel a été le plus grand défi rencontré lors de l'intégration de fonctionnalités IA dans un environnement SaaS ?
L’un des défis majeurs a été d'éviter la fausse simplicité des interfaces chatbots.
Beaucoup d'utilisateurs ne sont pas encore à l'aise avec le concept de "prompting" : face à une boîte de chat vide, ils hésitent, bloquent, ou n'obtiennent pas les résultats espérés. Cela peut transformer une technologie puissante en une expérience déceptive.
Nous avons donc repensé l'expérience en proposant des actions guidées : nos utilisateurs n'ont pas besoin d'écrire eux-mêmes des prompts compliqués. Nous leur proposons des options prédéfinies et pertinentes, basées sur une recherche utilisateur approfondie. En quelques clics, ils peuvent obtenir exactement ce dont ils ont besoin, sans effort ni incertitude.
Progressivement, pour nos utilisateurs les plus avancés, nous avons aussi ouvert la possibilité de formuler leurs propres questions. C’est un équilibre subtil entre simplicité pour les novices et flexibilité pour les experts.
Votre expertise en stratégie et en scaling de fonctionnalités IA fiables est impressionnante. Comment abordez-vous la gestion du risque inhérent à l'innovation dans l'univers de l'IA ?
L'intégration de l'IA ne s’improvise pas : elle impose une discipline et une rigueur nouvelles.
Avant tout, nous avons adapter notre stack technique afin d'intégrer l'IA comme une composante essentielle : maîtriser les coûts variables (car l’utilisation de modèles LLM n’est pas gratuite), mettre en place si besoin des "rate limits" pour éviter les abus, et assurer un suivi continu du rapport qualité/prix ainsi que des performances.
Un enjeu majeur est le maintien de la qualité des prompts. Un prompt performant avec un modèle donné (par exemple GPT-4) peut devenir inadapté si nous changeons de fournisseur ou de version. Il faut donc adapter et maintenir nos prompts à jour, ce qui demande une vigilance continue.
Enfin, nous avons adopté une approche progressive pour le scaling : commencer simple, tester la valeur, puis optimiser les coûts et l'architecture plus tard (via des techniques comme RAG, Map-Reduce, etc.). La priorité reste d'abord d’apporter de la valeur réelle aux utilisateurs.
Avec votre expérience en Product Design, comment voyez-vous l'évolution du design de produit influencé par l'Intelligence Artificielle dans les cinq prochaines années ?
Je suis convaincue que l'IA ne remplacera ni les designers ni les développeurs, mais qu'elle les rendra beaucoup plus rapides, plus créatifs et plus autonomes.
Demain (et déjà aujourd'hui), un designer pourra :
- Créer des prototypes interactifs complets sans dépendre de l’équipe tech,
- Lancer des tests utilisateurs plus rapidement,
- Contribuer directement aux specs fonctionnelles en produisant des composants presque prêts à être intégrés.
Cela va profondément transformer la collaboration produit/design/tech. Le rôle des développeurs frontend évoluera de la création à la validation et à l'optimisation des livrables.
Des outils comme Devin, n8n ou Lovable annoncent cette mutation : le Product Design sera de plus en plus creative, itératif et technologique.
Quels conseils donneriez-vous aux jeunes professionnels intéressés par une carrière en IA et product management, particulièrement dans le secteur des technologies SaaS ?
Si je devais donner un conseil concret, ce serait : commencez tout de suite, avec une approche très pragmatique.
Ne cherchez pas à tout lire ni à tout comprendre d'un coup. Le domaine de l'IA évolue si vite que vouloir tout suivre est contre-productif.
Limitez-vous : abonnez-vous à une ou deux newsletters fiables sur l'IA (par exemple AiPAD Clud ou The Product Courier) et lisez-les régulièrement. Vous verrez que l’essentiel des informations tournent autour des mêmes grandes tendances.
Ensuite, mettez rapidement les mains dans l’action : choisissez un petit projet personnel pour "jouer" avec l'IA. Cela peut être :
- Créer une landing page avec un outil comme Lovable,
- Construire un mini-agent conversationnel en no-code avec n8n,
- Tester des workflows IA personnalisés sur Devin.
L’idée est de pratiquer sur un cas concret. Vous suivez un tutoriel simple, vous expérimentez, vous testez. Ce n'est pas grave si c’est imparfait. Ce qui compte, c’est d’ancrer des premiers réflexes pratiques. Si l’outil vous plaît et vous aide, adoptez-le : intégrez-le dans votre quotidien professionnel ou personnel. Si ce n’est pas convaincant, passez à un autre outil et recommencez.
Au début, vous allez probablement ressentir une frustration énorme, c’est totalement normal. C’est ce qu’on appelle la "vallée du désespoir" du Dunning–Kruger effect : plus vous progressez, plus vous découvrez tout ce que vous ne maîtrisez pas encore. L'essentiel est de ne pas s’arrêter là : continuez d’explorer, petit à petit.
Je conseille aussi de parler régulièrement avec vos pairs, sans tabou. Vous verrez que même les personnes qui semblent très à l'aise avec l'IA aujourd’hui sont aussi passées par des phases d'apprentissage tâtonnant. L'important est d'échanger honnêtement sur ce qu'on teste, ce qui marche, ce qui ne marche pas.
En résumé :
- Limitez votre flux d'informations (1-2 newsletters).
- Choisissez un outil.
- Faites un mini-projet pratique.
- Acceptez le sentiment de ne pas tout maîtriser.
- Parlez avec d’autres professionnels pour avancer ensemble.
C’est en pratiquant que vous construirez votre expertise et votre confiance, pas en essayant de tout absorber théoriquement.