Valerie, vous avez plus de 20 ans d’expérience dans les données et les technologies et vous avez fondé Valkuren autour de l’IA et du Big Data : comment résumeriez-vous votre parcours et ce qui vous a conduite à vous concentrer aujourd’hui sur l’optimisation industrielle, la mobilité et les agents d’IA souverains ?
Transformer la donnée en levier opérationnel réel a toujours été le fil conducteur de mon parcours.
Les techniques et technologies évoluent : hier les entrepôts de données et le reporting, puis le data engineering et la data science, aujourd’hui l’IA générative et le RAG, mais le fond ne change pas : utiliser la donnée pour gagner du temps, mieux décider, automatiser et optimiser les coûts.
Ce qui évolue en revanche, c’est le niveau d’exigence.
La question n’est plus seulement “que peut faire la technologie ?”, mais comment elle s’intègre, à quelle échelle, et sous quel contrôle.
C’est là que la souveraineté devient centrale.
Elle ne s’ajoute pas à la stratégie, elle en fait partie. Elle garantit que cette transformation reste maîtrisée, sécurisée et alignée avec les enjeux business de l’organisation.
Dans votre travail de terrain avec Valkuren, quels sont, très concrètement, les usages d’IA et de Big Data qui transforment le plus la performance industrielle et la mobilité (par exemple en termes de maintenance, d’optimisation des flux, de consommation énergétique) ? Pouvez-vous illustrer avec un ou deux cas concrets ?
Chez un acteur industriel, nous avons travaillé avec le directeur qualité et son équipe pour la mise en place des modèles de détection d’anomalies sur les produits à haute valeur ajouté. Résultat : une réduction significative des pannes après livraison au client, une meilleure détection de la cause du pannes, une économie d'énergie sur l'ensemble du processus de test. Le vrai gain n’est pas seulement technique, il est organisationnel : les équipes passent d’un mode réactif à un mode anticipatif. D’un autre côté, pour un acteur du BTP, nous avons développé un outil d’optimisation des interventions terrain. Concrètement, l’IA planifie les tournées des techniciens en intégrant plusieurs contraintes : localisation des clients, priorités d’intervention, et surtout disponibilité des pièces.L’un des points clé a été d’intégrer automatiquement les passages en dépôt lorsque nécessaire, pour éviter les allers-retours inutiles ou les interventions incomplètes. Résultat : moins de déplacements, une meilleure productivité des équipes terrain et une amélioration du taux de résolution dès la première intervention. Dans la mobilité, nous utilisons l’IA pour prédire les arrivées et départs en avance ou en retard. En combinant données historiques et temps réel (trafic, conditions opérationnelles, incidents), les modèles anticipent les dérives avant qu’elles ne se produisent.Résultat : les opérateurs peuvent ajuster en amont, réaffecter des ressources, informer les usagers, ou adapter les plannings, ce qui améliore la ponctualité et réduit les perturbations en chaîne.
Vous insistez sur la nécessité de stratégies d’IA « durables » et alignées sur des standards éthiques : quels sont, selon vous, les principaux risques liés à une exploitation non maîtrisée des données (biais, souveraineté, dépendance aux GAFAM, impact social), et comment vous les adressez méthodiquement chez vos clients ?
Le premier, c’est le biais : un modèle mal gouverné peut amplifier des erreurs ou des décisions injustes, surtout s’il est déployé à grande échelle.
Le deuxième, c’est la perte de contrôle des données et des modèles : dépendance à des plateformes externes, exposition juridique, difficulté à maîtriser ce qui est réellement utilisé ou appris.
Le troisième, c’est la dépendance technologique : certaines entreprises construisent des briques critiques sur des solutions qu’elles ne contrôlent pas, ce qui pose un vrai risque stratégique.
Enfin, il y a l’impact opérationnel et social : automatiser sans cadre peut créer des incompréhensions, voire des rejets en interne. Chez nos clients, on adresse ces sujets de manière très structurée.
D’abord, on cadre les usages : tous les cas d’usage ne se valent pas, et certains nécessitent des garde-fous renforcés dès le départ.
Ensuite, on met en place une gouvernance data et IA claire : traçabilité des données, documentation des modèles, règles d’usage, identification des risques.
On privilégie aussi des architectures maîtrisées, souvent souveraines ou hybrides, pour garder le contrôle sur les données sensibles, avec des modèles open source.
Et surtout, on travaille sur l’intégration métier : formation des équipes, transparence des décisions, et maintien d’un humain dans la boucle quand c’est nécessaire.
L’idée n’est pas de freiner l’IA, mais de la rendre déployable à grande échelle, sans créer de risques invisibles.
En tant que CEO d’une entreprise d’IA et de Big Data et membre du conseil d’Agoria, vous avez une vue panoramique sur le tissu économique européen : quels freins spécifiques rencontrez-vous encore dans l’adoption de solutions IA/Big Data (culturels, réglementaires, techniques, RH), et quels leviers fonctionnent vraiment pour les dépasser ?
Le frein principal aujourd’hui, c’est une confusion fondamentale sur ce qu’est réellement l’IA en entreprise.
Beaucoup d’organisations mettent dans le même panier :
- l’usage individuel d’outils comme ChatGPT,
- l’optimisation de processus métier,
- la transformation stratégique de l’entreprise.
Deuxième point : le faux débat autour du cloud.
Après des incidents de cybersécurité, certaines entreprises rapatrient leurs systèmes en interne en pensant réduire le risque. En réalité, elles déplacent le problème. La sécurité ne dépend pas du lieu d’hébergement, mais du niveau de maîtrise. Et dans la majorité des cas, une infrastructure cloud bien gouvernée est plus robuste qu’un système interne sous-dimensionné. Je pense personnellement qu'un format hybride reste la bonne solution si le risque est bien maîtrisé.
Troisième frein majeur : le déficit de maturité digitale.
Beaucoup de PME sont encore en train de structurer leurs fondamentaux, ERP, données, processus. Vouloir déployer de l’IA sans cette base, c’est construire sur du sable. Elles doivent arbitrer, prioriser, et accepter que tout ne peut pas être fait en même temps.
Enfin, il y a un sujet rarement adressé : l’immaturité du marché lui-même.
L’IA est devenue un buzzword. Beaucoup d’acteurs se positionnent, avec des niveaux d’expertise très hétérogènes, ce qui crée de la confusion et de la méfiance côté entreprises.
C’est pour cela que notre position est volontairement exigeante :
l’IA n’est pas un point de départ, c’est une conséquence. Sans gouvernance claire, sans processus maîtrisés et sans vision opérationnelle, l’IA ne crée pas de valeur, elle amplifie les inefficiences existantes.
Les leviers qui fonctionnent sont donc très concrets :
- clarifier les niveaux d’usage et définir une trajectoire
- structurer la donnée, l'information et les processus avant d’industrialiser
- choisir des partenaires capables de délivrer au-delà du discours.
Vous travaillez sur les « agents d’IA souverains » : qu’entendez-vous précisément par là, en quoi se différencient-ils des assistants IA classiques dominés par les grands acteurs américains, et quelles sont les conditions (techniques, juridiques, organisationnelles) pour qu’ils deviennent une alternative crédible pour l’Europe ?
La souveraineté ne se limite pas au lieu d’hébergement des données. C’est une vision beaucoup trop réductrice.Elle se joue à plusieurs niveaux. Surtout dans la maîtrise de l’ensemble de la chaîne de valeur : les données, les modèles, les outils, les flux, et les décisions qui en découlent.
Aujourd’hui, être totalement indépendant des grands acteurs américains est irréaliste. Mais l’enjeu n’est pas là. L’enjeu, c’est d’éviter une dépendance subie sur des briques critiques. C’est pour cela que nous défendons une approche pragmatique : panacher les technologies en fonction des usages.
Utiliser des solutions externes là où elles apportent de la performance mais garder la maîtrise sur les éléments stratégiques : données sensibles, logique métier, orchestration des agents
La vraie souveraineté, ce n’est pas l’autarcie. C’est la capacité à choisir, arbitrer, remplacer et auditer chaque brique de son système.
Et c’est précisément ce qui permet de construire des agents d’IA crédibles en Europe : des systèmes performants, mais surtout maîtrisés, alignés avec les enjeux business et capables d’évoluer sans dépendance critique.
Si l’on se projette à 5–10 ans, comment imaginez-vous l’articulation entre IA générative, Big Data industriel et enjeux de souveraineté numérique en Europe ? Pensez-vous que l’on va vers une hyper-automatisation des décisions ou, au contraire, vers des systèmes d’aide à la décision centrés sur l’humain ?
On va effectivement vers de plus grands niveaux d’automatisation mais intégrer cela en entreprise en limitant le risque, prends du temps. Et il y aura plusieurs niveaux d’automatisation. En Europe, l’enjeu ne sera pas de freiner l’hyper-automatisation, mais de la maîtriser. Cela implique de passer d’une logique d’exécution à une logique de monitoring beaucoup plus assertif et structuré des systèmes d’agents.
Le risque principal n’est pas tant technologique que systémique : la cybersécurité et la dérive des systèmes automatisés.Plus on automatise, plus on crée des points d’entrée critiques.
Prenons un exemple simple : une personne automatise ses achats avec ses données de paiement. Si un mécanisme d'agents de phishing capte ces informations et s’intègre dans la chaîne automatisée, l’impact peut être immédiat et difficile à détecter. À l’échelle d’une organisation, c’est encore plus critique : ces systèmes deviennent des portes d’entrée stratégiques. Une faille ne compromet plus une action isolée, mais potentiellement toute une chaîne de décision ou d’exécution.
C’est pour cela que la priorité doit évoluer :
- sécuriser les points d’accès et les identités
- tracer et auditer les actions des agents
- encadrer strictement ce qui peut être automatisé
L’enjeu des prochaines années n’est pas seulement de faire fonctionner ces systèmes, mais de garantir qu’ils restent sous contrôle, robustes et résilients dans le temps
Vous êtes très engagée dans Women in Big Data et dans des initiatives d’inclusion : quel message souhaiteriez-vous adresser aux jeunes, et en particulier aux jeunes femmes, qui hésitent encore à se lancer dans l’IA et le Big Data, tant sur les compétences à développer que sur l’état d’esprit à adopter pour y trouver leur place et y avoir un impact positif ?
Le premier message, c’est que l’IA et le Big Data ne sont pas des domaines “réservés”, ni à un profil, ni à un genre. Aujourd’hui, la technologie traverse tous les métiers. Il devient donc essentiel, en particulier pour les femmes, de s’en emparer et de la maîtriser. Dire “c’est trop compliqué” ou “je n’y comprends rien” n’est plus une option, parce que ces outils vont structurer une grande partie des décisions de demain. La bonne nouvelle, c’est qu’il existe de nombreuses portes d’entrée, à différents niveaux. On n’a pas besoin d’être experte technique pour commencer.
Ce qui fait la différence, c’est la curiosité et la compréhension des enjeux humains, choses dans lesquelles les femmes tirent plutôt leur épingle du jeux. L’IA n’est pas qu’un sujet technologique : c’est un sujet d’usage, d’impact et de responsabilité.
C'est précisément là que beaucoup de femmes ont un rôle clé à jouer : comprendre, questionner, et utiliser ces outils de manière intelligente pour en tirer de la valeur, pas seulement technique, mais aussi humaine et sociétale.
Mais il faut aller encore plus loin.Tout cela commence très tôt. Les parents et l’école ont un rôle fondamental pour former des esprits actifs face à la technologie. L’enjeu n’est pas de mettre les enfants derrière des écrans, mais de leur apprendre à comprendre, manipuler et maîtriser ces outils.
Aujourd’hui, il existe des approches très concrètes, robotique, jeux éducatifs, systèmes interactifs, qui permettent d’apprendre en expérimentant. Ce sont des leviers puissants pour développer un réflexe essentiel : agir sur la technologie plutôt que la subir.
Et cela doit être accessible à tous. Parce qu’au fond, le sujet n’est pas de former des experts en IA dès le plus jeune âge. C’est de donner à chacun, et en particulier aux jeunes filles, les clés pour rester maître de son environnement technologique et garder un esprit critique.
Pour en savoir plus : https://www.valkuren.com/