
Vous êtes une figure reconnue du domaine de l’intelligence artificielle. Y a-t-il eu, dans votre parcours, un moment charnière où vous avez pris conscience de l’impact que l’IA aurait sur notre société ?
Cette prise de conscience a été progressive. J’ai conçu mon premier robot à l’âge de 9 ans, pour m’aider à faire mon lit. Ce n’était pas très sophistiqué, mais cela incarnait déjà l’idée que la technologie pouvait servir l’humain. Plus tard, dans les années 1990, avec l’essor d’Internet, j’ai travaillé sur ce qu’on appelait alors des “agents” : des systèmes capables de comprendre des signaux humains – vocaux ou gestuels – pour interagir plus naturellement avec les machines. C’est à ce moment-là que j’ai compris le potentiel de ces technologies dans la vie quotidienne.
Beaucoup présentent l’intelligence artificielle comme une forme de magie. Vous partagez ce point de vue ?
Pas le moins du monde. L’intelligence artificielle repose sur des fondements mathématiques, et plus précisément statistiques, depuis plusieurs décennies. Le terme “intelligence” est à l’origine de nombreuses confusions : on l’associe trop souvent à une forme d’intelligence humaine. En réalité, les IA sont des outils spécialisés, très performants dans des domaines précis, mais incapables de généralisation. Ce sont des boîtes à outils, pas des consciences.
Pourtant, certains affirment que les concepteurs des modèles les plus avancés, comme les LLM, n’en comprennent pas toujours les ressorts...
C’est inexact. Nous comprenons comment ces modèles fonctionnent, mais leur complexité – liée au volume massif de données – limite notre capacité à prédire précisément les résultats. Les IA génératives, par exemple, s’appuient sur des milliards de paramètres. Il est donc difficile de valider ou d’auditer chaque sortie. Cela ne signifie pas qu’elles sont magiques, mais qu’elles reposent sur des calculs de probabilité souvent opaques pour un non-spécialiste.
D’où l’importance, aujourd’hui, des approches comme le fine-tuning ou le RAG ?
Absolument. Le fine-tuning permet d’adapter un modèle à des données métiers spécifiques, augmentant considérablement la pertinence des résultats. Le RAG, quant à lui, restreint l’espace de recherche à des sources fiables. Ces techniques permettent d’améliorer la qualité et la fiabilité des réponses, condition indispensable pour des applications professionnelles.
Votre dernier ouvrage s’intitule “IA générative mais pas créative”. Quelle est la distinction clé selon vous ?
L’IA générative ne crée rien de nouveau. Elle réassemble des éléments existants en fonction de statistiques. La véritable créativité vient de l’humain. L’IA peut amplifier cette créativité, en générant rapidement des variantes ou des prototypes, mais elle ne remplace pas l’intuition ou l’innovation humaine. Le prompt, autrement dit la formulation de la demande, reste entièrement sous notre responsabilité.
Vous travaillez aujourd’hui chez Renault. Comment une grande entreprise industrielle intègre-t-elle concrètement l’IA ?
Nous déployons l’IA de manière ciblée, par métier. Designers, achats, ingénierie… chacun dispose d’outils adaptés. Nous avons aussi intégré un agent conversationnel dans la nouvelle Renault 5 électrique, capable d’interagir vocalement avec le conducteur. L’IA n’est pas un gadget : elle apporte de la valeur lorsqu’elle est bien utilisée, au bon endroit, avec des objectifs précis.
Certains craignent que l’IA remplace des emplois. Est-ce une inquiétude fondée ?
Je ne le pense pas. Ce que nous observons, c’est une élévation du niveau global de performance dans les équipes. Les collaborateurs les plus expérimentés deviennent plus efficaces, et ceux qui rencontrent des difficultés bénéficient d’un appui qui les aide à progresser. L’IA devient un catalyseur d’amélioration, non un substitut à l’humain.
Et sur les questions éthiques, en particulier dans un secteur comme l’automobile où les enjeux de sécurité sont critiques ?
L’éthique est centrale. Les IA peuvent améliorer significativement la sécurité, notamment à travers les aides à la conduite. Mais elles restent des outils. Une IA n’est ni morale ni responsable, c’est à nous – concepteurs, entreprises, régulateurs – de fixer les règles d’usage. En matière de voiture autonome, je suis convaincu que le niveau 5 n’est pas atteignable. Trop de cas rares, trop de complexité. Mais les niveaux intermédiaires, bien encadrés, peuvent sauver des vies.
On parle de plus en plus d’agents spécialisés et d’orchestration d’IA. Est-ce selon vous la prochaine étape technologique ?
Oui, l’avenir ne réside pas dans un modèle unique, universel et surpuissant. Il repose sur des agents spécialisés, orchestrés entre eux pour accomplir des tâches complexes. C’est une approche plus frugale, plus maîtrisable, souvent compatible avec l’open source, et donc plus adaptable aux besoins concrets des entreprises.
Enfin, que conseilleriez-vous à un jeune ingénieur qui souhaiterait s’orienter vers l’IA ?
D’abord, comprendre les fondamentaux : statistiques, algorithmes, mathématiques. Ensuite, devenir un expert de son domaine. L’IA ne remplace pas la compétence métier ; elle la valorise. Et il faut apprendre à utiliser ces outils avec discernement : comprendre leurs limites, leurs biais, leurs coûts – économiques comme environnementaux.