
Bonjour Thibaud, Pouvez vous nous donner une définition de Durable ? D'ailleurs, ne faudrait il pas également distinguer IA Durable et IA pour la durabilité ? comment voyez-vous l'évolution de l'IA durable dans le secteur de la finance ?
Aujourd'hui, tout le monde parle d'IA, mais peu s'encombrent de définitions précises. L'IA Durable vise à minimiser les impacts environnementaux négatifs associés aux technologies d'IA. Cela comprend la réduction de la consommation énergétique et d'eau des systèmes d'IA, l'utilisation de matériaux durables dans les composants matériels et la réduction des déchets électroniques. C'est une notion distincte, mais complémentaire, de celle d'IA pour la durabilité, qui elle s'intéresse à l'utilisation de l'IA pour réduire l'empreinte environnementale d'une entité, ou atteindre un impact social positif. Reste à savoir ce qu'est l'IA, ce qui est bien moins consensuel. Depuis deux ans, cette notion est usuellement associée aux Large Language Models (LLMs), ou à minima au Deep Learning, mais historiquement le terme IA recouvre un panel d'algorithmes bien plus large.
Je pense que 2025 sera une année charnière. Après la vague de POCs qui a commencé en 2023 sur de nombreuses d’industries, y compris le secteur financier, certains sujets arrivent à maturité. De nombreux professionnels assistent depuis quelques mois à une phase de désillusion vis-à-vis de certaines applications, comme le Retrieval-Augmented Generation (RAG), promettant des interfaces de question-réponse sur base documentaire en langage naturel, mais qui rencontrent des limites d’usages industriels réels. Parallèlement, des avancées notables en matière d’acculturation des salariés à ces technologies sont en train d’être observées. Enfin, certaines innovations, en particulier les agents IA, continuent d’alimenter l’enthousiasme général et les levés de fonds sur la base de nouvelles promesses.
Lorsque nous examinons de plus près certains acteurs du secteur financier, nous constatons une grande diversité dans les approches adoptées vis-à-vis de l’IA. Certains financeurs, notamment américains, investissent des centaines de milliards, avec par exemple le projet Stargate de 500 milliards de dollars pour Open AI. D'autres, et en particulier les acteurs déjà établis de la finance durable, cherchent avant tout à garantir un retour sur investissement environnemental et social en addition des potentiels gains financiers. Par exemple Mirova, un gestionnaire d'actifs très présent sur l'investissement responsable, sélectionne rigoureusement ses investissements et pratique un engagement actif avec ses clients pour renforcer leur transparence et améliorer leurs pratiques en termes de numérique durable.
Pourriez-vous nous décrire un projet de développement en IA sur lequel vous travaillez actuellement à l'Institut Louis Bachelier, et comment il pourrait transformer le secteur de la finance durable?
Nous sommes une petite équipe de Data Scientists, mais nous avons la chance d'échanger avec beaucoup d'acteurs, ce qui nous permet de ne pas nous positionner sur des sujets déjà saturés. Je vais prendre l'exemple du RAG appliqué aux rapports financiers et extra-financiers. Plutôt que de proposer un énième "Sustainable finance GPT", nous avons décidé de comparer et benchmarker les différentes approches. L’enjeu est de rompre avec cette dynamique de POCs prometteurs en apparence, mais qui ne délivrent que peu de valeur ajoutée métier, pour mettre en avant les questions auxquelles il est possible ou non de répondre de manière robuste via l'utilisation de LLMs.
Le sujet est précis, mais il n'est pas anecdotique, car des centaines d'équipes de différentes entités, publiques et privées, travaillent sur ces rapports. Un de nos objectifs est de permettre une meilleure transparence et de faire gagner du temps et des ressources, en proposant si possible des outils développés de manière collaborative, pour une meilleure performance, mais déployables localement chez des partenaires, afin de leur garantir une souveraineté complète. Ce type de projet est rendu possible par notre position de tiers de confiance, notre réseau étant un point de rencontre pour tous les praticiens, privés, publiques, académiques ou encore associatifs.
Au cours de votre carrière, comment avez-vous intégré les considérations éthiques dans les projets d'IA et quels conseils donneriez-vous à d'autres professionnels travaillant dans ce domaine?
Selon mon expérience, la principale tâche d'un Data Scientist n'est pas de comprendre ou d'implémenter des modèles, mais plutôt de comprendre les biais inhérents aux données qu'il est amené à manipuler. En effet, n'importe qui, et aujourd'hui encore plus qu'hier, peut créer ou importer un réseau de neurones en quelques lignes. Cependant, mener à bien un projet data consiste avant tout et surtout à bien comprendre la problématique métier à adresser, à identifier les jeux de données pertinents, et à se les approprier pour comprendre leurs limitations, ce qu'ils permettent et ne permettent pas de faire. Ma recommandation est donc de dédier un temps suffisant à l'amont du développement et à l'exploration des données, pour s'assurer que nous utilisons les bonnes données à la bonne finalité, et pour être le plus transparent possible sur les limitations de ce que nous développerons.
Sur les considérations éthiques, il s'agit d'un sujet passionnant mais très complexe. Une base intéressante est la charte développée par l'association Data For Good, le « Serment d'Hippocrate du Data Scientist ». Mais comme tout évolue vite, je conseille également de se renseigner sur les différents travaux, par exemple d'entités comme Ekita ou encore la chaire Good in Tech. Au sein de notre Data Lab, nous raisonnons au cas par cas, sélectionnant nous même les projets que nous menons, en s'assurant de la cohérence avec notre mission.
Dernier conseil, je souligne que bien souvent une réflexion approfondie sur le feature engineering ou le prompting d'un LLM permet de faire gagner bien plus de performance qu'une exploration trop directe des hyperparamètres, même si celle-ci est tentante car facilement automatisable.
En tant que superviseur de Data Scientists et Engineers, quelles compétences et qualités considérez-vous essentielles pour exceller dans le développement de solutions IA durables?
La terminologie IA Durable étant extrêmement récente, je pense qu'il serait malhonnête de prétendre exceller dans ce domaine. La principale qualité que je recherche chez mes collaborateurs est l'investissement. En effet, il n'est pas possible de se contenter du strict minimum. Par exemple, mesurer l'empreinte carbone d'un projet est intéressant en soit, mais ce n'est pas suffisant. Il faut en amont bien réfléchir à la finalité du projet, et faire l'effort d'une amélioration continue, en identifiant les éléments les plus énergivores, en les optimisant, etc.
Il faut également être curieux, se tenir au courant des avancés récentes, comme la mise à jour de la librairie CodeCarbon en avril 2025. Enfin, la rigueur me semble plus qu'indispensable, car un projet IA non rigoureux ne sera jamais mis en production et aura donc une utilité plus que limitée.
Comment percevez-vous la collaboration entre les secteurs académique, public et privé dans le développement d'une IA éthique et durable, et quels sont vos exemples de succès dans ce domaine?
Le premier succès qui me vient en tête est le lancement de la coalition IA durable, lancée lors du sommet sur l'IA en France, en février 2025. Certes, les implications et impacts concrets de cette coalition restent à démontrer, mais la mobilisation est encourageante car significative, avec des acteurs comme l’ONU, l'INRIA, et un grand nombre d'entreprises. Une autre initiative réussie a été le Challenge IA Frugale, organisé par Hugging Face et Data For Good en janvier. Un autre exemple, plus académique, est AI4Forest, un projet financé par l'agence national de la recherche sur l'IA pour la surveillance des forêts par image satellite.
A titre personnel, j'apprécie de voir un certain nombre d'académiques s'investir dans le côté pratique, avec par exemple Sasha Luccioni qui travaille chez Hugging Face ou encore Jean-Marie John-Mathews, co-fondateur de Giskard AI. Mais l'histoire n'a pas toujours été dans le bon sens, avec par exemple Meta qui a dissout en 2021 et 2022 deux de ses comités d'éthiques. De manière plus globale, le fait que les principaux modèles IA soit développés dans le cadre de développements privés et concurrentiels est dommageable pour l'éthique. Sous prétexte d'une course à l'IA qu'il ne faudrait absolument pas perdre, les considérations extra-financières restent reléguées au second plan.
Pour les entreprises qui veulent adopter l'IA durable, quels sont les premiers pas ou les meilleures pratiques que vous recommanderiez?
Premièrement, faire de l'acculturation. L'IA, ce n'est pas de la magie, c'est une technologie comme une autre, qu'il faut apprendre à bien utiliser. En particulier, les LLMs ne remplacent pas les moteurs de recherches, peuvent faire fuiter des données, sont énergivores, etc. En faisant attention, bien sûr, à ne pas entrer dans une démarche moralisatrice contre-productive.
Deuxièmement, former les équipes sur les outils existants et facilement utilisables. Nous avons la chance en France d'être à la pointe sur ces sujets, avec des librairies open sources comme CodeCarbon pour évaluer la consommation énergétique d'un code, Ecologits pour estimer celle d'appel API à des LLMs, ou encore Giskard pour la détection de biais et d’hallucinations.
Troisièmement, avoir si possible une personne en interne qui se saisisse du sujet. Il ne s'agit pas d'un rôle à plein temps, mais je pense indispensable d'une personne soit identifiée comme « Responsable durabilité des pratiques numériques ». Son rôle consiste par exemple à interroger systématiquement la finalité des projets, faciliter la mise en place d'outils de monitoring de la consommation, suivre l’évolution des pratiques, et éventuellement à former ses collaborateurs et/ou identifier des formations pertinentes.
Avec les avancées rapides de l'IA, quelles nouvelles opportunités ou préoccupations anticipez-vous pour la finance durable et comment vous préparez-vous à y faire face?
J'ai pu avoir des échanges avec des praticiens qui suggèrent que l'IA pourrait être mise au service d'une meilleur allocation des ressources financières, en particulier sur des actifs de plus durables. Cependant, en pratique, je constate plutôt une utilisation de l'IA pour la minimisation des risques et la maximisation du rendement. En particulier, les réseaux de neurones sont beaucoup utilisés pour la génération de données et l’exploration de scénarios.
Pour conclure, ma principale préoccupation sur l'IA est son impact sociétal. Peu de personnes, experts compris, évoquent les problématiques autour des algorithmes de recommandation, de TikTok ou YouTube, mais en pratique ces derniers ont des impacts massifs. En favorisant la désinformation et la promotion de politiciens démagogues et controversés, ils fragilisent les démocraties et ralentissent la lutte contre le changement climatique. Cela concerne le secteur financier car ces algorithmes augmentent drastiquement certains risques, en favorisant les contenus climatosceptiques, les reculs réglementaires, les manipulations politiques et électorales, ou encore le déclenchement de guerres et de génocides.
Thibaud Barreau est Responsable du Data Lab à l'Institut Louis Bachelier, une équipe spécialisée en IA et finance durable. Il a une solide expérience en gestion d'équipes de Data Scientists et en projets de R&D. Leurs rôles incluent la création de nouvelles données pour la recherche et la collaboration avec divers partenaires, tant privés que publics. Le Data Lab s'intéresse particulièrement à l'IA durable et à l'éthique de l'IA, et est également impliqué dans le développement d'initiatives d'IA frugales au sein de l'écosystème GenAI français avec des associations comme CodeCarbon.