Bonjour Dolores, avec votre double casquette d’experte RSE/ESG et de directrice de MATERIALITY-Reporting, comment décririez-vous concrètement l’apport de l’IA dans la mise en conformité ESRS, et en quoi votre parcours de plus de 30 ans façonne votre regard sur le risque de « reporting boîte noire » ?
Depuis plus de 30 ans, j’accompagne les organisations sur la stratégie RSE et le reporting ESG, d’abord au sein d’un grand groupe international (Sodexo), où j’ai contribué à structurer la stratégie RSE, son déploiement opérationnel et son reporting, puis en fondant MATERIALITY‑Reporting, cabinet de conseil, d’audit et de formation dédié à la durabilité. Je défends une conviction constante : la technologie peut transformer en profondeur le reporting de durabilité, à condition d’être mise au service de la démonstration, de la traçabilité et de la transparence, plutôt que d’alimenter une narration déconnectée des preuves. Pour cette raison, je me suis formée à l’IA générative responsable en 2025.
Je suis également évaluatrice technique pour le COFRAC, intervenant pour l’évaluation des systèmes techniques et de la gestion des compétences d’organismes de vérification des entreprises DPEF et rapports de durabilité CSRD). Cela me donne une lecture transverse des pratiques de reporting en France et des exigences probatoires attendues.
Concrètement, les modèles d’IA permettent aujourd’hui de structurer des volumes importants de textes normatifs (CSRD, ESRS, IFRS, AI Act, GRI et autres référentiels), de produire des matrices de correspondance, des listes de contrôles, des formats de restitution exploitable et auditables, sous réserve d’un cadrage rigoureux. Ces travaux sont en effet très chronophages lorsqu’ils reposent uniquement sur une équipe humaine.
Mon parcours m’a surtout appris que la question clé n’est pas « peut-on aller plus vite ? », mais « peut-on démontrer ce que l’on avance, de façon reconstructible ? ». C’est pourquoi je travaille systématiquement avec une logique de traçabilité et de dossier de preuves : analyse de double matérialité documentée, matrice IRO, registre des changements, table des informations jugées non matérielles ou non applicables — conçus pour s’aligner autant que possible sur ESRS 1, ESRS 2 et les guidances EFRAG, la directive sur la chaîne de valeur CS3D, tout en laissant une place au jugement professionnel.
J’appelle « reporting boîte noire » une situation où l’IA est utilisée pour combler les vides avec des proxys ou une narration très fluide, sans que l’on puisse reconstituer la chaîne de production : distinguer données primaires et estimations, retrouver des faits datés, identifier les sources, hypothèses et arbitrages humains qui sous-tendent les chiffres ou les textes. Or cette logique entre en tension directe avec les exigences des ESRS en matière de transparence sur les jugements, les incertitudes d’estimation et les méthodes.
Mon positionnement est donc simple : l’IA est légitime dans le reporting de durabilité si elle renforce traçabilité, transparence, gouvernance et qualité probatoire ; elle devient un risque lorsqu’elle fait écran entre l’entreprise et ses propres choix méthodologiques ou d’engagements.
On parle souvent de l'IA comme d'un algorithme pur, mais elle repose sur des travailleurs de l'ombre souvent situés dans l’hémisphère sud. Un rapport RSE peut être "propre" sur ses données internes mais masquer des conditions de travail précaires dans sa chaîne de valeur numérique.
Vous accompagnez des entreprises dans leurs exercices de double matérialité et de reporting RSE : pouvez-vous nous décrire un cas très concret où l’IA a été un atout pour gérer la complexité des ESRS, tout en restant parfaitement traçable, documentée et « audit ready » pour un commissaire aux comptes ou un auditeur extra-financier ?
Un cas très concret concerne l’accompagnement d’une filiale d’un groupe français soumis à la CSRD (première vague d’application). L’objectif : réaliser une première analyse de double matérialité et structurer un reporting aligné sur la CSRD et les ESRS, dans une trajectoire compatible avec les attentes d’un organisme tiers indépendant (OTI) chargé d’émettre une assurance.
Le principal défi ne résidait pas dans la bonne volonté interne, mais dans la complexité combinée des textes (CSRD, ESRS, guidances EFRAG), leur appropriation par des métiers peu familiers de ces cadres, et la sécurisation d’une piste de preuve permettant de reconstituer les jugements et estimations.
Dans ce contexte, nous avons utilisé l’IA comme moteur de structuration, jamais comme « oracle » ni substitut au jugement managérial, notamment pour :
• cartographier les exigences ESRS par thématique et par point de donnée, en les reliant aux enjeux identifiés dans la matrice IRO et aux processus internes existants ;
• pré-remplir des trames de livrables clés (mémo de DMA détaillant méthode, sources, parties prenantes, critères et arbitrages ; tables IRO et de double matérialité ; journal des changements) ;
• générer un index ESRS indiquant, pour chaque exigence, où l’information est traitée ou, à défaut, pourquoi elle est considérée comme non applicable ou non matérielle.
Ce qui n'est pas explicable n'est pas défendable.
Le point non négociable était la traçabilité : chaque proposition issue de l’IA devait être reliée à un extrait de source (normatif ou interne) clairement identifié ; chaque estimation ou interprétation devait être examinée, assumée, corrigée ou rejetée par l’équipe projet, puis consignée dans un journal décisionnel. L’OTI devait pouvoir tester les parcours de preuve : retrouver la source d’une affirmation, distinguer données primaires et estimations, et vérifier les interventions humaines. C’est ce niveau de traçabilité qui rend, selon moi, le dispositif réellement « assurance-ready ».
Nous avons combiné plusieurs briques en nous appuyant sur plusieurs modèles pour une recherche structurée, construction de tableaux et élaboration de processus, une base documentaire ancrée sur les corpus internes et réglementaires). L’enjeu n’était pas de multiplier les outils, mais de les articuler dans un cadre de gouvernance et de preuves cohérent avec les exigences ESRS.
Les ESRS imposent une transparence forte sur les hypothèses, les sources de données et les méthodologies : selon vous, quels sont les points de friction les plus critiques entre l’usage de l’IA (notamment générative) et ces exigences de transparence, et comment les entreprises peuvent-elles les dépasser sans sacrifier la robustesse ni la crédibilité de leur reporting ?
Les ESRS exigent une transparence élevée sur les hypothèses, sources, jugements et méthodes, en particulier lorsqu’il existe des incertitudes d’estimation. Les modèles d’IA générative fonctionnent sur une logique probabiliste, entraînés sur des corpus massifs dont les sources ne sont pas toujours explicitables. Trois frictions me semblent particulièrement critiques :
• Confusion entre données primaires et estimations dérivées de modèles : risque d’usage de proxys non documentés, notamment sur le climat et le Scope 3, si les hypothèses ne sont pas explicitement présentées.
• Confusion entre Impact et Risque Financier : risque de sur-pondérer les risques financiers pour l'entreprise au détriment de l'impact réel de l'entreprise sur son écosystème.
• Illusion de fiabilité liée à la fluidité rédactionnelle (fluency bias) : un texte très bien rédigé peut masquer des incohérences avec les points de donnée, ou des jugements non explicités dans les sections narratives ESRS, GRI ou IFRS.
Demandez à une IA de rédiger une politique de gestion de l'eau. Elle peut générer une déclaration élégante sur la "neutralité hydrique d'ici 2030" sans s'apercevoir que l'entreprise n'a aucun plan de transition chiffré, ce qui constitue un greenwashing involontaire passible d'amendes sous la directive Green Claims.
• Opacité du dispositif de production : incapacité à reconstituer précisément les sources, versions (facteurs d’émission, référentiels), hypothèses et paramètres utilisés pour produire un chiffre ou une phrase, alors que les ESRS demandent de documenter les jugements, incertitudes et changements méthodologiques.
Pour dépasser ces frictions sans sacrifier la robustesse, quelques garde-fous sont essentiels :
• dissocier strictement, dans les systèmes et dans la documentation, les données primaires, les données calculées selon une méthodologie maîtrisée, et les données estimées ou extrapolées avec l’aide d’un modèle IA ;
• documenter, pour chaque estimation significative, la méthode, les hypothèses, le niveau d’incertitude et l’impact potentiel, conformément à l’esprit d’ESRS 1 sur les sources d’incertitude et les jugements ;
• mettre en place un registre des cas d’usage IA, inspiré des exigences de documentation et de supervision : finalité, sources de données, transformations, impacts potentiels sur les décisions, niveau de risque et modalités de supervision humaine ;
• encadrer les prompts par des protocoles de contrôle : ancrage systématique sur les documents sources (approche type RAG), boucle de vérification (assertions → sources → tests de cohérence), et contrôles de neutralité pour réduire le risque de greenwashing narratif ;
• sécuriser le périmètre data : classification des informations, règles de confidentialité, et validation DSI/juridique sur les modalités d’usage des outils et la conservation des traces.
• Utiliser le balisage numérique (XBRL) pour le rendre auditable numériquement.
L’objectif n’est pas de rendre l’IA « transparente » en elle-même mais de rendre transparent l’usage que l’entreprise en fait dans son reporting : où, comment et dans quelles limites elle intervient.
Avec votre expérience des normes GRI, ESRS et de l’évaluation technique, quels principes méthodologiques clés recommandez-vous pour concevoir un « système IA » appliqué au reporting RSE (cartographie des données, journalisation des traitements, documentation des modèles, gouvernance) afin qu’il reste compréhensible et auditable par un tiers indépendant ?
Avec un peu de recul, un « système IA » appliqué au reporting RSE/ESG doit être conçu comme un dispositif de contrôle interne des données et des jugements, pas comme un outil aveugle d’automatisation. Quatre blocs méthodologiques sont structurants : cartographie des données, journalisation des traitements, documentation des modèles, gouvernance.
Cartographie des données
• Recenser les sources (ERP, outils environnement, RH, fournisseurs, données publiques), leur statut (primaire / dérivée / estimée) et leur lien avec chaque exigence de divulgation ESRS.
• Associer à chaque indicateur clé les processus, systèmes et responsables, afin de permettre une reconstitution rapide en assurance.
Journalisation des traitements
• Tracer les principales étapes : nettoyage, agrégation, calcul, interpolation, génération de texte.
• Consigner les décisions de matérialité et leurs évolutions dans un registre des changements, en cohérence avec l’esprit d’ESRS 2 et les guidances EFRAG, même si le format exact n’est pas prescrit.
Documentation des modèles
• Choisir des modèles, sans créer un risque de dépendance envers le fournisseur. S’il change ses conditions de prix ou de confidentialité, la pérennité du processus de reporting est menacée.
• Piloter le bilan énergétique (Scope 2/3 numérique) pour faire de l'IA un outil de reporting géré de manière responsable.
•
• Décrire les cas d’usage IA, les intrants, les extrants attendus, les limites connues et les critères de qualité des données.
• Versionner les référentiels (facteurs d’émission, règles de calcul), les modèles et les paramètres, afin de reconstituer un résultat à une date donnée.
Gouvernance
• Clarifier les rôles entre directions (DG, ESG, finance, DSI, contrôle interne, comité d’audit…) sur le périmètre IA/ESRS.
• Répondre à l’obligation légale de formation (AI Act) pour les collaborateurs.
• Garantir une supervision humaine explicite et traçable : validations formelles avant publication, responsabilités clairement assumées.
Un système devient réellement auditable dès lors qu’un tiers indépendant peut comprendre ce qu’il fait, sur quelles données, selon quels jugements, et comment l’humain reprend la main sur les arbitrages sensibles.
Vous avez été aux premières loges de l’évolution du reporting RSE, des premiers rapports de durabilité jusqu’aux cadres actuels très normés : quelles erreurs voyez-vous aujourd’hui dans les projets de digitalisation/IA du reporting (surchauffe technologique, délégation excessive aux outils, confusion entre automatisation et fiabilité…) et, à l’inverse, quels sont les bons réflexes à adopter dès le départ ?
Dans les projets IA appliqués au reporting, plusieurs dérives reviennent régulièrement :
• surchauffe technologique : déploiement d’outils sophistiqués mais mal alignés sur le paysage normatif, les contraintes ESRS, les échéances CSRD ou les attentes de l’assurance ;
• délégation excessive à la machine, notamment sur l’analyse de double matérialité ou la hiérarchisation des impacts, risques et opportunités, alors que ces sujets relèvent d’abord de la gouvernance et du jugement professionnel ;
• confusion entre automatisation et fiabilité : un indicateur produit automatiquement à partir de proxys obsolètes demeure méthodologiquement fragile.
Les bons réflexes, à l’inverse, sont simples :
• partir des exigences normatives (ESRS 1 et 2, ESRS thématiques, guidances EFRAG) et des attentes d’assurance pour définir les besoins, puis choisir les briques IA en conséquence, en anticipant lorsque pertinent les implications de l’AI Act ;
• construire dès le départ les quatre livrables structurants : mémo de DMA, matrice IRO, registre des changements, table des informations non matérielles, avec une architecture de preuves compatible avec un contrôle indépendant ;
• intégrer très en amont la DSI, le contrôle interne et, idéalement, l’audit interne, pour éviter la création d’un « tunnel IA » hors des circuits de validation habituels.
En pratique, mieux vaut un système simple, bien documenté et contrôlable, qu’une plateforme très puissante mais difficile à défendre face à un OTI ou à un régulateur.
Si l’on se projette à 5–10 ans, comment imaginez-vous l’articulation entre IA, ESRS, assurance raisonnable et attentes des agences de notation ESG : allons-nous vers des « systèmes experts » standardisés ou plutôt vers des approches sur mesure, très documentées, où la gouvernance humaine restera centrale pour éviter tout effet « boîte noire » ?
À horizon 5 à 10 ans, je ne crois ni à une standardisation totale, ni à un sur-mesure intégralement artisanal. Nous irons vers des architectures hybrides : briques standardisées (taxonomies ESRS/ISSB, XBRL, gabarits de DMA, registres IA) combinées à des approches très documentées, ajustées au secteur, au modèle d’affaires et au profil de matérialité de chaque entreprise.
La vérification tirera mécaniquement vers davantage de rigueur probatoire : logs, journaux décisionnels, versionnage des données et des référentiels, documentation structurée des estimations deviendront des prérequis.
Du côté des agences de notation ESG, on observe déjà une demande accrue de transparence sur la qualité des données, les hypothèses et la gouvernance des dispositifs, afin de distinguer les trajectoires crédibles des narratifs très bien rédigés mais peu étayés. Un risque complémentaire apparaît : une forme d’homogénéisation des jugements si entreprises et analystes s’appuient sur des familles de modèles similaires, des sources publiques proches et des proxys standardisés. Cela renforce l’importance d’une gouvernance humaine forte et explicite.
Dans ce contexte, la responsabilité managériale reste centrale : non pour vérifier chaque ligne de code, mais pour assumer les arbitrages sur les enjeux matériels, les scénarios climatiques, les facteurs d’émission et les hypothèses de transition. L’IA peut aider à calculer, vérifier et documenter ; elle ne remplacera pas l’acte de gouvernance.
Pour conclure, quel conseil très pragmatique donneriez-vous à un directeur RSE ou financier qui doit lancer dès cette année un projet IA pour son reporting ESRS : par quoi commencer, quelle question se poser en premier, et quel écueil éviter absolument pour rester à la fois conforme, crédible… et maître de ses choix méthodologiques ?
Si je devais formuler un seul conseil à un directeur RSE ou financier qui lance un projet IA pour son reporting ESRS, ce serait : commencez par votre dossier de preuves, pas par votre outil. La première question n’est pas « quelle IA choisir ? », mais : « de quelles preuves aurai-je besoin dans 12 à 24 mois pour être serein face à une assurance ESRS et aux questions de mes donneurs d’ordre ou de mes financeurs ? ».
Concrètement, je recommande de :
• clarifier l’ambition : simple conformité, différenciation ESG, préparation à une assurance plus exigeante ;
• construire ou renforcer les piliers : données structurées et fiables, DMA documentée, matrices IRO, registre des changements, table des informations non matérielles, avec des liens explicites vers les exigences ESRS ;
• identifier ensuite les zones où l’IA apporte le plus de valeur sans créer d’angle mort : structuration et suivi de la réglementation, alignement multi référentiels (ESRS/IFRS/GRI), aide à la cohérence narrative, détection d’incohérences entre textes et données.
L’écueil à éviter absolument : basculer trop tôt dans un « tunnel IA » qui produit un rapport fluide, multi référentiels, mais dont personne ne peut expliquer les hypothèses, les estimations, ni reconstruire les calculs.
À ce stade d’implémentation de la CSRD et de montée en puissance de l’AI Act, l’enjeu n’est plus simplement « d’utiliser l’IA », mais de pouvoir démontrer, devant un auditeur ou un régulateur, la solidité probatoire d’un reporting de durabilité assisté par IA.
Pour en savoir plus : https://www.materiality-reporting.com/