Monsieur Boyé, pourriez-vous nous parler de votre parcours et de la manière dont vous êtes devenu Directeur de cabinet et consultant-formateur en intelligence artificielle au sein des collectivités territoriales?
Mon parcours s’est construit à la croisée du droit, d’engagements citoyens et du management. Fort de mes études de droit et en management, mais aussi de mes engagements de terrain, j’ai rejoint le monde des collectivités territoriales, d’abord dans une collectivité de taille modeste, puis dans des postes de dirigeants territoriaux. Pendant près de vingt ans, j’ai accompagné des maires dans le pilotage de leur projet municipal, la gestion de dossiers stratégiques, la coordination des équipes et la relation aux habitants.
C’est dans ce cadre que j’ai découvert le potentiel de l’intelligence artificielle. D’abord par passion pour les nouvelles technologies, mais aussi par nécessité pratique. Les cabinets fonctionnent avec des effectifs restreints, des flux d’information considérables et une exigence de réactivité permanente. J’ai commencé à expérimenter des outils d’IA pour la veille, la synthèse de documents. Les résultats ont été suffisamment probants pour que je décide de structurer cette expertise et de la transmettre à d’autres professionnels du secteur public.
Aujourd'hui, je conjugue ces deux dimensions : directeur de cabinet en exercice et consultant-formateur en IA pour les collectivités. Cette double casquette nourrit chacune de mes activités. Elle me permet de concevoir des formations ancrées dans la réalité quotidienne des agents — notamment à l'INET/CNFPT — plutôt que dans un idéal déconnecté du terrain. En retour, les échanges avec d'autres collectivités et de grandes institutions publiques enrichissent ma propre pratique et celle de la ville.
Quel est, selon vous, le potentiel le plus méconnu de l'intelligence artificielle dans le contexte des collectivités territoriales, et comment comptez-vous aider à le réaliser?
Le potentiel le plus méconnu, à mon sens, réside dans l'aide à la décision et l'analyse documentaire. Précisons d'emblée : l'intelligence artificielle ne se résume pas à l'IA générative. Les IA symboliques et prédictives jouent un rôle tout aussi structurant dans les collectivités, notamment pour la maintenance prédictive des équipements ou l'optimisation des flux. Mais c'est bien l'IA générative que j'aborderai ici, parce que c'est elle qui transforme le plus visiblement le quotidien des cabinets et des directions.
Quand on évoque l'IA dans les collectivités, la plupart des interlocuteurs pensent immédiatement aux chatbots pour l'accueil du public ou à l'automatisation de tâches administratives. C'est utile, mais c'est la partie émergée. La partie immergée, c'est la capacité de l'IA à traiter, croiser et synthétiser des volumes de documents que personne ne peut absorber seul : délibérations, rapports d'inspection, études d'impact, données budgétaires. Un directeur de cabinet reçoit chaque semaine des centaines de pages. L'IA permet d'en extraire l'essentiel en quelques minutes, d'identifier des signaux faibles, de repérer des incohérences.
Pour aider à réaliser ce potentiel, je travaille sur deux axes. Le premier est pédagogique : montrer concrètement aux décideurs ce que l'IA sait faire aujourd'hui, sans jargon, avec des cas d'usage issus de leur quotidien. Le second est méthodologique : accompagner les équipes dans l'intégration progressive de ces outils, dans le respect du cadre fixé par le RGPD et des exigences éthiques propres au service public.
En tant que consultant-formateur, quelles résistances ou obstacles rencontrez-vous le plus souvent lors de l'intégration de solutions d'IA dans les administrations publiques, et comment proposez-vous de les surmonter?
La première résistance, la plus répandue, est culturelle. Beaucoup d’agents et de cadres associent l’IA à une menace pour leur emploi ou à une déshumanisation du service public. Cette crainte est compréhensible. Elle se nourrit d’un discours médiatique souvent alarmiste et d’une méconnaissance de ce que font réellement ces outils.
La deuxième résistance est organisationnelle. Les collectivités fonctionnent en silos. Les directions ne partagent pas toujours leurs données, leurs processus sont hétérogènes. Intégrer l’IA suppose un minimum de transversalité, ce qui bouscule les habitudes.
La troisième est juridique. Les questions liées à la protection des données personnelles, à la souveraineté numérique et à la conformité RGPD génèrent une prudence excessive qui peut paralyser l’action.
Pour surmonter ces obstacles, je privilégie une approche progressive. Commencer par des usages simples et visibles, qui démontrent rapidement leur valeur ajoutée. Former les agents en partant de leurs problématiques concrètes, pas de concepts abstraits. Et surtout, associer les équipes dès le départ : l’IA ne s’impose pas, elle s’adopte.
Avec votre solide expérience en gestion des projets stratégiques dans les collectivités, comment voyez-vous l'impact de l'IA sur la prise de décision politique dans le futur?
L’IA ne remplacera pas la décision politique. La décision politique est un acte de conviction, de responsabilité et de courage qui relève de l’humain. Ce que l’IA va profondément modifier, en revanche, c’est la qualité de l’information qui alimente cette décision.
Aujourd’hui, un maire décide souvent avec une information partielle, filtrée par plusieurs niveaux hiérarchiques, parfois biaisée par les urgences du moment. Demain, l’IA permettra de disposer d’une vision plus complète et plus rapide : synthèse des retours qualitatives, analyse prédictive des impacts budgétaires, benchmark automatisé avec d’autres collectivités.
Je vois aussi un impact sur la temporalité politique. L’IA permet de raccourcir le temps entre l’identification d’un problème et la formulation d’une réponse. Dans un contexte où les habitants attendent des résultats rapides, c’est un atout considérable pour les élus.
Reste une condition : que les décideurs comprennent les limites de ces outils. L’IA propose des analyses, pas des vérités. La responsabilité du choix demeure entièrement humaine.
Pourriez-vous nous donner un exemple concret de projet où l'IA a été mise en œuvre dans une collectivité territoriale et expliquer l'impact qu'elle a eu?
Je peux citer un exemple tiré de ma pratique quotidienne. Dans le cadre de mes fonctions de directeur de cabinet, j'ai conçu un système de revues de presse automatisées fondé sur l'IA générative. Le dispositif produit chaque jour des revues thématiques couvrant plusieurs périmètres : l'actualité locale de la ville, les enjeux des collectivités territoriales, les politiques publiques nationales ayant un impact sur la commune, ou encore la veille sur l'intelligence artificielle appliquée au secteur public.
Concrètement, l'IA collecte, trie et synthétise des dizaines de sources en un document structuré, livré au format Word, prêt à être exploité par le maire et les directeurs dès le début de la journée. Chaque article retenu est accompagné d'un indicateur d'impact territorial et d'une analyse orientée vers l'action.
Avant ce dispositif, la veille reposait sur le temps disponible de collaborateurs, avec une couverture inévitablement lacunaire. Aujourd'hui, le cabinet dispose d'une vision panoramique et quotidienne de son environnement. Les élus identifient plus vite les sujets qui montent. Les directeurs anticipent les sollicitations. Le gain n'est pas seulement en temps : c'est en qualité de pilotage.
Ce type de projet est reproductible dans n'importe quelle collectivité, à condition d'y investir le temps de paramétrage nécessaire. L'outil ne fait pas tout. C'est la connaissance fine du territoire et des priorités politiques qui donne sa valeur à la synthèse produite.
Comment pensez-vous que la formation continue en IA pour les décideurs et les équipes de gestion publique pourrait transformer la fonction publique territoriale?
La formation continue en IA est un levier de transformation majeur pour la fonction publique territoriale. Pas parce qu’elle crée des technophiles, mais parce qu’elle produit des décideurs éclairés.
Quand un directeur général des services comprend ce que l’IA peut et ne peut pas faire, il arbitre différemment les choix d’investissement numérique. Quand un chef de service maîtrise les bases du prompting, il gagne plusieurs heures par semaine sur ses tâches de synthèse et de reporting. Quand un élu saisit les enjeux éthiques de l’IA, il porte un discours plus crédible auprès de ses administrés.
Le vrai défi n’est pas technique. Les outils sont de plus en plus accessibles. Le défi est pédagogique : adapter les formations au niveau réel des agents, partir de cas d’usage concrets, accompagner dans la durée plutôt que de proposer un stage isolé de deux jours. C’est exactement la logique que je défends dans mes interventions : des formations courtes, pratiques, itératives, ancrées dans le quotidien professionnel des participants.
La fonction publique territoriale emploie près de deux millions d’agents en France. Former ne serait-ce qu’une fraction d’entre eux aux usages responsables de l’IA aurait un effet démultiplicateur considérable sur la qualité du service public.
Voyez-vous des risques liés à l'utilisation croissante de l'IA dans les collectivités? Si oui, comment pensez-vous qu'ils devraient être abordés afin de garantir une utilisation éthique et efficace de cette technologie?
Les risques existent et il serait irresponsable de les minimiser. J’en identifie trois principaux dans le contexte des collectivités.
Le premier est le risque de dépendance technologique. S’appuyer sur des solutions d’IA développées par des acteurs privés, souvent américains, pose la question de la souveraineté des données publiques. Les collectivités traitent des informations sensibles sur leurs habitants. La question de l’hébergement, du stockage et de l’accès à ces données doit être posée en amont de tout déploiement.
Le deuxième est le risque de biais. Les modèles d’IA reproduisent les biais présents dans leurs données d’entraînement. Dans un contexte de service public, où l’égalité de traitement est un principe constitutionnel, ce risque doit être pris très au sérieux.
Le troisième est le risque de déshumanisation de la relation à l’usager. L’IA ne doit jamais se substituer au contact humain là où celui-ci est nécessaire : accompagnement social, médiation, écoute des situations de détresse.
Pour y répondre, je préconise une approche fondée sur trois piliers. La transparence d’abord : informer les habitants quand l’IA intervient dans un processus qui les concerne. La supervision ensuite : maintenir un contrôle humain systématique sur les décisions assistées par l’IA. La formation enfin : donner aux agents les clés pour utiliser ces outils de manière critique et responsable. L’éthique n’est pas un frein à l’innovation. C’est la condition de sa légitimité.
Pour en savoir plus : https://www.ville-gennevilliers.fr/