
Par notre envoyé spécial Hervé GONAY – RAISE Summit
Au cœur de l’une des plus emblématiques galeries parisiennes, le Carrousel du Louvre, s’est tenu le Raise Summit, un événement d’envergure mondiale sur l’avenir de l’intelligence artificielle générale (AGI). Intitulée « The AGI Ascent: Climbing Toward Superhuman Intelligence », cette conférence a réuni les figures de proue du secteur technologique pour débattre des perspectives, des limites et des responsabilités liées à la montée en puissance de l’IA.
Organisée dans une atmosphère sobre mais résolument tournée vers l’avenir, la table ronde, modérée par le journaliste technologique Reed Albergotti (Semafor), a mis en lumière des sujets cruciaux : la définition controversée de l’AGI, l’importance des ressources de calcul et de données, les mutations du marché du travail, et les exigences éthiques qui s’imposent aux créateurs de ces technologies.
Parmi les intervenants figuraient Sarah Franklin (Lattice), Peter Sarlin (Silo AI), Chase Lochmiller (Crusoe), Illia Polosukhin (NEAR Protocol) et Beyang Liu (Sourcegraph), représentant un éventail de secteurs allant du cloud computing à la blockchain, en passant par le développement logiciel et l’IA générative.
Définir l’AGI : un objectif encore flou, mais fondamental
Le premier thème abordé, et sans doute le plus complexe, fut celui de la définition de l’intelligence artificielle générale. Pour Illia Polosukhin, l’un des cofondateurs de NEAR Protocol, « l’AGI reste une cible mouvante. On parle souvent d’un système capable d’exécuter toutes les tâches cognitives humaines au moins aussi bien que nous, mais il est encore très difficile de le mesurer de manière rigoureuse ».
La multiplication des grands modèles de langage (LLMs), alimentés par des quantités colossales de données et une puissance de calcul sans précédent, a contribué à flouter les lignes entre IA spécialisée (narrow AI) et AGI. Les progrès du deep learning, notamment grâce aux mécanismes d’attention, ont permis des avancées impressionnantes. Mais, comme l’a souligné Chase Lochmiller (Crusoe), « l’échelle ne suffit pas. L’accroissement des capacités de calcul n’implique pas nécessairement une intelligence plus générale ou plus autonome ».
Données vs Calcul : une équation subtile à équilibrer
Le second axe de discussion a mis en exergue l’importance stratégique de l’équilibre entre données de qualité et puissance de traitement. Selon Beyang Liu (Sourcegraph), « l’un des pièges de l’approche actuelle est de croire que plus de GPU signifie automatiquement de meilleures performances. Or, sans données pertinentes et diversifiées, on court le risque de surapprentissage et d’une généralisation limitée ».
Les intervenants ont évoqué les nouvelles tendances dans l’entraînement des modèles : l’intégration de boucles de rétroaction inspirées de l’apprentissage humain, la montée en puissance du RLHF (reinforcement learning with human feedback), ou encore les architectures hybrides mêlant apprentissage supervisé et non supervisé. Ces approches plus fines laissent entrevoir un avenir où les IA ne se contentent plus d’imiter, mais apprennent véritablement à comprendre.

Travail et société : vers une cohabitation homme-machine
Impossible d’aborder l’AGI sans évoquer son impact sur le marché du travail. Sarah Franklin (Lattice) a ouvertement reconnu « l’anxiété croissante face au risque de remplacement des emplois par l’IA ». Mais elle a aussi insisté sur une lecture plus optimiste : « L’IA n’est pas nécessairement un substitut. Elle peut être un amplificateur des capacités humaines. Elle offre l’opportunité de repenser les tâches, de déléguer la routine, et de se concentrer sur la créativité, l’empathie, et la stratégie. »
Tous s’accordent sur un point : l’éducation est la clé. Non seulement pour préparer les générations futures, mais aussi pour permettre aux actifs d’aujourd’hui de monter en compétence et de devenir des partenaires actifs de l’IA dans leur quotidien professionnel.
Éthique, régulation et gouvernance : un futur à écrire collectivement
L’un des moments les plus intenses de la table ronde fut la discussion autour de l’éthique. À mesure que les technologies progressent, les craintes de concentration excessive du pouvoir grandissent. « L’un des plus grands dangers », a alerté Peter Sarlin (Silo AI), « serait de confier l’intelligence du futur à une poignée d’acteurs privés. Nous avons besoin de transparence, de contrôle communautaire et d’une décentralisation réelle ».
Le modèle centralisé dominant (notamment incarné par les GAFAM) est remis en question. Des alternatives décentralisées, comme celles portées par des acteurs du Web3, sont explorées comme une voie vers une IA plus démocratique. La régulation, elle, reste balbutiante : les législateurs peinent à suivre le rythme, et la coordination internationale est encore embryonnaire. Pourtant, « un cadre juridique clair, agile et éthique est indispensable pour éviter les dérives tout en favorisant l’innovation », ont rappelé les intervenants.
Tendances du marché : vers une IA omniprésente et gourmande en énergie
En arrière-plan, une réalité technique s’impose : le développement de l’IA nécessite une puissance énergétique considérable. Les centres de données à venir devront mobiliser des capacités dépassant le gigawatt – l’équivalent d’une centrale nucléaire pour certains projets. Cette « soif énergétique » pose des questions stratégiques, géopolitiques et environnementales.
Dans le même temps, une transformation silencieuse est en cours : l’IA devient progressivement l’interface principale de nos interactions numériques. Les applications se décentralisent, les assistants deviennent proactifs, et les modèles s’intègrent de plus en plus nativement dans les flux de travail.
Recommandations stratégiques pour les entreprises et les décideurs
Au terme des échanges, plusieurs recommandations clés émergent pour les entreprises, les décideurs publics et les innovateurs :
Prioriser la qualité des données : Plutôt que de s’acharner sur la course à la puissance, il est urgent de veiller à la pertinence, à la diversité et à la fraîcheur des jeux de données.
Explorer les modèles hybrides : L’assemblage de diverses techniques d’apprentissage peut ouvrir la voie à des modèles plus efficaces, plus éthiques et plus adaptables.
Investir dans la formation : Les talents humains doivent évoluer au même rythme que les algorithmes. Les plans de formation doivent intégrer la maîtrise des outils IA dans toutes les fonctions.
Développer des solutions décentralisées : Pour éviter la captation de valeur par une minorité, les modèles économiques alternatifs – blockchain, open-source, DAO – doivent être encouragés.
Adopter une approche responsable : Établir un cadre de gouvernance interne éthique, incluant la transparence, la traçabilité des décisions algorithmiques, et des mécanismes de recours.
Anticiper les tensions énergétiques : Intégrer la question énergétique dès la conception des infrastructures IA est devenu incontournable pour la viabilité du secteur.
Conclusion : une ascension collective vers l’inconnu
Ce qui ressort de cette conférence, c’est moins une vision technocentrée qu’un appel à la lucidité collective. L’AGI n’est pas un objectif qu’on atteint seul dans un laboratoire secret. C’est un chemin jalonné de choix éthiques, sociaux et politiques.
Alors que certains rêvent de machines omniscientes et que d’autres redoutent leur emprise, les intervenants ont plaidé pour une approche humaine, collaborative et réfléchie. « Ce n’est pas la technologie en elle-même qui est une menace ou une solution », a résumé Reed Albergotti en conclusion, « c’est l’usage que nous en ferons ».
L’AGI n’est pas encore là. Mais elle n’est plus un fantasme lointain. Elle est une possibilité. Une responsabilité. Et peut-être, un miroir de ce que nous voulons devenir.
PS : En partenariat avec https://recaphub.co/
PS : Dans ce contexte, Zenbaia se présente comme la solution innovante, permettant de créer des agents intelligents utilisant l'IA générative sans expertise technique, boostant ainsi la productivité et les performances.
Peter Sarlin est le co-fondateur et PDG de Silo AI, le plus grand laboratoire privé d'IA en Europe, ainsi que professeur de pratique à l'Université Aalto, spécialisé en apprentissage automatique et en IA. Il possède un doctorat en apprentissage automatique et a occupé divers postes académiques dans des institutions renommées, dont l'Imperial College London et la London School of Economics. Peter a également été vice-président de comités techniques de l'IEEE et a travaillé à la Banque Centrale Européenne et au Fonds Monétaire International. Il est impliqué dans des projets visant à démocratiser l'accès à l'IA et à développer des modèles linguistiques open source.
Sarah Franklin est actuellement la CEO de Lattice, un poste qu'elle occupe depuis janvier 2024. Elle possède une vaste expérience dans le domaine des technologies, ayant travaillé plus de 16 ans chez Salesforce dans divers rôles, y compris Président et CMO. Elle a également occupé des postes chez Amazon Web Services et Coghead. Sarah détient un diplôme en ingénierie chimique et biochimie de Virginia Tech. Elle est passionnée par la santé, la culture, la philanthropie et l'aventure, et elle s'engage à promouvoir l'égalité dans le secteur technologique.
Chase Lochmiller est le co-fondateur et PDG de Crusoe, une entreprise spécialisée dans l'infrastructure AI. Il a une expérience antérieure en tant que partenaire général chez Polychain Capital et trader quantitatif chez Jump Trading Group. Lochmiller a également occupé un poste de directeur général chez KCG Holdings, Inc. Il détient une maîtrise en informatique, spécialisée en intelligence artificielle, de l’Université de Stanford, et un baccalauréat en physique du MIT.
Illia Polosukhin est le co-fondateur de NEAR Protocol, une plateforme de blockchain. Il a précédemment occupé le poste de responsable d'ingénierie chez Google Research, où il a coécrit l'article "Attention Is All You Need", introduisant l'architecture Transformer. Il possède une maîtrise en mathématiques appliquées et en informatique de l'Université Technique Nationale "Kharkiv Polytechnic Institute". Illia est passionné par l'intelligence artificielle, les logiciels et l'analyse des données. Il a des compétences en programmation, notamment en OOP et Python, et est impliqué dans des projets innovants dans le domaine de la finance décentralisée.
Beyang Liu est le CTO et co-fondateur de Sourcegraph. Il a une expérience de plus de 12 ans dans le développement de solutions de recherche de code sémantique. Avant Sourcegraph, il a travaillé en tant qu'ingénieur logiciel chez Palantir Technologies, où il a développé des produits pour des clients Fortune 100. Il a également été assistant de recherche à l'Université de Stanford, où il a conçu des algorithmes de vision par ordinateur. Beyang Liu détient un diplôme en informatique de Stanford et possède des compétences en apprentissage automatique et en vision par ordinateur.
Hervé Gonay est le fondateur de Zenbaia, une plateforme innovante d'intelligence artificielle destinée à optimiser la productivité des professionnels. Avec une expérience significative dans le domaine du marketing et de l'IA, il a co-fondé plusieurs entreprises, dont GetQuanty et le media IA4business.info . Hervé possède des compétences solides en consulting, e-commerce, et en gestion des données. Il a également occupé des postes de direction chez des entreprises renommées comme Oracle et SAP.