L'Intelligence Artificielle au service de l'Humanité (Jérôme Ribeiro, Human AI)

Pourriez-vous partager avec nous ce qui vous a initialement inspiré à fonder Human AI, et comment cela a façonné votre vision de l'éthique en intelligence artificielle?

Ce qui m'a initialement inspiré à fonder Human AI, c'est une conviction profonde : l’IA doit être un levier de transformation accessible à tous, et non un privilège réservé à une élite technologique. En observant l’évolution rapide de l’intelligence artificielle, j’ai constaté un écart grandissant entre ceux qui la développent et ceux qui en subissent les effets sans pouvoir en tirer parti.

Human AI est né de cette volonté de démocratiser l’intelligence artificielle, en mettant l’accent sur la formation, l’accompagnement et l’adaptation aux réalités locales. Cela a profondément façonné ma vision de l’éthique en IA, qui repose sur trois piliers : l’inclusivité, la transparence et la responsabilité.

- L’inclusivité, car l’IA ne doit pas être un facteur de fracture numérique, mais un moteur d’autonomisation pour tous.
- La transparence, pour que les décisions algorithmiques soient compréhensibles et explicables.
- La responsabilité, afin que ces technologies respectent nos valeurs humaines et soient utilisées pour le bien commun.

Chez Human AI, notre engagement est clair : placer l’intelligence artificielle au service de l’Humanité. C’est dans cet esprit que nous travaillons à accompagner les pays émergents, notamment en Afrique, afin de co-construire des solutions adaptées, éthiques et durables. L’IA doit être un outil au service des populations, et non un enjeu de domination ou d’exclusion.

Avec votre expérience en gestion et systèmes d'information, comment avez-vous intégré l'éthique dans le développement de solutions d'intelligence artificielle au sein de Human AI?

L’éthique est un enjeu central dans le développement des solutions d’intelligence artificielle chez Human AI. Avec mon expérience en gestion et en systèmes d’information, j’ai toujours veillé à intégrer une approche responsable et inclusive dès la conception des projets en IA.

1. Transparence et Explicabilité
Dans le domaine des systèmes d’information, la traçabilité et la gouvernance des données sont essentielles. Nous appliquons ces principes aux algorithmes d’IA en privilégiant des modèles qui sont interprétables et compréhensibles par leurs utilisateurs, et non des "boîtes noires" opaques. Cela permet aux entreprises, institutions et citoyens de comprendre comment les décisions sont prises et d’identifier d’éventuels biais.

2. IA Responsable et Inclusive
L'IA ne doit pas reproduire ou accentuer les inégalités existantes. C’est pourquoi nous impliquons des équipes pluridisciplinaires et des acteurs locaux dans nos projets, afin d’adapter les solutions aux réalités économiques, sociales et culturelles de chaque territoire. Chez Human AI, nous avons mis en place des formations et des sensibilisations pour aider les utilisateurs à mieux comprendre l'impact des algorithmes et éviter les biais involontaires.

3. Sécurité et Protection des Données
Dans la gestion des systèmes d’information, la cybersécurité et la protection des données sont cruciales. Nous appliquons ces mêmes exigences aux solutions d’IA que nous développons, en respectant les réglementations internationales (comme le RGPD) et en garantissant que les données des utilisateurs restent sécurisées et utilisées de manière éthique.

4. Un Engagement pour l'IA au Service de l'Humanité
Mon approche repose sur un principe fondamental : "L'IA au service de l'Humanité." L’IA doit être un outil d’amélioration des conditions de vie, et non un facteur de dépendance technologique. C'est pourquoi nous encourageons des solutions qui apportent une réelle valeur sociale et économique, que ce soit dans l’éducation, la santé, l’environnement ou le développement des entreprises.

L’éthique en IA ne doit pas être une réflexion théorique, mais une pratique intégrée à chaque étape du développement. Chez Human AI, nous avons fait de cette approche une priorité, en veillant à ce que les technologies que nous mettons en place respectent des principes de justice, de transparence et de bien commun.

En tant que défenseur de l'éthique en IA, quels sont, selon vous, les plus grands défis éthiques auxquels les entreprises technologiques sont confrontées aujourd'hui?

Les défis éthiques auxquels les entreprises technologiques sont confrontées aujourd’hui sont nombreux et complexes. En tant que défenseur de l’éthique en IA, voici les principaux enjeux qui nécessitent une vigilance accrue :

1. Biais et Discrimination Algorithmiques
L’un des défis majeurs est la reproduction et l’amplification des biais dans les systèmes d’IA. Les modèles d’Intelligence Artificielle sont entraînés sur des données historiques, qui peuvent contenir des biais raciaux, de genre ou socio-économiques. Une IA mal conçue peut discriminer certaines populations, par exemple dans le recrutement, l’octroi de crédits ou la reconnaissance faciale. Les entreprises doivent donc mettre en place des mécanismes d’audit et de correction pour garantir des algorithmes équitables et inclusifs.

2. Transparence et Explicabilité
De nombreuses technologies d’IA fonctionnent comme des "boîtes noires", ce qui signifie que leurs décisions sont difficiles à expliquer, même pour leurs concepteurs. Or, pour que l’IA soit acceptée par le grand public et les entreprises, il est essentiel de garantir une explicabilité des algorithmes. Les utilisateurs doivent comprendre comment et pourquoi une IA prend certaines décisions, notamment dans des domaines sensibles comme la santé ou la justice.

3. Protection des Données et Vie Privée
L’IA repose sur l’analyse massive de données, ce qui pose des problèmes de confidentialité. Les entreprises doivent concilier l’exploitation des données et le respect de la vie privée des utilisateurs. Le défi est de développer des IA respectueuses du RGPD (et d’autres réglementations), en minimisant la collecte de données et en renforçant les mesures de cybersécurité.

4. IA et Manipulation de l’Information
Avec l’essor des deepfakes et des algorithmes de personnalisation des contenus, l’IA est de plus en plus utilisée pour manipuler l’opinion publique, diffuser de fausses informations ou influencer des élections. Les entreprises technologiques ont une responsabilité morale : elles doivent mettre en place des garde-fous pour lutter contre la désinformation et assurer une utilisation éthique de l’IA dans les médias et les réseaux sociaux.

5. Automatisation et Impact sur l’Emploi
L’automatisation par l’IA transforme radicalement le marché du travail. Si certaines tâches sont simplifiées, d’autres risquent de disparaître, menaçant des millions d’emplois. Le défi est de trouver un équilibre entre l’innovation et l’inclusion sociale, en accompagnant la transition par des formations adaptées et en favorisant une IA qui assiste l’humain au lieu de le remplacer.

6. Gouvernance et Régulation
Les gouvernements et les entreprises peinent encore à définir des régulations claires pour encadrer l’usage de l’IA. Le défi est d’établir un cadre éthique global, qui protège les citoyens sans freiner l’innovation. Certaines entreprises adoptent une IA responsable et éthique par choix, mais d’autres doivent être incitées, voire contraintes, à le faire.

7. L’IA et le Sens de l’Humanité
Enfin, au-delà des aspects techniques et légaux, il existe une question philosophique et sociétale : jusqu’où laisserons-nous l’IA prendre des décisions à notre place ? L’IA doit rester un outil au service de l’Humanité, et non un substitut à la réflexion humaine. Les entreprises doivent s’engager à développer des IA qui renforcent nos capacités sans nous déposséder de notre libre arbitre.

Les entreprises technologiques doivent relever ces défis en plaçant l’éthique au cœur de leurs innovations. L’enjeu est de construire une Intelligence Artificielle qui respecte l’humain, protège ses droits et favorise un progrès inclusif et durable. Chez Human AI, nous défendons une IA qui sert l’Humanité, et non l’inverse.

Comment voyez-vous le rôle de l'éducation dans la sensibilisation du public et des institutions aux enjeux éthiques de l'intelligence artificielle?

L’éducation joue un rôle fondamental dans la sensibilisation du public et des institutions aux enjeux éthiques de l’Intelligence Artificielle. L’IA impacte profondément nos sociétés, mais son fonctionnement et ses implications restent encore méconnus pour une grande partie de la population. Il est essentiel de permettre à chacun, dès le plus jeune âge, de comprendre les notions de données, d’algorithmes, de biais et de décisions automatisées afin d’éviter à la fois une méfiance excessive et une acceptation aveugle des technologies.

Les décideurs et les institutions, quant à eux, doivent être accompagnés dans leur compréhension des enjeux éthiques, juridiques et sociétaux de l’IA afin qu’ils puissent encadrer son développement par des réglementations adaptées et promouvoir une utilisation responsable et bénéfique pour la société. Dans le même temps, l’évolution rapide du marché du travail impose de préparer les talents de demain en intégrant dans les cursus scolaires et universitaires des formations sur l’éthique de l’IA, les compétences techniques liées à la data science et la programmation, ainsi que les capacités humaines comme l’esprit critique et la prise de décision en collaboration avec l’Intelligence Artificielle.

L’éducation est également un levier pour lutter contre les biais et les inégalités que l’IA pourrait accentuer. Il est impératif de rendre ces formations accessibles à tous, notamment aux populations sous-représentées dans le domaine technologique, afin que l’IA soit un facteur d’inclusion et d’égalité des chances plutôt qu’un outil de fracture numérique. Par ailleurs, il est indispensable que les futurs ingénieurs, développeurs et chercheurs soient formés à concevoir des IA responsables en intégrant dans leurs parcours une réflexion sur l’impact social et éthique de leurs innovations.

L’éducation est ainsi le premier rempart contre les dérives potentielles de l’Intelligence Artificielle. Elle doit permettre de construire une société où chaque individu, entreprise et institution comprend les enjeux de l’IA et peut l’exploiter de manière éthique et durable. C’est dans cette optique que Human AI s’engage activement à démocratiser l’accès à la connaissance et à offrir des formations adaptées, afin que l’Intelligence Artificielle ne soit pas une force incontrôlée, mais bien un outil au service de l’Humanité.

Pourriez-vous nous donner un aperçu des mesures concrètes que Human AI met en œuvre pour garantir des pratiques éthiques dans ses projets d'intelligence artificielle?

Chez Human AI, nous avons mis en place plusieurs initiatives concrètes pour garantir des pratiques éthiques dans le développement et l’utilisation de l’intelligence artificielle. Notre approche repose sur trois principes fondamentaux : l’inclusivité, la transparence et la responsabilité, que nous appliquons à travers des projets concrets à impact social et économique.

Nous accompagnons les gouvernements dans l’élaboration de leur Stratégie nationale de l’IA, en veillant à ce que ces politiques intègrent les dimensions éthiques et inclusives nécessaires à une adoption responsable. Par exemple, nous avons travaillé avec plusieurs pays africains pour structurer leur écosystème IA en mettant l’accent sur la formation des talents locaux, la réglementation éthique de l’IA et la création d’infrastructures adaptées. Cet accompagnement permet de garantir que l’IA soit développée et utilisée dans l’intérêt des populations, et non comme un simple levier économique.

L’éducation étant un levier fondamental pour une IA éthique, nous avons lancé des programmes de sensibilisation et de formation pour tous les publics. Le programme Kids Innov Class, par exemple, est conçu pour initier les enfants à l’IA de manière ludique et responsable, en leur apprenant les bases des algorithmes et en les sensibilisant aux biais et aux impacts sociétaux de cette technologie. En exposant les jeunes générations à ces enjeux dès leur plus jeune âge, nous favorisons une culture technologique responsable et éthique.

Human AI organise également des événements internationaux tels que la Semaine de l’Intelligence Artificielle 2025 (SIA 2025) et les Journées de l’Intelligence Artificielle 2025 à Abidjan (JIA 2025). Ces événements sont des plateformes d’échanges où experts, entreprises, décideurs politiques et société civile peuvent débattre des défis et opportunités liés à l’IA éthique. Lors de ces rencontres, nous mettons un point d’honneur à promouvoir des cas d’usage concrets, des bonnes pratiques et des modèles de gouvernance responsables, garantissant une adoption bénéfique de l’IA pour tous.

Enfin, Human AI déploie des solutions technologiques respectueuses des valeurs éthiques et inclusives. Par exemple, nous avons mis en place un système de vérification biométrique au Togo qui a permis de renforcer la transparence des paiements publics tout en générant plus de 120 millions d’euros d’économies pour la Caisse Nationale de Sécurité Sociale. Ce projet illustre notre engagement à développer des solutions IA qui servent réellement les besoins des citoyens et protègent leurs droits, tout en évitant les abus et les discriminations.

Grâce à ces initiatives, Human AI démontre que l’éthique ne doit pas être un simple principe théorique, mais une réalité intégrée dans toutes les étapes du développement et du déploiement de l’IA. Notre engagement est clair : placer l’intelligence artificielle au service de l’Humanité, en garantissant qu’elle soit un outil d’inclusion, d’innovation et de progrès social.

Quels sont, selon vous, les moyens les plus efficaces pour encourager les entreprises à adopter une approche éthique de l'intelligence artificielle?

Encourager les entreprises à adopter une approche éthique de l’Intelligence Artificielle passe avant tout par une prise de conscience des bénéfices à long terme d’une IA responsable. Il est essentiel de leur démontrer que l’éthique ne constitue pas une contrainte, mais bien un levier de confiance, de performance et d’innovation durable. Lorsqu’une entreprise adopte une IA transparente et équitable, elle renforce non seulement sa réputation, mais elle améliore également son efficacité en réduisant les biais et en évitant les risques liés aux régulations futures.

Pour favoriser cette transition, il est important de mettre en place des réglementations claires et incitatives, tout en accompagnant les entreprises dans leur mise en conformité. Les gouvernements et les institutions doivent proposer des cadres législatifs encourageant les bonnes pratiques, en valorisant celles qui respectent des standards éthiques et en pénalisant les abus. Mais la régulation seule ne suffit pas, il est aussi nécessaire d’offrir aux entreprises des outils concrets et des ressources adaptées pour intégrer l’éthique dès la conception de leurs systèmes d’IA.

La formation et la sensibilisation des dirigeants, des développeurs et des équipes métier jouent également un rôle clé dans cette transformation. En leur donnant accès à des formations adaptées sur les biais algorithmiques, la transparence et la protection des données, on les aide à comprendre pourquoi et comment mettre en place une IA plus responsable. C’est dans cette optique que Human AI développe des programmes de formation sur mesure, destinés à accompagner les entreprises dans leur transition vers une IA éthique.

Un autre levier puissant est l’incitation économique et l’accompagnement technologique. Les entreprises sont plus enclines à adopter des pratiques responsables si elles y trouvent un avantage concurrentiel. Il est donc crucial de leur donner accès à des financements, des certifications ou des labels de confiance qui valorisent les solutions IA éthiques et responsables. De plus, en facilitant l’accès à des infrastructures technologiques adaptées, en particulier pour les PME et les startups, on encourage un développement de l’IA qui repose sur des principes de transparence et d’équité.

La collaboration entre les entreprises, les institutions académiques et les organisations spécialisées en IA éthique doit être encouragée pour créer un écosystème où les bonnes pratiques se partagent et s’enrichissent mutuellement. Des événements tels que les JIA 2025 à Abidjan ou la Semaine de l’Intelligence Artificielle 2025 (SIA 2025) permettent de réunir les acteurs du secteur afin de favoriser l’échange de connaissances et la mise en place de standards communs pour une IA plus responsable.

L’adoption d’une Intelligence Artificielle éthique ne doit pas être perçue comme une contrainte, mais comme une nécessité stratégique pour garantir une innovation durable et socialement bénéfique. En combinant régulation, incitations économiques, formations adaptées et collaborations intersectorielles, nous pouvons faire en sorte que l’IA devienne un véritable outil au service de l’Humanité, respectueux des valeurs humaines et des principes de justice et d’équité.

En tant que Co-Président du comité d'organisation de la Semaine de l'Intelligence Artificielle 2024, comment envisagez-vous l'avenir de l'éthique en IA dans les prochaines années?

L’avenir de l’éthique en Intelligence Artificielle dans les prochaines années repose sur trois grands axes : la régulation et la gouvernance, l’éducation et la sensibilisation, ainsi que l’innovation technologique responsable.

D’abord, la régulation et la gouvernance vont jouer un rôle clé. Aujourd’hui, nous observons une prise de conscience mondiale sur la nécessité d’encadrer l’IA pour éviter ses dérives, notamment en matière de biais algorithmiques, de surveillance de masse et de manipulation de l’information. Dans les prochaines années, nous assisterons à une multiplication des initiatives législatives visant à imposer plus de transparence, d’explicabilité et de responsabilité aux entreprises développant ces technologies. Les cadres réglementaires comme le AI Act en Europe vont inspirer d’autres régions du monde, mais il sera essentiel que ces régulations ne freinent pas l’innovation et qu’elles restent adaptées aux réalités des différents pays. C’est d’ailleurs l’un des enjeux majeurs que nous avons abordé dans les discussions et panels de la Semaine de l’Intelligence Artificielle 2024 au Togo en juin dernier.

Ensuite, l’éducation et la sensibilisation deviendront des piliers fondamentaux pour garantir une IA plus éthique. L’adoption d’une intelligence artificielle responsable ne peut se faire sans une société informée et capable d’interagir de manière éclairée avec ces technologies. Dans les années à venir, nous verrons un renforcement des programmes de formation en éthique de l’IA, aussi bien pour les ingénieurs et développeurs que pour les décideurs politiques, les entreprises et le grand public. C’est pour cette raison que Human AI s’engage activement à travers des initiatives comme le programme Kids Innov Class, la formation des talents locaux et l’accompagnement des gouvernements dans la mise en place de stratégies nationales d’IA. L’objectif est de permettre aux citoyens d’avoir une meilleure compréhension des impacts de l’IA sur leur vie quotidienne et d’être en mesure de questionner et de challenger les décisions algorithmiques qui les concernent.

L’innovation technologique responsable devra être au cœur des stratégies des entreprises et des gouvernements. À mesure que les capacités de l’IA progressent, notamment avec les avancées en IA générative, en automatisation et en prise de décision autonome, nous devons nous assurer que ces technologies respectent les principes de transparence, d’équité et de protection des droits humains. L’essor des labels IA éthique, des audits de conformité et des standards de gouvernance IA permettra de mieux encadrer ces innovations. Par ailleurs, nous verrons émerger davantage de solutions technologiques intégrant des principes éthiques dès leur conception, avec des algorithmes plus explicables, des IA décentralisées garantissant la confidentialité des données et des outils visant à détecter et corriger les biais.

À travers la Semaine de l’Intelligence Artificielle 2025, la deuxième édition qui se fera à Lomé au Togo du 03 au 07 juin 2025, nous cherchons à anticiper ces évolutions et à rassembler les experts, les entreprises et les décideurs pour définir ensemble un cadre global où l’IA est développée et utilisée dans l’intérêt de l’Humanité. L’éthique en IA ne doit pas être une réflexion secondaire, mais une priorité dès la conception des technologies. Dans cette vision, Human AI continuera de jouer un rôle de catalyseur pour promouvoir une Intelligence Artificielle inclusive, responsable et bénéfique pour tous.


Jérôme RIBEIRO est le Président et Fondateur de Human AI, une entreprise spécialisée dans l'intelligence artificielle. Il possède une vaste expérience en gestion, télécommunications et systèmes d'information. Jérôme est un défenseur de l'éthique dans le domaine de l'IA. Il œuvre pour sensibiliser le grand public et former divers acteurs sur les enjeux de l'IA. En tant que Vice-Président d'Honneur du CDA - Cluster Digital Africa, il s'engage pour un avenir technologique inclusif en Afrique. Il est également Co-Président de la Semaine de l’Intelligence Artificielle 2024 au Togo. Son entreprise propose des solutions IA pour les gouvernements et les entreprises, avec un accent sur le développement durable et l'éducation.

Partager cette page
Publié le   •   Mis à jour le
Partager cette page
Parole d'experts




Les plus lus



À lire aussi










Les articles par date