L'impact croissant de l'intelligence artificielle sur le secteur de l'assurance soulève des questions essentielles : comment cette technologie modifie-t-elle le paysage de l'évaluation des risques et de la souscription ? Les assureurs peuvent-ils réellement lui faire confiance ?
L'IA, un levier de transformation pour le secteur de l'assurance

À mesure que l'intelligence artificielle redessine les contours de l'industrie, son rôle dans la souscription et l'évaluation des risques, notamment en matière de responsabilité professionnelle et exécutive, devient de plus en plus significatif. Une étude réalisée par Capgemini révèle que 62 % des dirigeants estiment que l'IA améliore la qualité de la souscription et réduit la fraude. Cependant, malgré ces avantages, seulement 43 % des souscripteurs accordent leur confiance aux décisions générées par l'IA. Selon Nirali Shah, partenaire et responsable de D&O chez McGill and Partners, "il y a beaucoup de discussions autour de l'IA et de son utilisation. La technologie évolue rapidement, tant en termes d'adoption que de fonctionnalité, lui permettant d'assumer des tâches de plus en plus complexes."

Pour les assureurs qui évaluent les risques de responsabilité professionnelle et exécutive, l'IA représente à la fois une opportunité d'amélioration des processus de travail et un nouveau risque à gérer pour leurs clients. Dans un contexte où les entreprises intègrent l'IA dans leurs opérations, les déclarations aux investisseurs font l'objet d'un examen minutieux. Un phénomène inquiétant, nommé "AI-washing", émerge, où des entreprises exagèrent ou déforment leur utilisation de l'intelligence artificielle. "Nous avons eu le greenwashing il y a quelques années, où les entreprises prétendaient être plus durables qu'elles ne l'étaient réellement", explique Shah. "Maintenant, nous assistons à l'AI-washing, avec des entreprises qui parlent de leur utilisation de l'IA ou de leurs recherches dans ce domaine, sans que cela ne reflète nécessairement la réalité."

Cette déconnexion a déjà conduit à des actions en justice. En 2024, le nombre de recours collectifs en valeurs mobilières liés à des déclarations sur l'IA a presque doublé. Bien qu'il s'agisse d'un nombre relativement modeste – 15 poursuites sur plus de 220 au total – les experts s'attendent à une vague de réclamations. "La manière dont les entreprises gèrent leur exposition aux risques et comment elles communiquent sur leur utilisation de l'IA auprès des investisseurs et des actionnaires devient de plus en plus cruciale", prévient Shah.

Pour les assureurs, une distinction clé dans l'évaluation des risques liés à l'IA réside dans l'utilisation de modèles open-source ou closed-source. "Avec un système closed-source, il est plus facile de protéger les données utilisées", précise Shah, soulignant l'importance croissante de cette question en fonction de l'industrie et des obligations en matière de confidentialité des données. Les entreprises doivent évaluer les risques concurrentiels associés à l'utilisation d'outils d'IA qui exposent des données sensibles et se poser la question : "Souhaitez-vous que certaines de ces données soient accessibles au public, ou sont-elles exclusives à votre entreprise ?"

Un autre problème émergent concerne l'utilisation non autorisée de l'IA au sein des organisations. "Il y a eu beaucoup de discussions sur l'utilisation d'outils d'IA comme ChatGPT par des employés sans permission", signale Shah. Les entreprises commencent à établir des politiques pour réguler cette utilisation, garantissant que les données sensibles ne soient pas intégrées dans des modèles d'IA sans supervision.

Dans le même temps, les assureurs intègrent l'IA dans la gestion des sinistres, automatisant les processus pour améliorer l'efficacité. Cependant, Shah met en garde contre une dépendance excessive à l'automatisation, notamment dans le secteur de l'assurance financière. "L'IA est utilisée pour gérer les réclamations et générer des réponses standardisées", note-t-elle. "Mais que se passe-t-il lorsque l'IA prend une décision qui ne correspond pas aux spécificités d'une réclamation ? Une dépendance excessive à l'IA pourrait entraîner des décisions qui ne reflètent pas la réalité des faits."

Alors que les risques de gouvernance liés à l'IA augmentent, les conseils d'administration des entreprises accordent une attention accrue à ces enjeux. "C'est absolument un problème croissant", affirme Shah, le qualifiant de risque émergent qui nécessite une attention particulière. Bien que les États-Unis n'aient pas encore introduit de réglementations spécifiques sur l'IA, les entreprises multinationales doivent respecter des normes variées à l'échelle mondiale. "Nous travaillons avec de nombreuses entreprises mondiales qui ont des obligations réglementaires dans différentes juridictions", souligne-t-elle. Les questions relatives à la manière dont les entreprises divulguent leur utilisation de l'IA et comment elles la surveillent deviennent des enjeux cruciaux.

À mesure que l'IA transforme le secteur de l'assurance, le défi est clair : les entreprises doivent trouver un équilibre entre les avantages de l'automatisation et la nécessité de confiance, de transparence et de supervision. Dans quelle mesure les entreprises sont-elles prêtes à naviguer dans cette nouvelle ère de l'IA tout en garantissant la sécurité et la confiance nécessaires pour leurs clients ?

PS : L'intelligence artificielle est en train de révolutionner le secteur de l'assurance, et des solutions comme Zenbaia permettent de créer des agents intelligents sans expertise technique. Ces IA-Assistants peuvent considérablement améliorer votre productivité, en vous aidant à accomplir vos tâches jusqu'à cinq fois plus rapidement.

Source : Insurance Business Magazine,

Partager cette page
Les articles par date