La fièvre de l’IA s’empare de l’assurance

par | 12 Fév 2026 | Eclairage

Les actions du secteur européen de l’assurance ont chuté mardi. Elles ont été entrainées par celles des courtiers américains la veille à Wall Street, à la suite de l’annonce par OpenAI du développement d’un prétendu courtier virtuel. L’irrationnel, porté par l’IA, a provoqué une grande agitation.

L’ambition d’OpenAI est relayée en Europe par une assurtech espagnole (Tuio), un courtier qui se lance dans la souscription à partir de ChatGPT. Cela suffit, sans autre analyse, pour enflammer les réseaux sociaux et donner corps à ce vieux fantasme de la substitution des réseaux physiques, voire de leur disparition. Qu’en savons-nous ? Tour d’abord, les mouvements boursiers, même d’ampleur, sont erratiques et ne préjugent que rarement de mouvements profonds. Ensuite, il ne faut pas se tromper de combat, l’Intelligence artificielle est une innovation majeure. Ses capacités pour apporter plus de transparence au marché, capitaliser de l’information et la restituer sous des formes opérationnelles sont indiscutables. Elles ouvrent des perspectives nouvelles et puissantes tant dans la gestion des données que dans l’optimisation des process et leur mise à la disposition des experts. Déjà, des assureurs utilisent des solutions basées sur les modèles GPT d’OpenAI pour transformer leur communication, améliorant ainsi la personnalisation et l’efficacité des échanges avec les clients.

De là à imaginer qu’une souscription en ligne complète va pouvoir se substituer aux canaux actuels, il y a une distance dont personne aujourd’hui ne peut prédire si elle sera franchie et quand. En effet, bien des réserves devront être levées. Tout d’abord, est-ce que les facultés déductives et d’analyse de l’IA sont compatibles avec les exigences légales d’information et de conseil propres à orienter une prise de décision, en l’occurrence la souscription d’un contrat ? Pour l’instant la preuve n’en est pas rapportée. Or, le fond du sujet est bien la préservation du libre arbitre de chaque client, et in fine la protection de ses intérêts. Divers travaux1 permettent de dire, en l’état, que la fiabilité des informations produites est insuffisante. Ils contestent la capacité de l’IA à recommander des contrats d’assurance sans interrelation humaine. Il est donc impératif d’aller plus loin et de valider ou pas sa compatibilité avec la réglementation. Car pour l’instant, nos marchés sont régulés et la loi encadre strictement la présentation d’opérations d’assurances et les conditions de la délivrance d’un conseil dans ce domaine.

Un autre aspect, souvent mésestimé, est celui de la qualité des souscriptions réalisées sans intervention humaine. Là encore, les biais comportementaux modifient la sélection des risques et l’aléa moral, rendant les équilibres techniques incertains. En d’autres termes, les portefeuilles constitués par ces moyens s’avèreraient rapidement de piètre qualité. En effet, l’asymétrie de l’information n’est pas ou mal corrigée, en tous cas pas comme le fait une interrelation humaine chargée de faire contrepoids au déficit d’informations du client et de lui permettre un choix éclairé. C’est d’ailleurs pour cela, philosophiquement, que le législateur est intervenu.

L’enjeu est donc de vérifier la qualité et la pertinence des dispositifs proposés par l’IA. Aujourd’hui, son inadéquation ne fait guère de doute sur sa capacité à sélectionner le meilleur contrat. Par voie de conséquence, il est peu probable qu’elle puisse répondre aux nécessités d’un conseil personnalisé. Pour autant, il ne faut pas en rester là, il faut conduire les travaux pour cerner les capacités et les limites de l’IA dont nous commençons juste à discerner l’influence et les apports dans les parcours clients. Or, c’est un domaine où ils peuvent transformer « l’expérience client » et permettre des choses réellement extraordinaires. Encore faut-il y voir clair pour n’être ni inhibés par une menace hors de proportion, ni donner dans l’adhésion aveugle.

1 Etude de France Télécom Paris publiée dans « Fairness, Accountability and Transparency » juin 2023 Paris
L’IA générative est nécessaire, mais pas suffisante – Yakkota juillet 2025

Henri DEBRUYNE

Contactez-nous