L’IA est de plus en plus utilisée, mais suscite une méfiance croissante
C’est un paradoxe : L’IA prend de plus en plus de place dans le quotidien des Français alors qu’elle génère une inquiétude croissante.
Plus de la moitié des consommateurs considèrent désormais l’IA comme une source d’information à part entière. Un bon tiers passent plus d’une heure par jour sur des outils d’IA, et les interactions avec ces outils ont presque doublé depuis 20231. Toutes les générations sont concernées, de la génération Z où 7 jeunes sur 10 sont très actifs aux baby-boomers qui utilisent l’IA pour 41% d’entre eux. Certes, les usages varient. Les plus jeunes sont investis avec une prédilection pour l’innovation, leurs ainés sont plus en quête d’informations, notamment administratives. Quels que soient les usages la tendance est vraiment à la hausse entrainant des changements de comportements d’achat : 53 % des consommateurs ont déjà acheté à la suite de recommandations d’IA, et 64 % se disent prêts à le faire pour des produits suggérés par l’IA. De fait elle est entrée dans la vie de chacun de nous ou presque.
Dans les relations avec les clients, maints exemples soulignent l’utilisation de l’IA par les clients pour rédiger une déclaration de sinistre, contester une disposition d’un contrat ou s’y référer voire challenger les arbitrages en UC. Avec le risque de brouiller la séparation entre l’assistance et la décision, ce qui serait préjudiciable à l’objectivité de l’analyse. En effet, l’IA ne peut pas pondérer des critères contradictoires (par exemple entre équité et pragmatisme commercial) ou prendre en charge les réalités émotionnelles et, a fortiori, anticiper les conséquences relationnelles des décisions suggérées. L’enjeu est donc de bien borner l’assistance et la décision. Surtout quand la part de la dimension subjective de la conscience et de l’expérience est majeure car elle est constitutive de la création et du maintien de la confiance. Ce qui est au cœur de l’activité de l’assurance.
C’est peut-être ce que suggère l’érosion de la confiance dans l’IA. Son niveau global envers les outils d’IA a chuté de 72% à 58% depuis 2023. Là encore, cela varie en fonction des générations, les plus jeunes ont un côté aficionado que ne partagent pas leurs ainés. Plus de la moitié des consommateurs (53 %) seraient prêts à payer plus cher pour des outils d’IA garantissant la sécurité des données et la cybersécurité. Près de 60 % des consommateurs souhaitent des règles de sécurité et d’équité plus strictes avant que l’IA ne progresse davantage. Et la moitié des répondants appellent à sanctionner plus durement les acteurs ne respectant pas les règles. En cela l’AI Act2 répond à leur attente, il renforce la protection des consommateurs dans les domaines les plus sensibles (santé, discrimination, atteinte à la vie privée, etc.). La défiance peut devenir un poison et jeter une suspicion générale sur ceux qui l’utilisent. Et, là il faut craindre l’effet boule de neige.
Pour autant, l’IA est là et dans bien des domaines elle est plus efficace que nous, elle peut suggérer de bonnes décisions autant que de mauvaises, d’ailleurs. Et cela, les clients le sentent parfaitement. 43 % des Français expriment une méfiance envers l’IA, principalement en raison de l’opacité des algorithmes, des risques sur la vie privée, mais aussi de la désinformation et enfin des conséquences sur leur job. Ce qui nous renvoie à nos propres responsabilités, ne pas abdiquer devant la technologie en défendant la primauté de l’homme dans la décision. Ce n’est pas qu’une question juridique, c’est aussi une question de comportement de chacun de nous, d’éthique. Et, sous cet angle l’IA est aussi un miroir de nos propres faiblesses.
1 Capgemini Research Institute. Enquête menée auprès de 10 000 consommateurs dans 13 pays des Amériques, d’Europe et d’Asie-Pacifique
2 L’IA act sera applicable dans toutes ses dispositions à partir du 2 août 2026.
Henri DEBRUYNE