L’ASSUREUR NIPPON LIFE RECLAME 10 M$ A OPEN AI POUR EXERCICE ILLEGAL DU DROIT – UN CAS DE RESPONSABILITE DU FAIT D’UN PRODUIT DEFECTUEUX ?

par | 12 Mar 2026 | Brèves

En janvier 2024, une assurée nommée Graciela Dela Torre a conclu avec l’assureur une transaction concernant une demande d’invalidité de longue durée. Doutant ensuite de son avocat, elle a soumis sa correspondance à ChatGPT…qui a confirmé ses soupçons. Elle a congédié son avocat, tenté de rouvrir le dossier et déposé des dizaines de requêtes que les tribunaux ont jugées sans fondement juridique.

Le 5 mars, Nippon Life a assigné OpenAi devant un tribunal de Chicago, accusant son robot conversationnel ChatGPT d’avoir fourni une assistance juridique non autorisée à l’assurée. Le programme l’a aidée à contester un dossier de prestations d’invalidité clôturé par un accord définitif. L’intervention de l’algorithme a provoqué une série de recours judiciaires abusifs contre la compagnie d’assurance avec des dommages compensatoires évalués à 300 000 dollars.

Or pour un professeur de droit de l’’Université de Standford, le problème central n’est pas que l’IA aurait simplement “inventé” des choses. Le vrai problème est un problème de conception : le système a été construit de façon à franchir une limite qu’il aurait dû refuser de franchir.

Cette limite, que l’auteur appelle depuis 2012 le “seuil infranchissable”, sert à distinguer deux activités. D’un côté, un système peut fournir de l’information juridique générale, comparer des situations ou exposer des règles. De l’autre, il peut formuler, pour une personne donnée, une conclusion juridique adaptée à sa situation précise. Selon l’auteur, c’est là que commence la zone interdite.

En l’espèce, ChatGPT a franchi cette limite en indiquant à Graciela Dela Torre que les conseils de son avocat étaient erronés. Il ne s’agissait pas d’une information, mais d’une conclusion juridique concernant une relation juridique spécifique, formulée sans connaissance de la juridiction compétente, sans antécédent jurisprudentiel et sans aucune contrainte de conception susceptible de l’empêcher.

L’enjeu de l’affaire Nippon Life v. OpenAI relève toutefois moins du monopole de l’avocat que du droit de la responsabilité du fait d’un produit défectueux. Le problème n’est en effet pas seulement que l’IA se trompe, mais qu’elle ait été conçue sans garde-fous suffisants pour empêcher la formulation de conclusions juridiques individualisées. Une IA doit savoir refuser certaines réponses, et ne peut pas se contenter d’avertissements dans ses conditions d’utilisation.

A noter que l’assurée Graciela Delle Torre elle-même n’est pas visée par la plainte de Nippon Life.

Source : NHK, Reuters, Université de Standford

Contactez-nous