L’usage de l’IA générative soulève de nombreuses questions en matière juridique, en particulier lorsqu’elle produit des contenus erronés ou inventés : les fameuses « hallucinations ». Jusqu’à aujourd'hui, ces situations semblaient surtout documentées à l’étranger. Une nouvelle décision change la donne. 

Dans ce billet, Damien Charlotin analyse un cas inédit : la première décision française identifiant explicitement des hallucinations d’IA dans un contentieux. Le chercheur en droit met en lumière un enjeu clé pour la pratique juridique : toutes les IA ne se valent pas selon les usages.

Là où les outils généralistes peuvent produire des contenus sans garantie de fiabilité juridique, l’IA spécialisée repose sur des corpus identifiés, cités et vérifiables, condition indispensable pour limiter les hallucinations et permettre un véritable contrôle humain.

Cette tribune n’engage que son auteur.

Les hallucinations de l’intelligence artificielle s’invitent devant les juridictions françaises

Cela aurait pu être un contentieux traditionnel : un requérant s’adresse au tribunal judiciaire de Périgueux en conflit avec une CAF départementale. L’affaire donne lieu à un échange de conclusions, que le pôle social relit avec attention afin de rendre son jugement.

Seulement voilà : le mémoire du requérant s’appuie, à de multiples reprises, sur des jurisprudences que la cour ne parvient pas à localiser. D’autres arguments se reposent sur des arrêts qui existent, mais dont les détails (date, sujet) ne correspondent pas.

Dans sa décision du 18 décembre 2025, le pôle social de Périgueux relève que certaines jurisprudences invoquées sont introuvables ou erronées, et invite explicitement le requérant et son conseil – pourtant victorieux sur le fond – à s’assurer que leurs sources ne relèvent pas d’ « hallucinations », qu’elles proviennent de moteurs de recherche ou d’outils d’intelligence artificielle (« IA »).

Au-delà de l’épisode contentieux, la portée est plus large : pour la première fois, semble-t-il, un juge français mobilise le vocabulaire technique de l’IA dans sa motivation. Et ce n’est probablement pas la dernière fois.

Les hallucinations dans le monde

Depuis le printemps 2025, et dans le cadre de mes cours sur la manière dont l’IA va redessiner la profession juridique, je m’attache à répertorier ce genre d’affaires à travers le monde. Je maintiens une base de données qui compte déjà 900 affaires dans lesquelles une cour ou un tribunal a traité de l’usage d’outils d’IA générative qui a donné lieu à de telles hallucinations.

C’est, bien sûr, un chiffre sous-estimé : la base ne recense que les décisions explicites en la matière, et il est certain que beaucoup d’autres hallucinations ont été ignorées, sciemment ou non.

Les IA ne sont pas entraînées à dire « non »

Dans leur majorité, les cas répertoriés témoignent de la méconnaissance de l’IA par les parties en cause : bien souvent les individus considèrent l’IA générative comme une source de vérité, ignorant l’approche probabilistique au cœur de ces systèmes. On oublie également que trop souvent, les IA ne sont pas entraînées à dire « non », et préfèrent inventer une source juridique que de donner tort à l’utilisateur.

Ce que montrent ces affaires, c’est également que l’idéal-type de l’avocat générant ses conclusions et maîtrisant son dossier est souvent éloigné de la réalité : dans beaucoup de situations, l’argument juridique est créé par une multitude d’individus et d’outils, dont la coordination offre autant de possibilités à l’IA d’y glisser une hallucination.

Cependant, l’idée de cette base de données n’est pas de démontrer les « dangers » de l’IA en matière juridique, mais plutôt d’apporter une certaine lumière sur les accidents de route d’une technologie qui n’est pas encore tout à fait mature, et d’identifier les solutions possibles pour garantir une bonne utilisation de ces nouveaux outils.

AI Hallucination Cases Database – Damien Charlotin
Database tracking legal cases where generative AI produced hallucinated citations submitted in court filings.

L’usage raisonné de l’IA

Ces solutions sont globalement connues, et tiennent notamment à l’usage raisonné de l’IA selon les contextes d’usage : on n’utilise pas nécessairement le même outil pour différentes tâches, de la même manière qu’on ne délègue pas tout ou n’importe comment à un collègue ou subordonné.

Un point frappant des bases de données récoltées est que, à travers le monde, les juges et autres parties sont conscients des promesses de l’IA pour améliorer le fonctionnement de la justice et accroître l’accès au juge ; presque toutes les décisions en font mention. Cependant, tout dépend de comment on l’utilise.

Le Chatbot Juridique répond exclusivement sur la base du corpus juridique, quand le Chatbot Documents ne s’appuie que sur les documents fournis.

Une des clefs sur ce point est la gestion du contexte : la meilleure façon de tirer le meilleur parti de l’IA est de s’assurer qu’elle s’inspire et exploite des corpora juridiques précis, qu’elle peut ensuite citer pour faciliter la tâche de vérification. C’est très exactement ce à quoi s’attachent les outils d’IA de Doctrine : le Chatbot Juridique répond exclusivement sur la base du corpus juridique, quand le Chatbot Documents ne s’appuie que sur les documents fournis – les deux s’assurant toujours de citer leurs sources.

Mais si on peut espérer les réduire, on ne peut pas assurer l’absence d’hallucinations. C’est pourquoi les acteurs juridiques se doivent d’adopter une certaine hygiène épistémique : ne pas se fier entièrement à un contenu généré automatiquement, et adapter le degré de vérification à l’importance de ce contenu. Même si là encore, on peut s’aider de l’IA pour automatiser en partie le processus de vérification.

Checklist pour choisir une IA juridique digne de confiance
Avant de confier vos documents à une IA, posez-vous les bonnes questions. RGPD, hébergement, suppression, sécurité, entraînement des modèles, transparence… Ce guide vous aide à évaluer si une IA est vraiment digne de confiance.

Le rôle de l’avocat

Une des raisons pour lesquelles les hallucinations n’ont pas réellement essaimé en France jusqu’à présent tient au rôle plus important de l’avocat dans le contentieux juridique.

En effet, la majorité des affaires de la base de données concernent des individus qui se représentent eux-mêmes – une situation bien plus rare en France, où il est souvent nécessaire de constituer avocat. L’usage courant de produire les arrêts et sources juridiques sur lesquelles on s’appuie est également bien utile pour freiner la dissémination d’hallucinations.

Dans l’affaire de Périgueux, un avocat était présent, le demandeur ayant demandé – et reçu – l’aide juridictionnelle. Il apparaît cependant probable que l’avocat en charge se soit reposé sur des conclusions produites par son client, sans suffisamment les remettre en question.

C’est, en dernière analyse, l’avocat qui engage sa responsabilité dans le processus juridique

Là encore, l’hallucination révèle une réalité : ce n’est probablement pas une pratique isolée, et il ne s’agit pas de jeter la pierre. Mais elle rappelle également un point essentiel : c’est, en dernière analyse, l’avocat qui engage sa responsabilité dans le processus juridique, et c’est à lui ou elle qu’incombe de s’assurer que celui-ci n’est pas grippé par des confabulations.

Quand générer du texte ne coûte plus rien, établir la vérité juridique devient une question d’outils, de données, et de discernement.

Damien Charlotin est co-directeur du Smart Law Hub, à HEC Paris, et chercheur associé à Sciences Po Paris. Il pratique le droit international public, et vient de lancer un outil qui automatise la vérification des citations et références.

Damien Charlotin
Pelaikan — Citation Verification for Legal Professionals
Pelaikan verifies legal citations automatically.