L'IA au service du droit

L'IA au service du droit : pourquoi votre avocat ne peut pas utiliser ChatGPT pour votre dossier
Pierre Lefebvre · Mars 2026 · 8 min de lecture
Avant-propos
J'interviens prochainement auprès de profils avocats et juristes sur le sujet de l'IA. En préparant cette intervention, j'ai creusé le sujet en profondeur. Et ce que j'ai trouvé méritait largement un article. C'est aussi l'occasion de reprendre cette newsletter après plus d'un mois de silence, et de poursuivre la série « L'IA au service de » avec un secteur où les enjeux sont particulièrement tendus.
Parce que dans le juridique, la question n'est pas seulement « est-ce que l'IA est utile ? ». Elle est : « est-ce qu'on a le droit de l'utiliser, et si oui, laquelle, et comment ? »
Le cadre réglementaire et déontologique français interdit, en pratique, de confier des données couvertes par le secret professionnel à une IA grand public hébergée aux États-Unis. L'IA juridique est probablement le secteur où la tension entre puissance technologique et contrainte réglementaire est la plus forte. Et c'est aussi celui où l'écosystème français a le plus bougé en 2025.
Ce dossier explore trois dimensions : la confidentialité face au cloud américain, le problème des hallucinations devant les tribunaux, et les alternatives souveraines qui émergent. Avec un paradoxe que les discours commerciaux tendent à minimiser.
Le secret professionnel face au Cloud Act
Le cœur du problème tient en une phrase. Lorsqu'un avocat saisit des données client dans ChatGPT, Claude, Gemini ou tout autre modèle hébergé aux États-Unis, il expose potentiellement ces informations à une juridiction étrangère.
Le Cloud Act, adopté en 2018, autorise les autorités américaines à exiger l'accès aux données détenues par toute entreprise soumise au droit américain. Y compris lorsque ces données sont stockées sur des serveurs européens. Concrètement, un contrat confidentiel saisi dans une IA opérée par OpenAI, Google ou Microsoft pourrait faire l'objet d'une réquisition par le FBI ou le DoJ, sans que ni l'avocat ni son client n'en soient informés.
Ce n'est pas un risque théorique. L'arrêt Schrems II de la Cour de justice de l'UE a invalidé le Privacy Shield précisément parce que la législation américaine ne garantissait pas un niveau de protection équivalent à celui du RGPD. Le signal est clair : confier des données juridiques sensibles à un prestataire soumis au droit américain crée une zone grise que la déontologie ne tolère pas.
Le Conseil National des Barreaux l'a formalisé : les données couvertes par le secret professionnel ne doivent jamais être soumises à une IA grand public sans pseudonymisation préalable. Mais soyons lucides. Pseudonymiser systématiquement un contrat de 200 pages avant de le soumettre à un outil d'analyse, c'est annuler une bonne partie du gain de productivité promis.
C'est exactement le même sujet que celui que j'abordais dans mon article sur OpenClaw : la question n'est pas de savoir si l'outil est puissant. C'est de savoir ce qu'on lui ouvre. Et en droit, ce qu'on lui ouvre, c'est le secret professionnel.
Le cadre du CNB : ce que les avocats ont le droit, et le devoir, de faire
Le CNB (Conseil National des Barreaux), à travers sa Grille de lecture publiée en juin 2025 et son groupe de travail « Intelligence artificielle », a posé un cadre clair. FranceNum a publié un guide pratique complémentaire. L'esprit est le même : l'IA est autorisée, encouragée même, mais sous supervision constante et dans un périmètre maîtrisé.
L'obligation de compétence, d'abord. L'avocat qui utilise une IA doit comprendre son fonctionnement, ses limites, ses risques. Déployer un outil sans en maîtriser les mécanismes engage la responsabilité professionnelle. L'obligation de vérification, ensuite : tout contenu produit par une IA doit être relu, validé et corrigé par un humain. L'obligation de transparence : informer le client que l'IA a été utilisée. Et l'obligation de charte interne, pour que tous les collaborateurs du cabinet partagent les mêmes règles.
Le CNB a lancé une formation gratuite sur la plateforme Skilia, accessible jusqu'en 2027. Le message est limpide : formez-vous, ou vous engagez votre responsabilité.
Quand l'IA invente le droit
La confidentialité n'est pas le seul angle mort. Il y en a un autre, plus insidieux. L'IA hallucine. Elle invente. Pas par malveillance. Par construction. Les modèles de langage génèrent du texte statistiquement plausible, pas factuellement vérifié. Et en droit, la différence est catastrophique.
En décembre 2025, le sujet a cessé d'être abstrait. En quatre semaines, quatre décisions de juridictions françaises ont explicitement identifié des références jurisprudentielles fictives produites par des IA génératives.
Les 3 et 9 décembre, le tribunal administratif de Grenoble constate que des requêtes rédigées par IA contiennent des « références jurisprudentielles fantaisistes ». Dans un cas, le requérant avait même laissé l'échange avec l'IA dans son document, l'outil lui assurant que le contenu était « juridiquement cadré ». Le 18 décembre, le tribunal judiciaire de Périgueux (n° 23/00452) relève que plusieurs références invoquées « n'existaient tout simplement pas ». C'est la première décision judiciaire française à employer explicitement le terme « hallucinations » d'IA dans sa motivation. Le 29 décembre, le tribunal administratif d'Orléans franchit un cap : il adresse une mise en garde directe à un avocat qui avait cité une quinzaine de références entièrement fausses dans ses conclusions. Des décisions qui n'ont jamais existé, des numéros de pourvoi inventés, des juridictions fantasmées.
Le phénomène n'est pas anecdotique. À l'international, une base de données recense plus de 900 décisions judiciaires dans 32 pays où des hallucinations d'IA ont été identifiées. Aux États-Unis, les sanctions se durcissent : après l'amende de 5 000 dollars dans l'affaire Mata v. Avianca en 2023, un tribunal de l'Alabama a disqualifié des avocats de leur dossier en juillet 2025 (Johnson v. Dunn). La France y entre tardivement, mais les cas se multiplient.
C'est ici que la question de l'expertise humaine devient centrale. Un avocat ne se contente pas de trouver un arrêt pertinent. Il en évalue la portée, la hiérarchie, la stabilité dans le temps. Il sait qu'un arrêt de la deuxième chambre civile n'a pas la même autorité qu'un avis de la Cour de cassation en formation plénière. Il perçoit les revirements en gestation, les courants doctrinaux divergents, les subtilités procédurales qui font basculer un dossier.
Rien de tout cela n'est accessible à un modèle de langage. L'IA peut accélérer la recherche, synthétiser un corpus, identifier des patterns. Mais le raisonnement juridique, articuler des faits, des règles et un contexte dans une argumentation cohérente, reste irréductiblement humain. Le Livre blanc du barreau de Paris, publié en octobre 2025, le dit sans détour : « l'avocat qui a recours à un système d'intelligence artificielle devra nécessairement vérifier la fiabilité des résultats obtenus ».
Les sanctions sont réelles. Avertissement, blâme, interdiction temporaire d'exercer, radiation. Et la responsabilité ne s'arrête pas au disciplinaire : un client lésé par un mémoire truffé de fausses jurisprudences dispose d'un recours en responsabilité civile professionnelle. L'IA ne comparaît pas à la place de l'avocat.
Les alternatives françaises, et leur paradoxe
C'est ici que le paysage a le plus bougé. La France dispose désormais d'un écosystème d'IA juridique structuré. Le CNB a audité 14 solutions dans sa Grille de lecture de juin 2025. Le panorama est riche, mais il contient un paradoxe qu'il faut connaître.
Le fait marquant de 2025 : le rachat de Predictice par Doctrine en septembre, créant un leader européen avec 25 000 clients. Doctrine propose recherche par chatbot, automatisation contentieuse (Flow), analyse documentaire massive (Detect). Hébergement en Allemagne (Francfort, AWS), pseudonymisation des requêtes.
GenIA-L, par Lefebvre Dalloz, fonctionne en Zero Data Retention sur Microsoft Azure en France. Le barreau de Paris a offert un accès gratuit à ses avocats exerçant seuls pendant un an.
Jimini (OdysAI), hébergé chez Scaleway avec certification ISO 27001, utilise Mistral AI. Le cabinet Gide l'a adopté depuis mars 2025. Ordalie, également chez Scaleway, propose des agents IA spécialisés. Notae AI se distingue sur la transcription d'audiences. Septeo Brain et Juri'Predis offrent des points d'entrée pour les plus petites structures.
Et puis il y a Cedie, avec une approche radicale : des modèles légers exécutés directement sur la machine de l'utilisateur, hors ligne. Zéro transfert de données. C'est la seule solution qui élimine totalement le risque de violation du secret professionnel. Mais avec des capacités plus limitées.
Maintenant, le paradoxe. La Grille du CNB révèle que la grande majorité de ces solutions « souveraines » utilisent en réalité GPT-4o d'OpenAI, hébergé sur Microsoft Azure. Doctrine, GenIA-L, Lamyline, Legora, Lexis+AI, tous s'appuient sur le même moteur américain. La souveraineté porte sur les données clients, pas sur le modèle de langage lui-même. Et le CNB le note : même quand un éditeur affirme que les données ne seront pas réutilisées, cette assertion « n'est en général ni prouvable ni vérifiable ».
Plusieurs acteurs amorcent une transition vers Mistral AI ou des modèles open source. Jimini, Ordalie, Lexbase, Septeo y sont déjà. LexisNexis et Lefebvre Dalloz testent Mistral. Cette migration est le prochain front de la souveraineté réelle.
L'AI Act accélère le calendrier
L'AI Act, adopté en 2024, déploie ses obligations progressivement. Les systèmes à risque inacceptable sont interdits depuis février 2025. Les obligations de transparence pour les modèles à usage général s'appliquent depuis août 2025. Et les obligations complètes pour les systèmes à haut risque entreront en vigueur le 2 août 2026.
Les usages juridiques de l'IA tombent souvent dans cette catégorie « haut risque ». Ce qui implique traçabilité complète, documentation technique, transparence envers les justiciables, et supervision humaine effective, pas simplement déclarative.
Pour les cabinets, utiliser une IA non conforme deviendra un risque juridique en soi. Les solutions françaises, conçues dans ce cadre réglementaire, partent avec un avantage structurel. La CNIL a d'ailleurs rappelé en 2025 que le RGPD s'applique pleinement aux traitements par IA, sans exception liée à leur caractère innovant.
Ce que ça change concrètement
Pour un cabinet en 2026, la feuille de route est tracée. D'abord, un audit : quels outils sont utilisés, par qui, avec quelles données. La plupart des cabinets ont expérimenté l'IA de manière informelle, sans gouvernance. C'est exactement ce que l'AI Act vient encadrer.
Ensuite, le choix d'une solution souveraine adaptée. Un cabinet de M&A n'a pas les mêmes besoins qu'un cabinet de contentieux pénal. La segmentation de l'offre française permet aujourd'hui un choix ciblé.
Et surtout, la formation. Le prompting est devenu une compétence professionnelle. Un prompt bien structuré transforme un outil moyen en assistant redoutable. Un prompt mal formulé, même sur le meilleur modèle du marché, produira des résultats dangereux. Le CNB recommande d'assigner un rôle précis à l'IA, de contextualiser chaque demande, de structurer les requêtes avec des balises claires. Ce n'est pas de l'informatique. C'est de la méthodologie juridique appliquée à un nouveau type d'outil.
Conclusion
La spécificité française, cadre déontologique exigeant, RGPD, refus du Cloud Act, n'est pas un frein. C'est un filtre. Il élimine les solutions inadaptées et pousse vers des choix plus robustes.
L'IA va transformer la pratique du droit. Elle le fait déjà. La seule vraie question, c'est de savoir avec quels outils, dans quel cadre, et sous quel contrôle.
Les obligations de l'AI Act pour les systèmes à haut risque entrent en vigueur le 2 août 2026. Et ce calendrier-là ne se négocie pas.
Tags
Partager cet article
Pierre Lefebvre
Fondateur de Pilily, expert en intelligence artificielle et transformation digitale des entreprises.

