En mai 2023, deux avocats ont perdu leur cause, leur réputation, et ont dû payer 5 000 dollars à la cour - pas pour avoir mal plaidé, mais parce qu’ils ont utilisé ChatGPT pour inventer des arrêts judiciaires. L’affaire Mata v. Avianca n’est pas une histoire de mauvais jugement. C’est un avertissement clair : l’IA générative ne sait pas dire « je ne sais pas ». Et dans le droit, ça peut coûter très cher.
Comment une simple requête a tout détruit
Roberto Mata a déposé une plainte contre la compagnie aérienne Avianca après avoir subi une blessure au genou lors d’un vol en 2019. Le problème ? La loi internationale (la Convention de Montréal) impose un délai de deux ans pour intenter une action. Mata a déposé sa plainte en 2022. Sauf que le délai était déjà expiré. Pour tenter de sauver son affaire, l’avocat Steven Schwartz a demandé à ChatGPT : « Trouvez-moi des cas où la prescription a été suspendue pour des blessures sur un vol international. » ChatGPT a répondu avec confiance. Six cas. Tous faux. Martinez v. Delta Air Lines. Zicherman v. Korean Air Lines. Varghese v. China Southern Airlines. Des noms plausibles, des faits détaillés, des décisions de juges inventés. Schwartz a demandé à l’IA si ces cas étaient réels. L’IA a répondu oui. Il les a copiés dans son mémoire. Pas un seul appel à Westlaw. Pas une vérification sur LexisNexis. Juste la confiance aveugle en une machine qui ne sait pas ce qu’est un tribunal.Avianca a vite remarqué l’anomalie. Les cas n’existaient nulle part. Le juge Castel a ordonné une enquête. Les avocats ont admis leur erreur. Le résultat ? La plainte a été rejetée avec préjudice. Les avocats ont été sanctionnés. Et le monde juridique a pris conscience qu’une IA peut mentir - et que personne ne le saura, si personne ne vérifie.
Pourquoi l’IA génère des mensonges aussi convaincants
ChatGPT n’est pas un moteur de recherche. C’est un modèle linguistique. Il ne cherche pas des réponses. Il prédit la suite la plus probable des mots. Il a été formé sur des milliards de pages web, des livres, des forums, des articles. Mais il n’a pas accès aux bases de données judiciaires. Il ne sait pas si un arrêt existe. Il sait seulement que, dans 87 % des textes juridiques, une phrase comme « la cour a conclu que la prescription a été suspendue en raison de circonstances exceptionnelles » suit souvent le nom d’une compagnie aérienne et d’un juge de la Cour fédérale de New York.Les études le confirment : quand on demande à une IA générative de trouver un cas précis, elle invente 72 % du temps. Même avec GPT-4, la version la plus avancée en 2023, la précision chute à 30 % pour les requêtes juridiques spécifiques. Pourquoi ? Parce qu’elle n’a pas de mémoire. Elle n’a pas de conscience. Elle n’a pas de vérification. Elle n’a qu’un motif statistique. Et elle le présente avec la même assurance qu’un juge en robe noire.
Comparez ça à Westlaw ou LexisNexis. Ces outils ne prédicent pas. Ils consultent. Westlaw accède à plus de 40 000 bases de données juridiques vérifiées par des éditeurs. LexisNexis contient 1,3 milliard de documents avec une validation manuelle. Leur taux d’erreur ? Moins de 0,2 %. L’IA générative, elle, a un taux d’erreur de 15 à 20 % - et parfois bien plus. Ce n’est pas une erreur. C’est un défaut fondamental.
Les règles que tout avocat doit suivre aujourd’hui
Après l’affaire Mata, les barreaux ont réagi. L’American Bar Association a publié une opinion formelle : « Un avocat peut utiliser l’IA, mais il doit superviser, vérifier et communiquer. » Pas de « peut-être ». Pas de « si vous voulez ». C’est une obligation. Voici ce que ça signifie en pratique.- Ne jamais utiliser ChatGPT pour générer des citations. Jamais. Même pour un « petit cas ». C’est comme demander à un étudiant de première année de rédiger un jugement.
- Vérifier chaque référence avec un outil juridique vérifié. Si ChatGPT vous donne un cas, tapez le nom du cas, le nom du juge, la juridiction - dans Westlaw ou LexisNexis. Si ça ne revient pas, c’est un mensonge.
- Documentez votre vérification. Notez dans votre dossier : « Cas X vérifié sur Westlaw le 12/04/2024, référence valide. » Si un juge demande des preuves, vous avez votre trace.
- Informez votre client. Dites-lui : « J’utilise un outil d’IA pour accélérer la recherche, mais je vérifie chaque résultat manuellement. »
Le Barreau de New York a même exigé une formation obligatoire sur l’éthique de l’IA. Les grands cabinets ont mis en place des protocoles à trois étapes : vérification par une base juridique, revue par un senior, et enregistrement dans un journal d’usage. C’est ce qu’on appelle la « règle des deux personnes » : une personne utilise l’IA, une autre la vérifie. C’est lent ? Oui. Mais moins lent qu’une sanction, un rejet de dossier, ou une perte de licence.
Les outils qui marchent - et ceux qui ne doivent pas être utilisés
Tout n’est pas noir ou blanc. L’IA peut aider - si elle est bien conçue. Les outils juridiques spécialisés comme Casetext (maintenant intégré à Westlaw), Lexis+ AI, ou Westlaw Precision ne sont pas des générateurs. Ce sont des assistants vérifiés. Ils fonctionnent dans un « jardin clos » : ils n’ont accès qu’aux bases juridiques officielles. Ils ne prédicent pas. Ils consultent. Et ils vous disent clairement : « Ce cas n’existe pas dans nos sources. »En revanche, ChatGPT, Claude, Gemini - ces outils grand public - ne devraient jamais être utilisés pour la recherche juridique. Ils ne sont pas conçus pour ça. Ce n’est pas une question de compétence. C’est une question de conception. Une voiture ne peut pas voler. Un outil grand public ne peut pas être fiable en droit.
Une étude de l’Université de Chicago a montré que quand les avocats ont utilisé des outils juridiques vérifiés avec IA intégrée, ils ont gagné 22 heures par semaine. Sans erreur. Sans sanction. Sans stress. C’est possible. Mais seulement si on utilise le bon outil.
Les pièges invisibles : la biais d’automatisation
Le plus grand danger n’est pas l’IA. C’est nous. Les avocats, les étudiants, les jeunes associés. On a tendance à croire que si une machine parle avec confiance, elle a raison. C’est ce qu’on appelle le « biais d’automatisation ». 68 % des professionnels utilisant l’IA ont ce biais, selon l’American Psychological Association.Un avocat de New York a raconté sur un forum : « ChatGPT a un ton tellement autoritaire que mes jeunes associés n’ont même pas vérifié. Ils ont juste copié-collé. » C’est ça le vrai risque. Pas la technologie. La confiance aveugle.
Comment le combattre ? En formant les équipes à la méfiance. En leur apprenant à demander : « Et si c’était faux ? » En leur montrant l’affaire Mata. En leur disant : « Si vous ne vérifiez pas, vous allez finir comme eux. »
Le futur est déjà là : des règles, des outils, des conséquences
En janvier 2024, la Cour fédérale américaine a exigé que toute requête mentionne explicitement l’usage de l’IA. Les barreaux de 28 États ont rendu cette obligation légale. Le projet de réforme de la Règle 11 du Code de procédure fédérale va probablement inclure des sanctions spécifiques pour les soumissions falsifiées par IA.Le marché de l’IA juridique va passer de 1,2 milliard à 3,8 milliards de dollars d’ici 2026. Mais les gagnants ne seront pas ceux qui vendent la plus grosse IA. Ce seront ceux qui vendent la plus grande vérification. Les outils qui affichent un score de confiance (comme LexisNexis avec ses scores de 1 à 100), ou qui bloquent automatiquement les citations non vérifiées.
Les cabinets qui adoptent ces protocoles gagnent en productivité. Ceux qui ne le font pas risquent des poursuites pour négligence professionnelle. La Cour suprême pourrait un jour juger qu’un avocat qui utilise ChatGPT sans vérification est en violation de son devoir de compétence. Ce n’est plus une hypothèse. C’est une tendance.
Que faire aujourd’hui ?
Si vous êtes avocat, étudiant en droit, ou même simple utilisateur de l’IA dans un cadre professionnel :- Arrêtez d’utiliser ChatGPT pour la recherche juridique. Point.
- Utilisez seulement des outils juridiques vérifiés (Westlaw, LexisNexis, Casetext).
- Documentez chaque vérification. Même si vous pensez que c’est inutile.
- Formez-vous. Une heure de formation sur l’éthique de l’IA vaut mieux qu’une sanction de 5 000 dollars.
- Parlez-en à votre équipe. Partagez l’affaire Mata. Ce n’est pas une histoire ancienne. C’est un avertissement vivant.
La technologie n’est pas le problème. La confiance aveugle, si. L’IA ne ment pas parce qu’elle est méchante. Elle ment parce qu’elle ne sait pas qu’elle ment. Et c’est à nous de le savoir à sa place.
Pourquoi ChatGPT a-t-il inventé des arrêts dans l’affaire Mata v. Avianca ?
ChatGPT est un modèle linguistique qui prédit les mots les plus probables, pas un moteur de recherche juridique. Il n’a pas accès aux bases de données officielles. Lorsqu’on lui demande un cas précis, il génère une réponse plausible en combinant des éléments de textes qu’il a appris - même si ces éléments n’existent pas dans la réalité. Il n’a pas de mécanisme de vérification, et il répond avec confiance, même quand il se trompe.
Quels outils juridiques sont sûrs pour utiliser l’IA ?
Les outils comme Westlaw Precision, Lexis+ AI et Casetext (intégrée à Westlaw) sont conçus pour le droit. Ils fonctionnent dans des bases de données juridiques vérifiées par des éditeurs. Ils ne génèrent pas de faux cas. Ils consultent et affichent des résultats avec un score de confiance. Contrairement à ChatGPT, ils ne prédicent pas : ils vérifient.
L’American Bar Association autorise-t-elle l’usage de l’IA ?
Oui, mais seulement si l’avocat supervise l’outil, vérifie chaque résultat avec des sources primaires, et informe le client. L’IA ne remplace pas la responsabilité professionnelle. Elle la renforce - si elle est bien utilisée. Sinon, elle devient un risque juridique.
Quelles sont les conséquences d’un usage irresponsable de l’IA en droit ?
Les conséquences peuvent être graves : sanctions financières (jusqu’à plusieurs milliers de dollars), rejet de la requête avec préjudice, perte de crédibilité, et même une enquête disciplinaire pouvant mener à la suspension ou à la radiation. L’affaire Mata v. Avianca est le premier cas public, mais d’autres suivent. Les tribunaux commencent à traiter les hallucinations d’IA comme une faute professionnelle.
Les étudiants en droit doivent-ils apprendre à utiliser l’IA ?
Oui, mais pas comme un outil de recherche. Ils doivent apprendre à la reconnaître comme un outil de biais. Ils doivent apprendre à la vérifier. À la contester. À la documenter. Les facultés de droit aux États-Unis ont déjà intégré des modules sur l’éthique de l’IA dans leurs cursus. Savoir utiliser l’IA, c’est savoir ne pas lui faire confiance.