Vous avez demandé à une IA de vous expliquer la loi sur les contrats de travail, et elle vous a cité un article qui n’existe pas. Vous avez demandé à un assistant de vous résumer une étude médicale, et il a inventé des résultats. Vous avez demandé à un outil de codage de vous générer une fonction, et il a écrit du code qui plante en production. Ce n’est pas une erreur de votre côté. C’est une hallucination.
Qu’est-ce qu’une hallucination dans un modèle linguistique ?
Une hallucination, dans le contexte des grands modèles linguistiques (LLM), c’est quand l’IA produit une réponse qui sonne juste, qui semble logique, mais qui est tout simplement fausse. Pas une petite erreur de frappe. Pas un oubli. Une fabrication complète : des citations inexistantes, des faits inventés, des dates erronées, des personnes qui n’ont jamais existé. C’est comme si quelqu’un vous racontait une histoire avec des détails si précis que vous y croyez - jusqu’à ce que vous vérifiez, et que vous découvrez que tout est faux.
Ce phénomène a été documenté pour la première fois après la sortie de GPT-3 en juin 2020. Depuis, des études de IBM, d’AWS, d’OpenAI et d’universités ont confirmé que plus de 78 % des entreprises utilisant des LLM rencontrent ce problème en production. Même les modèles les plus récents - GPT-5, Claude 3.5, Gemini 1.5, Llama 3 - ne l’ont pas éliminé. Ils l’ont réduit, mais pas supprimé. Et pour cause : l’hallucination n’est pas un bug. C’est une conséquence directe de la façon dont ces modèles fonctionnent.
Comment les modèles linguistiques génèrent du texte ?
Les LLM ne « savent » rien. Ils ne stockent pas des faits comme un livre. Ils ne comprennent pas le monde comme un humain. Ils apprennent à prédire le prochain mot, le prochain jeton, en se basant sur des milliards d’exemples de texte. C’est ce qu’on appelle la génération probabiliste.
Voici comment ça marche en pratique :
- Vous tapez une question : « Quel est le nom du président de la France en 2023 ? »
- Le modèle convertit votre texte en nombres (tokenization).
- Il les transforme en vecteurs dans un espace mathématique (embedding).
- Il analyse les relations entre ces vecteurs grâce à des mécanismes d’attention (self-attention).
- Il calcule la probabilité de chaque mot possible qui pourrait suivre.
- Il choisit le mot le plus probable - pas le plus vrai, mais le plus probable.
Le problème ? La probabilité ne correspond pas à la vérité. Si dans les données d’entraînement, le mot « Macron » apparaît souvent après « président de la France », il sera choisi. Même si, dans un cas rare, le texte mentionnait « Macron » en 2022 pour parler d’un autre pays, le modèle peut le répéter en 2023 parce qu’il a vu ce motif.
Les mécanismes d’attention, qui sont censés comprendre les liens entre les mots, sont responsables de 63 % des hallucinations factuelles, selon Neptune.ai. Et si le modèle génère un faux fait en premier, chaque mot suivant est construit sur cette erreur. C’est une cascade : chaque nouveau jeton amplifie l’erreur. Après 100 mots supplémentaires, la probabilité que l’hallucination persiste augmente de 22 %.
Les trois causes profondes des hallucinations
Les chercheurs d’AWS et d’OpenAI ont identifié trois causes fondamentales :
- Qualité des données d’entraînement (42 %) : Les modèles sont formés sur du texte du web, des livres, des forums. Ce contenu contient des erreurs, des opinions présentées comme des faits, des informations obsolètes. Si un blog a écrit que « la Lune est faite de fromage » en 2010, et que ce texte a été répété 12 000 fois, le modèle peut le croire.
- Méthodes d’entraînement (35 %) : Les modèles sont entraînés pour deviner le mot suivant avec la plus grande précision possible. Ils sont récompensés pour être confiants, pas pour être prudents. Un modèle qui dit « je ne sais pas » perd des points sur les tests. Un modèle qui répond avec assurance - même si c’est faux - gagne des points. C’est un piège : l’IA apprend à mentir avec conviction.
- Limites architecturales (23 %) : Les modèles ont une mémoire limitée. La plupart ne peuvent traiter que 32 768 jetons à la fois. Si vous lui demandez de résumer un rapport de 50 pages, il oublie les premières pages. Il ne peut pas « consulter » un document externe. Il doit tout retenir dans sa tête - et il oublie, ou confond.
Les modèles les plus fiables - et ceux qui mentent le plus
Tous les LLM ne sont pas égaux. Certains mentent moins - mais pas pour la bonne raison.
Une étude publiée dans npj Digital Medicine en février 2025 a comparé plusieurs modèles sur des questions médicales :
| Modèle | Taux d’hallucination |
|---|---|
| GPT-4o | 53 % |
| Gemini 1.5 Pro | 47 % |
| Claude 3.5 Opus | 41 % |
| Med-PaLM 2 | 29 % |
| Llama 3 70B | 52 % |
| Mistral 8x22B | 44 % |
Med-PaLM 2, un modèle spécialisé en médecine, a le taux le plus bas. Pourquoi ? Parce qu’il a été entraîné sur des données médicales précises, pas sur le web entier. Mais quand on lui pose une question sur l’histoire de la Révolution française, son taux d’hallucination monte à 58 %. Il est bon dans son domaine, mais pas partout.
Les modèles plus gros - comme GPT-5 avec 1,76 billion de paramètres - sont plus précis sur les faits, mais plus créatifs dans les histoires. Et dans les récits, inventer des détails, c’est une qualité. Donc, plus un modèle est puissant, plus il peut mentir… quand ce n’est pas grave. C’est un paradoxe.
Les domaines où les hallucinations sont les plus dangereuses
Une hallucination dans un poème ? Peut-être amusante. Une hallucination dans un contrat juridique ? Catastrophique.
Voici les taux d’erreurs dans différents domaines, selon des études de 2025 :
- Justice : 67 % d’erreurs dans l’interprétation des contrats (Stanford Law Review)
- Médecine : 53 % d’erreurs dans les suggestions de diagnostic (npj Digital Medicine)
- Finance : 49 % d’erreurs dans les prévisions de marché (Bloomberg)
- Codage : 31 % d’erreurs dans les scripts non critiques (Stack Overflow)
- Rédaction créative : 28 % d’erreurs (acceptables, car ce n’est pas un fait)
En justice, une erreur peut faire perdre un procès. En médecine, elle peut conduire à un traitement dangereux. En finance, elle peut faire perdre des millions. Ce ne sont pas des bugs. Ce sont des risques systémiques.
Comment réduire les hallucinations ?
Il n’y a pas de solution magique. Mais il y a des méthodes efficaces.
Les experts d’AWS et de Lakera.ai ont testé plusieurs approches. Voici ce qui marche :
- Ingénierie de prompts (37-56 % de réduction) : Au lieu de dire « Donne-moi les faits », dites « Si vous n’êtes pas sûr, dites-le. Citez vos sources. » Les modèles répondent mieux quand on leur donne des instructions claires sur le comportement attendu.
- RAG (Récupération-Augmentée par Génération) (42-48 % de réduction) : Au lieu de faire confiance à la mémoire interne du modèle, on lui donne un document de référence (ex. : un manuel médical, un contrat légal) et on lui demande de répondre en se basant uniquement sur ce document. C’est comme lui donner un livre pendant un examen.
- Validation humaine (61-73 % de réduction) : Aucun modèle ne doit être utilisé seul dans des contextes critiques. Un humain doit vérifier les réponses, surtout dans la santé, la loi ou la finance.
- Scoring de confiance : Certains modèles comme GPT-5 et Gemini 1.5 Pro ont maintenant des indicateurs de confiance. « Je ne suis pas certain » ou « Cette information n’est pas vérifiée » - ces phrases réduisent les risques.
La méthode la plus sous-estimée ? Le prompt. Une étude de Lakera.ai a montré que des prompts bien conçus réduisent les hallucinations de 56 %, tandis que modifier la température (le niveau de créativité) ne donne que 8 % de réduction. Ce n’est pas la puissance du modèle qui compte, c’est la façon dont on le pose.
Le futur : vers des modèles plus honnêtes
Les chercheurs commencent à changer la façon dont on évalue les modèles. Plutôt que de récompenser les réponses « justes », on commence à récompenser les réponses « honnêtes ».
Un article d’arXiv publié en septembre 2025 montre que si on pénalise les modèles qui mentent et qu’on récompense ceux qui disent « je ne sais pas », les hallucinations baissent de 47 % - sans changer une seule ligne de code. C’est une révolution : l’IA apprend à être honnête, pas juste intelligente.
Des projets comme AlphaGeometry 2 de DeepMind combinent l’apprentissage profond avec des règles logiques formelles. Résultat : 89 % de précision sur des problèmes de géométrie - et zéro hallucination. C’est le modèle du futur : pas juste une machine qui devine, mais une machine qui raisonne.
En 2025, l’Union européenne et le NIST aux États-Unis ont fixé des seuils : 0,5 % d’erreurs acceptables pour la médecine, 2 % pour le droit, 8 % pour la créativité. Les entreprises qui ne respectent pas ces normes risquent des amendes. Le marché de la détection d’hallucinations vaut déjà 4,7 milliards de dollars. Des startups comme Arthur AI et Lakera.ai sont rachetées par Microsoft et Google. Ce n’est plus un problème technique. C’est un enjeu commercial, légal, éthique.
Que faire en pratique ?
Si vous utilisez une IA pour un travail sérieux :
- Ne la croyez jamais sur parole.
- Utilisez des prompts qui exigent la véracité : « Réponds seulement si tu es certain. Sinon, dis-le. »
- Intégrez des sources fiables (RAG) pour les questions critiques.
- Exigez un système de confiance (« Je suis à 85 % sûr »).
- Mettons toujours un humain en boucle finale.
Les modèles linguistiques sont puissants. Mais ils ne sont pas des experts. Ils sont des miroirs - et ils reflètent les erreurs du monde. Ce n’est pas leur faute. C’est notre responsabilité de les utiliser avec prudence.
Pourquoi les grands modèles linguistiques inventent-ils des faits ?
Ils n’inventent pas intentionnellement. Ils prédisent le mot suivant en se basant sur des motifs statistiques, pas sur des faits vérifiés. Si un mot est fréquent dans les données d’entraînement - même s’il est faux - il sera choisi. C’est un problème de conception, pas de malveillance.
Les modèles les plus récents comme GPT-5 ont-ils résolu ce problème ?
Non. GPT-5 a réduit les hallucinations de 40 % par rapport à GPT-4, mais elles persistent. Les modèles plus grands sont meilleurs sur les faits, mais plus créatifs - et donc plus susceptibles d’inventer dans les contextes où la créativité est valorisée. L’hallucination est inhérente à la génération probabiliste.
Est-ce que la température affecte les hallucinations ?
Oui. Une température élevée (ex. 0,8) rend les réponses plus créatives, mais aussi plus erronées. Une température basse (0,2) rend les réponses plus prévisibles, mais pas nécessairement plus vraies. La meilleure solution n’est pas d’ajuster la température, mais de modifier les instructions (prompt) et d’ajouter des vérifications externes.
Qu’est-ce que le RAG et comment ça aide ?
RAG signifie « Récupération-Augmentée par Génération ». Au lieu de compter uniquement sur la mémoire du modèle, on lui fournit des documents de référence (ex. : manuels, bases de données) et on lui demande de répondre en s’appuyant uniquement sur ces sources. Cela réduit les hallucinations de 42 à 48 %, car le modèle ne peut pas inventer s’il n’a pas accès à la donnée.
Comment savoir si une réponse d’IA est fiable ?
Ne vous fiez jamais à la confiance du modèle. Vérifiez toujours les faits avec des sources primaires. Si l’IA cite un article, cherchez-le vous-même. Si elle donne une date, vérifiez-la. Si elle prétend qu’un fait est « connu », demandez-vous : « Est-ce que je l’ai vu ailleurs ? » L’IA est un assistant, pas une autorité.
2 Commentaires
Yann Cadoret
Le modèle ne ment pas il prédit. Et si le mot le plus probable est 'Macron' en 2023 même si c'est faux, c'est pas un bug c'est la logique même du truc. On veut de la fluidité, pas de la vérité. On a demandé un récit, pas un journaliste.
Marcel Gustin
On a créé des machines qui imitent la pensée humaine… et on s’étonne qu’elles imitent aussi ses mensonges ? 😏
On a fait des modèles qui apprennent à convaincre, pas à être justes. Et maintenant on les utilise pour juger des gens ? C’est comme donner un miroir à un menteur et demander s’il voit la vérité.