Enquête sur la confabulation artificielle
Hallucinations de l’IA :
quand les machines
inventent le réel
Les modèles de langage produisent des réponses fluides, convaincantes — et parfois entièrement fabriquées. Anatomie d’un phénomène qui redéfinit notre rapport à la vérité.
01 — Définition
Le mirage statistique
Une hallucination d’IA désigne un contenu généré avec assurance par un modèle de langage, mais qui ne correspond à aucune réalité vérifiable. Le mot est emprunté à la psychiatrie, mais le mécanisme est radicalement différent : il ne s’agit pas d’une perception erronée, mais d’une production statistique sans ancrage factuel.
Les grands modèles de langage (LLM) ne « savent » rien au sens humain. Ils prédisent le prochain mot le plus probable dans une séquence. Lorsque cette prédiction s’écarte des faits — ce qui est mathématiquement inévitable — le résultat peut être une citation inventée, un fait inexistant, ou une référence à un article académique qui n’a jamais été publié.
L’hallucination n’est pas un bug dans le système. C’est une conséquence structurelle du fonctionnement même des modèles génératifs : la fluence linguistique et la véracité factuelle sont deux objectifs distincts, parfois contradictoires.
— Perspective de recherche en IA, 2024
02 — Cas célèbres
Des inventions qui ont fait l’histoire
L’avocat et les jurisprudences fantômes
En 2023, un avocat new-yorkais soumet un mémoire juridique contenant six décisions de justice citées avec précision — numéros de dossier, noms des juges, extraits de verdicts. Aucune n’existait. ChatGPT les avait entièrement inventées, avec une cohérence formelle parfaite.
Juridique — 2023Les fausses références académiques
Des chercheurs ont découvert que les LLM inventent régulièrement des articles scientifiques complets — titre, auteurs, journal, DOI. Certains étudiants et universitaires les ont cités dans leurs travaux sans vérification, propageant de la science-fiction académique.
Académique — 2023–2024Les biographies diffamatoires
Plusieurs personnalités publiques ont découvert que des chatbots généraient des biographies les accusant de crimes jamais commis — détournements de fonds, agressions — avec des détails circonstanciés mais totalement fictifs. Des procédures judiciaires ont été engagées.
Éthique — 2023–202503 — Taxonomie
Six familles d’invention
Factuelle
Dates, chiffres, événements historiques inventés avec un aplomb déconcertant. L’IA produit des statistiques précises qui n’ont jamais existé.
Référentielle
Citations d’articles, livres ou jugements juridiques entièrement fabriqués, avec auteurs, éditeurs et numéros de page fictifs.
Logique
Raisonnements qui semblent rigoureux mais contiennent des sauts logiques, des prémisses fausses ou des conclusions non sequitur.
Biographique
Attributions de propos, d’actions ou de parcours à des personnes réelles, créant de fausses biographies convaincantes.
Instructionnelle
Instructions techniques incorrectes mais formulées avec autorité — dosages médicaux erronés, procédures dangereuses présentées comme sûres.
Contextuelle
Informations vraies isolément mais assemblées dans un contexte trompeur, créant un récit globalement faux à partir de fragments réels.
04 — Anatomie
Comment naît une hallucination
Étape 01
Le prompt
L’utilisateur pose une question pointue ou ambiguë. Plus la demande est spécifique et hors du corpus d’entraînement, plus le risque augmente.
Étape 02
La prédiction
Le modèle calcule la distribution de probabilité du prochain token. En l’absence de données fiables, il interpole entre des patterns voisins.
Étape 03
L’autorenforcement
Chaque token généré devient contexte pour le suivant. Une première inexactitude oriente toute la suite du texte, créant une narration cohérente mais fictive.
Étape 04
Le résultat
L’utilisateur reçoit un texte fluide, structuré, persuasif — impossible à distinguer d’une réponse factuelle sans vérification externe.
05 — Enjeux
Pourquoi c’est grave
Érosion de la confiance
Si l’on ne peut plus distinguer le vrai du fabriqué, c’est l’ensemble de la production textuelle assistée par IA qui devient suspecte — y compris les réponses correctes.
Risque juridique
Des décisions de justice, des contrats, des diagnostics basés sur des hallucinations engagent la responsabilité de ceux qui s’y fient sans vérification.
Propagation virale
Un fait inventé par l’IA, repris dans un article, indexé par un moteur de recherche, puis réinjecté dans les données d’entraînement : la boucle de contamination informationnelle.
Atteinte à la réputation
De fausses accusations générées automatiquement peuvent ruiner des vies professionnelles et personnelles, sans intention malveillante de quiconque.
3–15%
Taux d’hallucination estimé des LLM actuels selon les benchmarks, variant selon le domaine et la complexité de la question.
96%
Des utilisateurs non experts ne détectent pas les hallucinations factuelles dans des textes générés par IA, selon plusieurs études.
∞
L’hallucination ne peut pas être complètement éliminée : c’est un trait structurel de l’approche générative probabiliste.
06 — Solutions
Réduire le mirage
Retrieval-Augmented Generation (RAG)
Ancrer les réponses dans des documents sourcés en temps réel. Au lieu de tout générer de mémoire, le modèle consulte une base de connaissances vérifiées avant de répondre.
Chaîne de pensée et citations
Forcer le modèle à expliciter son raisonnement étape par étape et à citer ses sources. L’opacité nourrit l’hallucination ; la transparence la réduit.
RLHF et entraînement à la calibration
Apprendre au modèle à dire « je ne sais pas » plutôt qu’inventer. Le reinforcement learning from human feedback pénalise les réponses confiantes mais fausses.
Détection automatisée
Des outils de vérification croisée comparent les affirmations du modèle avec des bases de faits. Certains systèmes utilisent un second modèle pour auditer le premier.
Design d’interface
Présenter les niveaux de confiance, afficher des avertissements visuels, rendre explicite le caractère probabiliste des réponses. Le design peut éduquer l’utilisateur.
Littératie IA
Former les utilisateurs à vérifier, questionner, douter. Aucune solution technique ne remplacera l’esprit critique humain face à une machine convaincante.
07 — Démonstration
Trouvez les inventions
Survolez les passages soulignés en rouge pour découvrir la vérité. Chaque exemple ci-dessous contient des hallucinations typiques.
› Parle-moi de l’histoire du café en France.
Le café a été introduit en France par l’explorateur Jean-Baptiste Tavernier en 1645, qui en rapporta des graines de son voyage en Éthiopie. Le premier café parisien, Le Café de la Paix, ouvrit ses portes en 1672 rue de Tournon. Louis XIV en était un grand amateur et en consommait jusqu’à huit tasses par jour selon les mémoires de Saint-Simon.
08 — Chronologie
L’hallucination dans l’histoire de l’IA
2017
L’architecture Transformer
Google publie « Attention Is All You Need ». L’architecture qui rendra possible les LLM modernes porte en elle les germes de l’hallucination : prédiction statistique sans ancrage factuel.
2020
GPT-3 et la prise de conscience
Le modèle d’OpenAI impressionne par sa fluence mais les chercheurs documentent massivement ses inventions factuelles. Le terme « hallucination » entre dans le vocabulaire courant de l’IA.
2022
ChatGPT et le grand public
Des millions d’utilisateurs découvrent simultanément la puissance et les limites des LLM. Les hallucinations deviennent un sujet médiatique et politique.
2023
L’affaire Mata v. Avianca
L’avocat Steven Schwartz soumet au tribunal des jurisprudences inventées par ChatGPT. L’affaire devient le symbole mondial des dangers de la confiance aveugle.
2024
RAG et le grounding
L’industrie converge vers le RAG comme réponse principale. Les benchmarks d’hallucination deviennent un critère central d’évaluation des modèles.
2025
Régulation et standards
L’AI Act européen entre en application. Les obligations de transparence incluent explicitement la déclaration des taux d’hallucination connus pour les systèmes à haut risque.
09 — Glossaire
Les mots du mirage
- Hallucination
- Contenu généré par un modèle qui semble factuel mais ne correspond à aucune réalité vérifiable. Aussi appelé « confabulation ».
- Grounding
- Technique visant à ancrer les réponses d’un modèle dans des sources factuelles vérifiées, réduisant le risque d’invention.
- RAG
- Retrieval-Augmented Generation. Architecture combinant recherche documentaire et génération de texte pour améliorer la fiabilité factuelle.
- Token
- Unité de texte traitée par un LLM (mot, sous-mot ou caractère). La génération opère token par token, chacun influençant le suivant.
- Temperature
- Paramètre contrôlant l’aléatoire de la génération. Plus elle est élevée, plus les réponses sont créatives — et risquent l’hallucination.
- RLHF
- Reinforcement Learning from Human Feedback. Méthode d’entraînement utilisant des retours humains pour aligner le modèle sur les attentes de qualité et de véracité.
- Confabulation
- Terme emprunté à la neuropsychologie, parfois préféré à « hallucination » car plus précis : le modèle comble un vide par de l’invention, sans conscience de l’erreur.
- Benchmark
- Test standardisé mesurant les performances d’un modèle. Les benchmarks d’hallucination évaluent la proportion de réponses factuellement fausses.
Mirage.
Chaque fait présenté ici a été vérifié,
mais l’exercice de vérification vous appartient toujours.