Aller au contenu

    Enquête sur la confabulation artificielle

    Hallucinations de l’IA :
    quand les machines
    inventent le réel

    Les modèles de langage produisent des réponses fluides, convaincantes — et parfois entièrement fabriquées. Anatomie d’un phénomène qui redéfinit notre rapport à la vérité.

    01 — Définition

    Le mirage statistique

    Une hallucination d’IA désigne un contenu généré avec assurance par un modèle de langage, mais qui ne correspond à aucune réalité vérifiable. Le mot est emprunté à la psychiatrie, mais le mécanisme est radicalement différent : il ne s’agit pas d’une perception erronée, mais d’une production statistique sans ancrage factuel.


    Les grands modèles de langage (LLM) ne « savent » rien au sens humain. Ils prédisent le prochain mot le plus probable dans une séquence. Lorsque cette prédiction s’écarte des faits — ce qui est mathématiquement inévitable — le résultat peut être une citation inventée, un fait inexistant, ou une référence à un article académique qui n’a jamais été publié.

    L’hallucination n’est pas un bug dans le système. C’est une conséquence structurelle du fonctionnement même des modèles génératifs : la fluence linguistique et la véracité factuelle sont deux objectifs distincts, parfois contradictoires.

    — Perspective de recherche en IA, 2024

    02 — Cas célèbres

    Des inventions qui ont fait l’histoire

    01

    L’avocat et les jurisprudences fantômes

    En 2023, un avocat new-yorkais soumet un mémoire juridique contenant six décisions de justice citées avec précision — numéros de dossier, noms des juges, extraits de verdicts. Aucune n’existait. ChatGPT les avait entièrement inventées, avec une cohérence formelle parfaite.

    Juridique — 2023
    02

    Les fausses références académiques

    Des chercheurs ont découvert que les LLM inventent régulièrement des articles scientifiques complets — titre, auteurs, journal, DOI. Certains étudiants et universitaires les ont cités dans leurs travaux sans vérification, propageant de la science-fiction académique.

    Académique — 2023–2024
    03

    Les biographies diffamatoires

    Plusieurs personnalités publiques ont découvert que des chatbots généraient des biographies les accusant de crimes jamais commis — détournements de fonds, agressions — avec des détails circonstanciés mais totalement fictifs. Des procédures judiciaires ont été engagées.

    Éthique — 2023–2025

    03 — Taxonomie

    Six familles d’invention

    Factuelle

    Dates, chiffres, événements historiques inventés avec un aplomb déconcertant. L’IA produit des statistiques précises qui n’ont jamais existé.

    Référentielle

    Citations d’articles, livres ou jugements juridiques entièrement fabriqués, avec auteurs, éditeurs et numéros de page fictifs.

    Logique

    Raisonnements qui semblent rigoureux mais contiennent des sauts logiques, des prémisses fausses ou des conclusions non sequitur.

    Biographique

    Attributions de propos, d’actions ou de parcours à des personnes réelles, créant de fausses biographies convaincantes.

    Instructionnelle

    Instructions techniques incorrectes mais formulées avec autorité — dosages médicaux erronés, procédures dangereuses présentées comme sûres.

    Contextuelle

    Informations vraies isolément mais assemblées dans un contexte trompeur, créant un récit globalement faux à partir de fragments réels.

    04 — Anatomie

    Comment naît une hallucination

    Étape 01

    Le prompt

    L’utilisateur pose une question pointue ou ambiguë. Plus la demande est spécifique et hors du corpus d’entraînement, plus le risque augmente.

    Étape 02

    La prédiction

    Le modèle calcule la distribution de probabilité du prochain token. En l’absence de données fiables, il interpole entre des patterns voisins.

    Étape 03

    L’autorenforcement

    Chaque token généré devient contexte pour le suivant. Une première inexactitude oriente toute la suite du texte, créant une narration cohérente mais fictive.

    Étape 04

    Le résultat

    L’utilisateur reçoit un texte fluide, structuré, persuasif — impossible à distinguer d’une réponse factuelle sans vérification externe.

    05 — Enjeux

    Pourquoi c’est grave

    Érosion de la confiance

    Si l’on ne peut plus distinguer le vrai du fabriqué, c’est l’ensemble de la production textuelle assistée par IA qui devient suspecte — y compris les réponses correctes.

    Risque juridique

    Des décisions de justice, des contrats, des diagnostics basés sur des hallucinations engagent la responsabilité de ceux qui s’y fient sans vérification.

    Propagation virale

    Un fait inventé par l’IA, repris dans un article, indexé par un moteur de recherche, puis réinjecté dans les données d’entraînement : la boucle de contamination informationnelle.

    Atteinte à la réputation

    De fausses accusations générées automatiquement peuvent ruiner des vies professionnelles et personnelles, sans intention malveillante de quiconque.

    315%

    Taux d’hallucination estimé des LLM actuels selon les benchmarks, variant selon le domaine et la complexité de la question.

    96%

    Des utilisateurs non experts ne détectent pas les hallucinations factuelles dans des textes générés par IA, selon plusieurs études.

    L’hallucination ne peut pas être complètement éliminée : c’est un trait structurel de l’approche générative probabiliste.

    06 — Solutions

    Réduire le mirage

    01

    Retrieval-Augmented Generation (RAG)

    Ancrer les réponses dans des documents sourcés en temps réel. Au lieu de tout générer de mémoire, le modèle consulte une base de connaissances vérifiées avant de répondre.

    02

    Chaîne de pensée et citations

    Forcer le modèle à expliciter son raisonnement étape par étape et à citer ses sources. L’opacité nourrit l’hallucination ; la transparence la réduit.

    03

    RLHF et entraînement à la calibration

    Apprendre au modèle à dire « je ne sais pas » plutôt qu’inventer. Le reinforcement learning from human feedback pénalise les réponses confiantes mais fausses.

    04

    Détection automatisée

    Des outils de vérification croisée comparent les affirmations du modèle avec des bases de faits. Certains systèmes utilisent un second modèle pour auditer le premier.

    05

    Design d’interface

    Présenter les niveaux de confiance, afficher des avertissements visuels, rendre explicite le caractère probabiliste des réponses. Le design peut éduquer l’utilisateur.

    06

    Littératie IA

    Former les utilisateurs à vérifier, questionner, douter. Aucune solution technique ne remplacera l’esprit critique humain face à une machine convaincante.

    07 — Démonstration

    Trouvez les inventions

    Survolez les passages soulignés en rouge pour découvrir la vérité. Chaque exemple ci-dessous contient des hallucinations typiques.

    › Parle-moi de l’histoire du café en France.

    Le café a été introduit en France par l’explorateur Jean-Baptiste Tavernier en 1645, qui en rapporta des graines de son voyage en Éthiopie. Le premier café parisien, Le Café de la Paix, ouvrit ses portes en 1672 rue de Tournon. Louis XIV en était un grand amateur et en consommait jusqu’à huit tasses par jour selon les mémoires de Saint-Simon.

    08 — Chronologie

    L’hallucination dans l’histoire de l’IA

    2017

    L’architecture Transformer

    Google publie « Attention Is All You Need ». L’architecture qui rendra possible les LLM modernes porte en elle les germes de l’hallucination : prédiction statistique sans ancrage factuel.

    2020

    GPT-3 et la prise de conscience

    Le modèle d’OpenAI impressionne par sa fluence mais les chercheurs documentent massivement ses inventions factuelles. Le terme « hallucination » entre dans le vocabulaire courant de l’IA.

    2022

    ChatGPT et le grand public

    Des millions d’utilisateurs découvrent simultanément la puissance et les limites des LLM. Les hallucinations deviennent un sujet médiatique et politique.

    2023

    L’affaire Mata v. Avianca

    L’avocat Steven Schwartz soumet au tribunal des jurisprudences inventées par ChatGPT. L’affaire devient le symbole mondial des dangers de la confiance aveugle.

    2024

    RAG et le grounding

    L’industrie converge vers le RAG comme réponse principale. Les benchmarks d’hallucination deviennent un critère central d’évaluation des modèles.

    2025

    Régulation et standards

    L’AI Act européen entre en application. Les obligations de transparence incluent explicitement la déclaration des taux d’hallucination connus pour les systèmes à haut risque.

    09 — Glossaire

    Les mots du mirage

    Hallucination
    Contenu généré par un modèle qui semble factuel mais ne correspond à aucune réalité vérifiable. Aussi appelé « confabulation ».
    Grounding
    Technique visant à ancrer les réponses d’un modèle dans des sources factuelles vérifiées, réduisant le risque d’invention.
    RAG
    Retrieval-Augmented Generation. Architecture combinant recherche documentaire et génération de texte pour améliorer la fiabilité factuelle.
    Token
    Unité de texte traitée par un LLM (mot, sous-mot ou caractère). La génération opère token par token, chacun influençant le suivant.
    Temperature
    Paramètre contrôlant l’aléatoire de la génération. Plus elle est élevée, plus les réponses sont créatives — et risquent l’hallucination.
    RLHF
    Reinforcement Learning from Human Feedback. Méthode d’entraînement utilisant des retours humains pour aligner le modèle sur les attentes de qualité et de véracité.
    Confabulation
    Terme emprunté à la neuropsychologie, parfois préféré à « hallucination » car plus précis : le modèle comble un vide par de l’invention, sans conscience de l’erreur.
    Benchmark
    Test standardisé mesurant les performances d’un modèle. Les benchmarks d’hallucination évaluent la proportion de réponses factuellement fausses.

    Chaque fait présenté ici a été vérifié,
    mais l’exercice de vérification vous appartient toujours.