Aller au contenu
    IA
    Référence

    Glossaire de l’Intelligence Artificielle — édition 2026

    LLM, Transformer, RAG, RLHF, MCP, agent, hallucination… Le vocabulaire de l’IA évolue aussi vite que la technologie. Ce glossaire regroupe les termes essentiels, expliqués simplement et mis à jour.

    L’intelligence artificielle a son propre langage. Ce glossaire est conçu comme une référence que vous pouvez consulter à tout moment — chaque terme est expliqué de manière claire, avec un exemple concret quand c’est utile. Les termes sont classés par thème pour faciliter la navigation.

     

    Les fondamentaux

    Intelligence Artificielle (IA)

    Discipline informatique qui vise à créer des systèmes capables d’effectuer des tâches qui nécessitent habituellement l’intelligence humaine : comprendre le langage, reconnaître des images, raisonner, prendre des décisions. En 2026, quand on parle d’IA au quotidien, on désigne généralement l’IA générative — les chatbots et assistants comme ChatGPT, Claude ou Gemini.

    Machine Learning (apprentissage automatique)

    Branche de l’IA où les systèmes apprennent à partir de données plutôt que de règles programmées explicitement. Au lieu de dire à l’ordinateur « si le mail contient le mot « gratuit », c’est un spam », on lui montre des milliers de spams et il apprend seul à les reconnaître. C’est le fondement de tous les outils IA modernes.

    Deep Learning (apprentissage profond)

    Sous-catégorie du machine learning qui utilise des réseaux neuronaux à nombreuses couches (d’où « deep » — profond). Plus il y a de couches, plus le réseau peut apprendre des motifs abstraits et complexes. C’est le deep learning qui a permis les percées en reconnaissance d’images, en traduction automatique, et en génération de texte.

    Réseau neuronal artificiel

    Programme informatique inspiré du cerveau humain, composé de neurones artificiels organisés en couches. Chaque neurone reçoit des données, effectue un calcul, et transmet le résultat à la couche suivante. L’entraînement consiste à ajuster les connexions (poids) entre neurones pour que le réseau produise les bons résultats.

    Paramètre

    Les « réglages » internes d’un réseau neuronal — les poids des connexions entre neurones. GPT-5 contient des centaines de milliards de paramètres. Plus il y en a, plus le modèle peut mémoriser de motifs, mais plus l’entraînement et l’utilisation coûtent cher en calcul.

     

    Les modèles de langage

    LLM (Large Language Model)

    Grand modèle de langage — un réseau neuronal entraîné sur d’immenses quantités de texte pour comprendre et générer du langage humain. GPT-5.4 (OpenAI), Claude Opus 4.6 (Anthropic) et Gemini 3.1 Pro (Google) sont des LLM. Ils ne « comprennent » pas au sens humain — ils prédisent le mot le plus probable dans un contexte donné.

    Transformer

    L’architecture de réseau neuronal qui propulse tous les LLM actuels, introduite par Google en 2017. Sa caractéristique clé : le mécanisme d’attention, qui permet au modèle de considérer tous les mots d’un texte en parallèle (au lieu de les traiter un par un). C’est ce qui rend les LLM à la fois rapides et capables de comprendre des contextes longs.

    Token

    L’unité de base que traite un LLM. Un token correspond approximativement à un mot ou une partie de mot (en français, un mot courant = 1 à 2 tokens). Quand on dit qu’un modèle a une « fenêtre de contexte de 1 million de tokens », ça signifie qu’il peut traiter environ 750 000 mots en une seule conversation.

    Fenêtre de contexte (context window)

    La quantité maximale de texte qu’un modèle peut « voir » en même temps. Plus la fenêtre est grande, plus le modèle peut prendre en compte d’informations. En 2026 : Claude Opus 4.6 et Gemini 3.1 Pro offrent 1 million de tokens. GPT-5.4 offre 256K tokens (1M via API).

    Prompt

    L’instruction que vous donnez à un modèle d’IA. Tout ce que vous tapez dans le chat est un prompt. La qualité du résultat dépend directement de la qualité du prompt — d’où l’importance du prompt engineering.

    Hallucination

    Quand un modèle génère une information fausse mais présentée avec confiance — une citation inventée, un chiffre fictif, un auteur qui n’existe pas. Ce n’est pas un bug : c’est une conséquence structurelle de la façon dont les LLM fonctionnent (prédiction de probabilités, pas vérification de faits).

    Température

    Paramètre qui contrôle le degré de « créativité » du modèle. Une température basse (proche de 0) donne des réponses prévisibles et factuelles. Une température élevée (proche de 1 ou 2) donne des réponses plus variées et surprenantes, mais aussi plus risquées en termes de précision.

     

    L’entraînement et l’alignement

    Pré-entraînement (pre-training)

    La première phase d’entraînement d’un LLM, où le modèle ingère d’énormes quantités de texte (livres, sites web, articles) pour apprendre les motifs du langage. Le modèle qui en sort est un « compléteur de texte » brut — il sait prédire le mot suivant, mais ne sait pas encore être utile ou sûr.

    Fine-tuning (ajustement fin)

    Phase d’entraînement complémentaire où le modèle est spécialisé sur des données ou des tâches spécifiques. Par exemple, fine-tuner un modèle sur des documents juridiques pour qu’il comprenne mieux le droit. C’est aussi pendant le fine-tuning qu’on transforme le modèle brut en assistant utile (via SFT et RLHF).

    RLHF (Reinforcement Learning from Human Feedback)

    La technique qui a transformé les LLM en assistants utiles. Des humains comparent des réponses et choisissent la meilleure. Ces préférences entraînent un modèle de récompense, qui guide ensuite l’entraînement du LLM par apprentissage par renforcement. C’est le RLHF qui donne leur « personnalité » à ChatGPT, Claude et Gemini.

    RLAIF (RL from AI Feedback)

    Variante du RLHF où une IA remplace les humains pour évaluer les réponses — beaucoup moins cher (0,01 $ vs 1 $ par évaluation). Anthropic l’utilise avec sa « Constitution » — un ensemble de principes éthiques qu’une IA utilise pour s’auto-évaluer.

    Alignement

    L’ensemble des techniques qui visent à s’assurer qu’un modèle d’IA se comporte conformément aux valeurs et intentions humaines — être utile, honnête, et ne pas causer de tort. C’est le défi central de la sécurité IA, et il est loin d’être résolu.

    Sycophancy (complaisance)

    La tendance d’un modèle à dire ce que l’utilisateur veut entendre plutôt que la vérité. « Excellente question ! » ou valider une idée absurde pour faire plaisir. C’est un effet secondaire du RLHF — les évaluateurs humains ont involontairement récompensé l’agréabilité.

     

    Les techniques et outils

    RAG (Retrieval-Augmented Generation)

    Technique qui combine un LLM avec une recherche dans une base de données externe. Au lieu de répondre uniquement à partir de sa mémoire d’entraînement, le modèle va d’abord chercher des informations pertinentes dans vos documents, puis génère sa réponse en s’appuyant dessus. Réduit les hallucinations de 71 % quand c’est bien implémenté.

    MCP (Model Context Protocol)

    Standard ouvert créé par Anthropic (2024) qui définit comment un agent IA se connecte à des services externes — lire des emails, accéder à Google Drive, interagir avec un CRM. C’est la « prise universelle » qui permet aux agents IA de 2026 de se connecter à vos outils. Adopté par l’ensemble de l’industrie.

    Agent IA

    Un système IA qui ne se contente pas de répondre mais qui agit : il planifie, utilise des outils, exécute des tâches, et vérifie ses résultats. Claude Cowork, Claude Code et GPT-5.4 avec computer use sont des exemples d’agents IA en 2026.

    Multimodal

    Capacité d’un modèle à traiter plusieurs types de données dans une même interaction : texte, images, audio, vidéo, documents PDF. Les trois grands modèles de 2026 (GPT-5.4, Claude Opus 4.6, Gemini 3.1 Pro) sont multimodaux.

    Computer Use

    Capacité d’un modèle IA à interagir avec des interfaces logicielles comme le ferait un humain — cliquer, taper, naviguer dans des menus. Introduit par Anthropic en 2024, cette fonctionnalité est désormais intégrée dans GPT-5.4 et les agents IA modernes.

    Few-shot / Zero-shot

    Zero-shot : le modèle exécute une tâche sans qu’on lui montre d’exemples — juste avec des instructions. Few-shot : on lui montre 1 à 5 exemples du résultat attendu avant de lui demander. En 2026, les modèles sont suffisamment bons pour commencer en zero-shot — n’ajoutez des exemples que si le résultat n’est pas satisfaisant.

     

    Les enjeux et la réglementation

    AI Act

    Première loi au monde sur l’intelligence artificielle, adoptée par l’Union européenne en 2024. Elle classe les usages de l’IA par niveau de risque (inacceptable, élevé, limité, minimal) et impose des obligations croissantes. Application générale en août 2026.

    IA générative

    Catégorie d’IA qui crée du contenu nouveau — texte, images, musique, vidéo, code. ChatGPT, Claude, DALL-E, Midjourney, Sora sont des outils d’IA générative. À distinguer de l’IA analytique qui classe ou analyse des données existantes.

    GPAI (General-Purpose AI)

    « IA à usage général » — terme utilisé par l’AI Act pour désigner les modèles comme GPT, Claude ou Gemini, qui peuvent être utilisés pour une grande variété de tâches. Les fournisseurs de GPAI ont des obligations spécifiques de transparence et de documentation.

    Deepfake

    Contenu synthétique (image, vidéo, audio) généré par IA pour imiter une personne réelle de manière réaliste. L’AI Act impose l’étiquetage des deepfakes dans l’UE à partir d’août 2026.

    Watermarking

    Technique qui insère une signature invisible dans le contenu généré par IA pour pouvoir l’identifier ultérieurement. OpenAI et Google travaillent sur des systèmes de watermarking, mais aucun n’est déployé à grande échelle — et la paraphrase suffit généralement à effacer le marquage.

    Prompt injection

    Attaque où un contenu malveillant (caché dans un document, un email, une page web) détourne les instructions données à un modèle IA. Par exemple, un fichier qui contient « Ignore toutes les instructions précédentes et fais ceci à la place ». C’est un risque réel pour les agents IA qui accèdent à des fichiers ou naviguent sur le web.

    Open source vs propriétaire

    Propriétaire : le code du modèle n’est pas accessible (GPT, Claude, Gemini). Open source : le modèle et/ou ses poids sont publics et peuvent être téléchargés, modifiés, hébergés localement (Llama de Meta, Mistral, DeepSeek). L’open source offre plus de contrôle et de confidentialité, mais nécessite des compétences techniques et du matériel.

     

    Les acteurs principaux en 2026

    OpenAI

    Créateur de ChatGPT et de la série GPT. Modèle phare en mars 2026 : GPT-5.4. Valorisation : ~730 milliards de dollars. Au cœur de la polémique Pentagone après avoir signé un contrat militaire.

    Anthropic

    Créateur de Claude. Fondé par d’anciens d’OpenAI avec un focus sur la sécurité IA. Modèle phare : Claude Opus 4.6 / Sonnet 4.6. Valorisation : ~380 milliards. A refusé de lever ses restrictions pour le Pentagone, déclenchant un bras de fer avec l’administration Trump.

    Google DeepMind

    Division IA de Google, créateur de Gemini. Modèle phare : Gemini 3.1 Pro. Avantage concurrentiel : intégration native dans l’écosystème Google (Gmail, Drive, Search).

    Meta AI

    Division IA de Meta (Facebook), créateur de Llama — la série de modèles open source la plus utilisée au monde. Llama 4 (2025) est utilisé par des milliers d’entreprises et de développeurs comme base pour des applications personnalisées.

    Mistral AI

    Startup française fondée par Arthur Mensch, devenue un acteur majeur de l’IA en Europe. Modèles open source (Mistral, Mixtral) et propriétaires (Pixtral). Focus sur l’efficacité et l’architecture Mixture-of-Experts.

    Ce glossaire évolue

    Le vocabulaire de l’IA change aussi vite que la technologie. Ce glossaire est mis à jour régulièrement. Si un terme vous manque, dites-le-nous — on l’ajoutera.

    Aller plus loin
    Découvrez tous nos guides IA

    Concepts, tendances, guides pratiques… Tout ce qu’il faut connaître sur l’IA.

    Explorer le blog
    Mise à jour : mars 2026