Aller au contenu
    API
    Guide IA

    L’API Mistral et AI Studio : le guide complet pour les développeurs

    Vous avez testé les modèles Mistral via Le Chat. La prochaine étape : les intégrer dans vos applications. L’API Mistral utilise un format compatible OpenAI — si vous avez déjà travaillé avec l’API d’OpenAI, la migration se fait en changeant deux lignes de code. Ce guide couvre le pricing détaillé, les fonctionnalités clés, le premier appel API, et la comparaison ligne par ligne avec les concurrents.

    AI Studio (anciennement La Plateforme) est la console développeur de Mistral. C’est le point d’entrée pour tout usage programmatique des modèles : clés API, playground, monitoring de la consommation, fine-tuning, Agent Builder, et déploiement. L’API elle-même est un endpoint REST classique /v1/chat/completions, compatible avec les SDKs Python, TypeScript, Java et Go officiels — et avec le SDK OpenAI moyennant un changement de base URL.

    Septième article de la série « De zéro à machine de guerre avec Mistral », ce guide s’adresse aux développeurs et aux responsables techniques qui évaluent l’API Mistral pour leurs projets.

    Pricing détaillé : tous les modèles, tous les prix

    Mistral facture au token (entrée et sortie séparément), comme OpenAI et Anthropic. La différence : les prix sont significativement plus bas, surtout en sortie. Large 3 coûte 40 % de moins en sortie que GPT-5 et 60 % de moins que Claude Sonnet 4.5.

    Modèle Entrée ($/M tokens) Sortie ($/M tokens) Contexte Spécialité
    Mistral Large 3 0,50 1,50 262K Flagship raisonnement
    Mistral Small 4 0,15 0,60 256K Tout-en-un (instruct + raisonnement + vision + code)
    Mistral Medium 3 0,40 2,00 131K Usage général équilibré
    Devstral 2 0,40 2,00 256K Code agentique
    Devstral Small 2 0,10 0,30 262K Code léger
    Mistral Small 3.2 0,07 0,20 131K Instruct rapide et compact
    Codestral 2508 0,30 0,90 256K Code (modèle précédent)
    Mistral Nemo 0,02 0,04 131K Ultra-budget
    Mistral Embed 0,01 Embeddings
    Mistral OCR 3 Variable Extraction de texte depuis documents
    Voxtral TTS 0,016 $ / 1K caractères Synthèse vocale
    Voxtral Mini Transcribe Variable Transcription audio

    Un tier Experiment gratuit est disponible pour tester les modèles sans engagement. Il impose des limites de débit (rate limiting) mais permet de valider un cas d’usage avant de passer en production.

    L’API et Le Chat sont facturés séparément

    Un abonnement Le Chat Pro à 14,99 $/mois ne donne aucun crédit API. Ce sont deux systèmes de facturation indépendants. Si vous développez une application qui appelle l’API Mistral, vous payez au token consommé, indépendamment de votre abonnement Le Chat. C’est un point que beaucoup d’utilisateurs découvrent trop tard.

    Premier appel API en cinq minutes

    01
    Créer un compte sur AI Studio

    Rendez-vous sur console.mistral.ai. Créez un compte ou connectez-vous. Vous accédez au tableau de bord avec le playground, la gestion des clés et le suivi de consommation.

    02
    Générer une clé API

    Dans la section API Keys, créez une nouvelle clé. Copiez-la immédiatement — elle ne sera plus visible ensuite. Stockez-la dans une variable d’environnement (MISTRAL_API_KEY), jamais en dur dans le code.

    03
    Installer le SDK

    Python : pip install mistralai. TypeScript : npm add @mistralai/mistralai. Les SDKs Java et Go sont aussi disponibles. L’API est aussi compatible avec le SDK OpenAI en changeant la base URL.

    04
    Envoyer votre première requête

    Un appel chat completion basique prend 5 lignes de code (voir ci-dessous). Le modèle répond en streaming ou en bloc selon votre paramétrage.

    # Premier appel API — Python
    import os
    from mistralai import Mistral
    
    client = Mistral(api_key=os.environ["MISTRAL_API_KEY"])
    
    response = client.chat.complete(
        model="mistral-small-latest",
        messages=[
            {"role": "system", "content": "Tu es un assistant technique concis."},
            {"role": "user", "content": "Explique le concept de RAG en 3 phrases."}
        ]
    )
    
    print(response.choices[0].message.content)
    # Avec le SDK OpenAI (migration rapide)
    from openai import OpenAI
    
    client = OpenAI(
        api_key=os.environ["MISTRAL_API_KEY"],
        base_url="https://api.mistral.ai/v1"
    )
    
    response = client.chat.completions.create(
        model="mistral-small-latest",
        messages=[
            {"role": "user", "content": "Explique le concept de RAG en 3 phrases."}
        ]
    )
    
    print(response.choices[0].message.content)

    Les fonctionnalités clés de l’API

    Function calling

    L’API supporte le function calling (appel de fonctions) sur tous les modèles commerciaux. Vous décrivez des fonctions avec leur signature JSON Schema, le modèle décide quand les appeler et fournit les arguments. C’est le mécanisme qui permet de connecter un LLM à des bases de données, des APIs externes, des outils internes. L’appel parallèle de fonctions est supporté.

    Structured outputs

    Deux modes disponibles. Le mode JSON : ajoutez response_format: {"type": "json_object"} pour forcer une sortie JSON (vous devez aussi le demander dans le prompt). Les structured outputs personnalisés : fournissez un JSON Schema complet avec response_format: {"type": "json_schema"} et le modèle produit une sortie qui respecte exactement votre schéma — types, clés, structure. Plus fiable que le mode JSON simple, recommandé pour les pipelines de production.

    Reasoning configurable

    Le paramètre reasoning_effort (couvert dans l’article 2) est disponible via l’API sur mistral-small-latest (Small 4). Ajoutez reasoning_effort="high" pour activer le raisonnement profond, ou "none" pour le mode rapide. Le paramètre est aussi disponible sur les endpoints Agents et Conversations via le champ completion_args.

    Vision et multimodal

    Small 4 et Large 3 acceptent des images en entrée via l’API. Envoyez une image en base64 ou via URL dans le tableau des messages, et le modèle l’analyse. Cas d’usage : OCR, analyse de graphiques, description d’images, comparaison visuelle.

    Mistral OCR 3

    Un endpoint dédié (/v1/ocr) pour l’extraction de texte structuré depuis des documents scannés, avec support des tableaux en Markdown ou HTML, extraction de headers/footers, et liens hypertextes. Différent de la vision générale — optimisé spécifiquement pour le traitement documentaire.

    Embeddings

    Le modèle Mistral Embed génère des vecteurs pour la recherche sémantique, le clustering et les systèmes de recommandation. Prix : 0,01 $ par million de tokens — parmi les moins chers du marché. Compatible avec les bases vectorielles standards (Pinecone, Weaviate, Qdrant, pgvector).

    Audio

    Voxtral Mini Transcribe pour la transcription (batch et temps réel, avec diarisation), et Voxtral TTS pour la synthèse vocale (9 langues, clonage vocal zero-shot). Les deux sont accessibles via API avec des endpoints dédiés.

    Guardrails par requête

    Depuis mars 2026, les guardrails peuvent être passés directement dans chaque requête /v1/chat/completions via le champ guardrails. Vous définissez des seuils de modération par catégorie (sexuel, automutilation, etc.) et une action (bloquer ou signaler). Plus besoin d’appeler un endpoint de modération séparé.

    Batch inference

    Pour les traitements en volume (classification de milliers de documents, scoring, extraction de données), l’API supporte le batching inline — création de jobs batch sans upload de fichier préalable. Utile pour les pipelines de données qui traitent des volumes importants à moindre coût.

    Fine-tuning

    Le fine-tuning est disponible sur les modèles Small et Medium via l’API. Vous uploadez vos données d’entraînement (format JSONL), lancez un job de fine-tuning, et récupérez un modèle personnalisé déployable via la même API. Techniques supportées : SFT (Supervised Fine-Tuning) et LoRA. Un modèle Small fine-tuné sur vos données métier peut souvent remplacer un Large généraliste — 10x moins cher pour des performances équivalentes sur des tâches ciblées.

    Mistral vs. OpenAI vs. Anthropic : comparaison API

    Critère API Mistral API OpenAI API Anthropic
    Prix modèle flagship (entrée) 0,50 $ (Large 3) ~2,50 $ (GPT-5.4) ~3,00 $ (Claude Sonnet 4.6)
    Prix modèle budget (entrée) 0,02 $ (Nemo) ~0,10 $ (GPT-4.1 Nano) ~0,25 $ (Haiku 4.5)
    Tier gratuit Oui (Experiment) Non (crédits initiaux) Non (crédits initiaux)
    Hébergement données Europe (France/UE) États-Unis États-Unis
    Format API Compatible OpenAI Propriétaire (référence) Propriétaire
    Function calling Oui (parallèle) Oui (parallèle) Oui
    Structured outputs (JSON Schema) Oui Oui Non natif (via prompting)
    Fine-tuning Oui (Small, Medium) Oui (GPT-4o mini) Non public
    OCR dédié Oui (Mistral OCR 3) Non (via vision) Non (via vision)
    TTS Oui (Voxtral TTS) Oui Non
    Open source / auto-hébergement Oui Non Non
    ZDR (Zero Data Retention) Oui (sur demande) Oui Non

    Quand choisir l’API Mistral — et quand ne pas le faire

    Choisissez Mistral si : la résidence des données en Europe est une exigence (RGPD, HDS, secteur public). Votre application génère beaucoup de tokens en sortie — Large 3 est le modèle le moins cher dans son tier pour les sorties longues. Vous voulez pouvoir fine-tuner et auto-héberger vos modèles. Votre budget API est serré et vous cherchez le meilleur rapport qualité/prix sur des tâches standard.

    Choisissez OpenAI si : vous avez besoin du modèle le plus performant tous critères confondus (GPT-5.4 reste la référence sur de nombreux benchmarks). Votre application nécessite un écosystème d’intégrations très riche. Vous utilisez déjà Azure et voulez rester dans l’écosystème Microsoft.

    Choisissez Anthropic si : le raisonnement long et la qualité d’écriture sont vos priorités absolues. Vous avez besoin d’une fenêtre de contexte massive (680K+ tokens). Claude Code est central dans votre workflow de développement.

    La stratégie de routage intelligente : beaucoup d’applications en production utilisent plusieurs APIs. Small 4 à 0,15 $ pour les requêtes simples (classification, extraction, résumé), Large 3 ou un modèle OpenAI/Anthropic pour les tâches complexes. Le format compatible OpenAI de Mistral rend ce routage trivial à implémenter — un changement de base URL et de clé API suffit.

    Passer à l’action

    Créez un compte sur AI Studio, générez une clé API, et lancez votre premier appel avec le code ci-dessus. Testez Small 4 d’abord — c’est le modèle avec le meilleur rapport capacité/prix pour la majorité des cas d’usage. Montez à Large 3 quand vous avez besoin de plus de puissance, descendez à Nemo quand le budget compte plus que la qualité.

    L’API Mistral n’est pas la plus puissante. Elle est la plus compétitive sur le prix, la plus ouverte sur l’auto-hébergement, et la seule à garantir la résidence des données en Europe. Pour un développeur européen qui construit des applications conformes au RGPD, c’est le point de départ logique.

    Article suivant : Open source et auto-hébergement : faire tourner Mistral sur ses propres machines — comment passer de l’API cloud à vos propres GPU.

    Article précédent : Mistral Vibe : l’agent de code qui rivalise avec Claude Code

    Aller plus loin
    Découvrez tous nos guides IA

    Concepts, outils, tutoriels — retrouvez tous nos guides pour comprendre et utiliser l’IA au quotidien.

    Explorer les guides
    Mise à jour : avril 2026
    Étiquettes: