L’API Mistral et AI Studio : le guide complet pour les développeurs
Vous avez testé les modèles Mistral via Le Chat. La prochaine étape : les intégrer dans vos applications. L’API Mistral utilise un format compatible OpenAI — si vous avez déjà travaillé avec l’API d’OpenAI, la migration se fait en changeant deux lignes de code. Ce guide couvre le pricing détaillé, les fonctionnalités clés, le premier appel API, et la comparaison ligne par ligne avec les concurrents.
AI Studio (anciennement La Plateforme) est la console développeur de Mistral. C’est le point d’entrée pour tout usage programmatique des modèles : clés API, playground, monitoring de la consommation, fine-tuning, Agent Builder, et déploiement. L’API elle-même est un endpoint REST classique /v1/chat/completions, compatible avec les SDKs Python, TypeScript, Java et Go officiels — et avec le SDK OpenAI moyennant un changement de base URL.
Septième article de la série « De zéro à machine de guerre avec Mistral », ce guide s’adresse aux développeurs et aux responsables techniques qui évaluent l’API Mistral pour leurs projets.
Pricing détaillé : tous les modèles, tous les prix
Mistral facture au token (entrée et sortie séparément), comme OpenAI et Anthropic. La différence : les prix sont significativement plus bas, surtout en sortie. Large 3 coûte 40 % de moins en sortie que GPT-5 et 60 % de moins que Claude Sonnet 4.5.
| Modèle | Entrée ($/M tokens) | Sortie ($/M tokens) | Contexte | Spécialité |
|---|---|---|---|---|
| Mistral Large 3 | 0,50 | 1,50 | 262K | Flagship raisonnement |
| Mistral Small 4 | 0,15 | 0,60 | 256K | Tout-en-un (instruct + raisonnement + vision + code) |
| Mistral Medium 3 | 0,40 | 2,00 | 131K | Usage général équilibré |
| Devstral 2 | 0,40 | 2,00 | 256K | Code agentique |
| Devstral Small 2 | 0,10 | 0,30 | 262K | Code léger |
| Mistral Small 3.2 | 0,07 | 0,20 | 131K | Instruct rapide et compact |
| Codestral 2508 | 0,30 | 0,90 | 256K | Code (modèle précédent) |
| Mistral Nemo | 0,02 | 0,04 | 131K | Ultra-budget |
| Mistral Embed | 0,01 | — | — | Embeddings |
| Mistral OCR 3 | Variable | — | — | Extraction de texte depuis documents |
| Voxtral TTS | 0,016 $ / 1K caractères | — | Synthèse vocale | |
| Voxtral Mini Transcribe | Variable | — | — | Transcription audio |
Un tier Experiment gratuit est disponible pour tester les modèles sans engagement. Il impose des limites de débit (rate limiting) mais permet de valider un cas d’usage avant de passer en production.
Un abonnement Le Chat Pro à 14,99 $/mois ne donne aucun crédit API. Ce sont deux systèmes de facturation indépendants. Si vous développez une application qui appelle l’API Mistral, vous payez au token consommé, indépendamment de votre abonnement Le Chat. C’est un point que beaucoup d’utilisateurs découvrent trop tard.
Premier appel API en cinq minutes
Rendez-vous sur console.mistral.ai. Créez un compte ou connectez-vous. Vous accédez au tableau de bord avec le playground, la gestion des clés et le suivi de consommation.
Dans la section API Keys, créez une nouvelle clé. Copiez-la immédiatement — elle ne sera plus visible ensuite. Stockez-la dans une variable d’environnement (MISTRAL_API_KEY), jamais en dur dans le code.
Python : pip install mistralai. TypeScript : npm add @mistralai/mistralai. Les SDKs Java et Go sont aussi disponibles. L’API est aussi compatible avec le SDK OpenAI en changeant la base URL.
Un appel chat completion basique prend 5 lignes de code (voir ci-dessous). Le modèle répond en streaming ou en bloc selon votre paramétrage.
# Premier appel API — Python
import os
from mistralai import Mistral
client = Mistral(api_key=os.environ["MISTRAL_API_KEY"])
response = client.chat.complete(
model="mistral-small-latest",
messages=[
{"role": "system", "content": "Tu es un assistant technique concis."},
{"role": "user", "content": "Explique le concept de RAG en 3 phrases."}
]
)
print(response.choices[0].message.content)
# Avec le SDK OpenAI (migration rapide)
from openai import OpenAI
client = OpenAI(
api_key=os.environ["MISTRAL_API_KEY"],
base_url="https://api.mistral.ai/v1"
)
response = client.chat.completions.create(
model="mistral-small-latest",
messages=[
{"role": "user", "content": "Explique le concept de RAG en 3 phrases."}
]
)
print(response.choices[0].message.content)
Les fonctionnalités clés de l’API
Function calling
L’API supporte le function calling (appel de fonctions) sur tous les modèles commerciaux. Vous décrivez des fonctions avec leur signature JSON Schema, le modèle décide quand les appeler et fournit les arguments. C’est le mécanisme qui permet de connecter un LLM à des bases de données, des APIs externes, des outils internes. L’appel parallèle de fonctions est supporté.
Structured outputs
Deux modes disponibles. Le mode JSON : ajoutez response_format: {"type": "json_object"} pour forcer une sortie JSON (vous devez aussi le demander dans le prompt). Les structured outputs personnalisés : fournissez un JSON Schema complet avec response_format: {"type": "json_schema"} et le modèle produit une sortie qui respecte exactement votre schéma — types, clés, structure. Plus fiable que le mode JSON simple, recommandé pour les pipelines de production.
Reasoning configurable
Le paramètre reasoning_effort (couvert dans l’article 2) est disponible via l’API sur mistral-small-latest (Small 4). Ajoutez reasoning_effort="high" pour activer le raisonnement profond, ou "none" pour le mode rapide. Le paramètre est aussi disponible sur les endpoints Agents et Conversations via le champ completion_args.
Vision et multimodal
Small 4 et Large 3 acceptent des images en entrée via l’API. Envoyez une image en base64 ou via URL dans le tableau des messages, et le modèle l’analyse. Cas d’usage : OCR, analyse de graphiques, description d’images, comparaison visuelle.
Mistral OCR 3
Un endpoint dédié (/v1/ocr) pour l’extraction de texte structuré depuis des documents scannés, avec support des tableaux en Markdown ou HTML, extraction de headers/footers, et liens hypertextes. Différent de la vision générale — optimisé spécifiquement pour le traitement documentaire.
Embeddings
Le modèle Mistral Embed génère des vecteurs pour la recherche sémantique, le clustering et les systèmes de recommandation. Prix : 0,01 $ par million de tokens — parmi les moins chers du marché. Compatible avec les bases vectorielles standards (Pinecone, Weaviate, Qdrant, pgvector).
Audio
Voxtral Mini Transcribe pour la transcription (batch et temps réel, avec diarisation), et Voxtral TTS pour la synthèse vocale (9 langues, clonage vocal zero-shot). Les deux sont accessibles via API avec des endpoints dédiés.
Guardrails par requête
Depuis mars 2026, les guardrails peuvent être passés directement dans chaque requête /v1/chat/completions via le champ guardrails. Vous définissez des seuils de modération par catégorie (sexuel, automutilation, etc.) et une action (bloquer ou signaler). Plus besoin d’appeler un endpoint de modération séparé.
Batch inference
Pour les traitements en volume (classification de milliers de documents, scoring, extraction de données), l’API supporte le batching inline — création de jobs batch sans upload de fichier préalable. Utile pour les pipelines de données qui traitent des volumes importants à moindre coût.
Fine-tuning
Le fine-tuning est disponible sur les modèles Small et Medium via l’API. Vous uploadez vos données d’entraînement (format JSONL), lancez un job de fine-tuning, et récupérez un modèle personnalisé déployable via la même API. Techniques supportées : SFT (Supervised Fine-Tuning) et LoRA. Un modèle Small fine-tuné sur vos données métier peut souvent remplacer un Large généraliste — 10x moins cher pour des performances équivalentes sur des tâches ciblées.
Mistral vs. OpenAI vs. Anthropic : comparaison API
| Critère | API Mistral | API OpenAI | API Anthropic |
|---|---|---|---|
| Prix modèle flagship (entrée) | 0,50 $ (Large 3) | ~2,50 $ (GPT-5.4) | ~3,00 $ (Claude Sonnet 4.6) |
| Prix modèle budget (entrée) | 0,02 $ (Nemo) | ~0,10 $ (GPT-4.1 Nano) | ~0,25 $ (Haiku 4.5) |
| Tier gratuit | Oui (Experiment) | Non (crédits initiaux) | Non (crédits initiaux) |
| Hébergement données | Europe (France/UE) | États-Unis | États-Unis |
| Format API | Compatible OpenAI | Propriétaire (référence) | Propriétaire |
| Function calling | Oui (parallèle) | Oui (parallèle) | Oui |
| Structured outputs (JSON Schema) | Oui | Oui | Non natif (via prompting) |
| Fine-tuning | Oui (Small, Medium) | Oui (GPT-4o mini) | Non public |
| OCR dédié | Oui (Mistral OCR 3) | Non (via vision) | Non (via vision) |
| TTS | Oui (Voxtral TTS) | Oui | Non |
| Open source / auto-hébergement | Oui | Non | Non |
| ZDR (Zero Data Retention) | Oui (sur demande) | Oui | Non |
Quand choisir l’API Mistral — et quand ne pas le faire
Choisissez Mistral si : la résidence des données en Europe est une exigence (RGPD, HDS, secteur public). Votre application génère beaucoup de tokens en sortie — Large 3 est le modèle le moins cher dans son tier pour les sorties longues. Vous voulez pouvoir fine-tuner et auto-héberger vos modèles. Votre budget API est serré et vous cherchez le meilleur rapport qualité/prix sur des tâches standard.
Choisissez OpenAI si : vous avez besoin du modèle le plus performant tous critères confondus (GPT-5.4 reste la référence sur de nombreux benchmarks). Votre application nécessite un écosystème d’intégrations très riche. Vous utilisez déjà Azure et voulez rester dans l’écosystème Microsoft.
Choisissez Anthropic si : le raisonnement long et la qualité d’écriture sont vos priorités absolues. Vous avez besoin d’une fenêtre de contexte massive (680K+ tokens). Claude Code est central dans votre workflow de développement.
La stratégie de routage intelligente : beaucoup d’applications en production utilisent plusieurs APIs. Small 4 à 0,15 $ pour les requêtes simples (classification, extraction, résumé), Large 3 ou un modèle OpenAI/Anthropic pour les tâches complexes. Le format compatible OpenAI de Mistral rend ce routage trivial à implémenter — un changement de base URL et de clé API suffit.
Passer à l’action
Créez un compte sur AI Studio, générez une clé API, et lancez votre premier appel avec le code ci-dessus. Testez Small 4 d’abord — c’est le modèle avec le meilleur rapport capacité/prix pour la majorité des cas d’usage. Montez à Large 3 quand vous avez besoin de plus de puissance, descendez à Nemo quand le budget compte plus que la qualité.
L’API Mistral n’est pas la plus puissante. Elle est la plus compétitive sur le prix, la plus ouverte sur l’auto-hébergement, et la seule à garantir la résidence des données en Europe. Pour un développeur européen qui construit des applications conformes au RGPD, c’est le point de départ logique.
Article suivant : Open source et auto-hébergement : faire tourner Mistral sur ses propres machines — comment passer de l’API cloud à vos propres GPU.
Article précédent : Mistral Vibe : l’agent de code qui rivalise avec Claude Code
Concepts, outils, tutoriels — retrouvez tous nos guides pour comprendre et utiliser l’IA au quotidien.