Aller au contenu
    SETUP
    Guide IA

    Utiliser DeepSeek au quotidien : chat, API et intégrations

    Vous avez compris le rapport performance/prix de DeepSeek. Reste à savoir comment l’utiliser concrètement. Ce deuxième article de la série couvre les trois points d’entrée — le chat web gratuit, l’API à 0,28 $/M tokens et l’intégration dans vos éditeurs de code — avec des exemples de prompts copiables et les pièges à éviter.

    DeepSeek propose trois façons de l’utiliser. Le chat web sur chat.deepseek.com — gratuit, sans inscription obligatoire pour tester, avec les mêmes fonctionnalités de base que ChatGPT. L’API sur platform.deepseek.com — 5 millions de tokens gratuits à l’inscription, format compatible OpenAI, trois lignes de Python pour un premier appel. Et les intégrations IDE — Cursor et Continue.dev supportent nativement DeepSeek comme modèle de code. Ce guide couvre les trois, dans l’ordre du plus simple au plus technique.

    Si vous avez lu le premier article de cette série, vous savez que DeepSeek V3.2 est le modèle qui tourne derrière les deux endpoints de l’API (deepseek-chat et deepseek-reasoner). Ce qui suit part de ce principe : un seul modèle, deux modes, trois interfaces.

    Le chat web : l’interface gratuite

    L’adresse est chat.deepseek.com. L’inscription nécessite un email ou un compte Google. L’interface est disponible en français (détection automatique), et fonctionne sur mobile via l’app Android et iOS.

    Depuis le 8 avril 2026, le chat propose deux modes visibles au-dessus de la zone de saisie : un éclair pour le Mode Rapide (réponse instantanée, conversation quotidienne) et un diamant pour le Mode Expert (raisonnement approfondi, plus lent mais plus précis sur les problèmes complexes). Le Mode Expert s’appuie sur le raisonnement de type « thinking » — le modèle montre ses étapes de réflexion avant de répondre, comme le fait Claude en extended thinking ou o1 d’OpenAI.

    Ce que le chat web sait faire

    • Upload de fichiers — jusqu’à 50 fichiers (100 Mo chacun) en Mode Rapide. Extraction de texte, analyse, résumé. Le Mode Expert ne supporte pas encore l’upload de fichiers.
    • Reconnaissance d’images — le Mode Rapide peut lire le texte dans des images et des documents scannés
    • Recherche web — intégrée via le bouton « Smart Search » (recherche en ligne avec sources citées)
    • DeepThink — le raisonnement pas à pas visible, activé automatiquement en Mode Expert
    • Historique de conversations — sauvegardé dans votre compte, accessible depuis la barre latérale

    Ce que le chat web ne fait pas

    Pas de plugins ni de connecteurs. Pas de mémoire entre les sessions (chaque conversation repart de zéro). Pas de génération d’images. Pas de mode vocal. Et surtout, la censure politique est active : les sujets sensibles en Chine (Tiananmen, Taïwan, Xi Jinping, etc.) déclenchent un refus de réponse ou une réponse alignée sur la position officielle du gouvernement chinois. Pour les usages professionnels non liés à la politique chinoise, cela n’a aucun impact. Pour les usages éducatifs ou journalistiques, c’est une limite réelle.

    L’API : votre premier appel en 5 minutes

    L’API DeepSeek utilise exactement le même format que l’API d’OpenAI. Si vous avez déjà utilisé le SDK OpenAI en Python ou en JavaScript, vous n’avez que deux choses à changer : l’URL de base et la clé API.

    Étape 1 : créer un compte et une clé

    Rendez-vous sur platform.deepseek.com. Créez un compte. Dans la section « API Keys », cliquez sur « Create API Key ». Copiez la clé (elle commence par sk-). Vous recevez 5 millions de tokens gratuits à l’inscription — assez pour plusieurs jours de tests intensifs à ce niveau de prix.

    Étape 2 : votre premier appel Python

    # Installation : pip install openai
    from openai import OpenAI
    
    client = OpenAI(
        api_key="sk-VOTRE-CLE-DEEPSEEK",
        base_url="https://api.deepseek.com"
    )
    
    # Mode chat (réponse directe, rapide)
    response = client.chat.completions.create(
        model="deepseek-chat",
        messages=[
            {"role": "system", "content": "Tu es un assistant technique expert."},
            {"role": "user", "content": "Explique le principe du MoE en 3 phrases."}
        ]
    )
    print(response.choices[0].message.content)

    C’est tout. Trois lignes de configuration, un appel. Le SDK OpenAI standard fait le reste. Pour utiliser le mode raisonnement (thinking), remplacez deepseek-chat par deepseek-reasoner. Le modèle prendra plus de temps, consommera plus de tokens, mais raisonnera étape par étape avant de répondre — idéal pour les problèmes complexes de logique, de maths ou de debug.

    Chat vs Reasoner : quand utiliser lequel

    Utilisez deepseek-chat pour les tâches rapides : rédaction, résumé, extraction de données, traduction, classification. Utilisez deepseek-reasoner quand la précision prime sur la vitesse : debug de code complexe, résolution de problèmes mathématiques, analyse logique multi-étapes. Le reasoner consomme plus de tokens (il génère des « thinking tokens » avant la réponse), mais le coût reste très bas comparé aux alternatives.

    Étape 3 : compatibilité OpenAI

    L’API DeepSeek est un drop-in replacement pour l’API OpenAI dans la plupart des cas. Si vous avez un script existant qui appelle GPT, la migration tient en deux lignes :

    # Avant (OpenAI)
    client = OpenAI(api_key="sk-VOTRE-CLE-OPENAI")
    
    # Après (DeepSeek)
    client = OpenAI(
        api_key="sk-VOTRE-CLE-DEEPSEEK",
        base_url="https://api.deepseek.com"
    )

    Le format des messages, le streaming, le function calling — tout fonctionne de la même manière. La seule différence notable : le mode thinking de deepseek-reasoner n’a pas d’équivalent direct dans le SDK OpenAI standard (les tokens de réflexion sont renvoyés dans un champ reasoning_content séparé).

    Intégration dans les éditeurs de code

    C’est là que DeepSeek brille au quotidien pour les développeurs. Deux options principales : Cursor (le plus intégré) et Continue.dev (le plus flexible).

    Cursor : DeepSeek en natif

    Cursor supporte DeepSeek nativement depuis janvier 2025. Deux façons de l’utiliser :

    Option A — Les modèles hébergés par Cursor. Allez dans Settings → Models, activez deepseek-v3 ou deepseek-r1. Ces modèles sont hébergés sur les serveurs de Cursor aux États-Unis — pas de transit de données vers la Chine. Ils sont inclus dans votre abonnement Cursor Pro (20 $/mois) et fonctionnent dans le chat, le Composer et l’édition inline (Cmd+K).

    Option B — Votre propre clé API DeepSeek. Si vous voulez utiliser le modèle le plus récent (V3.2) directement via l’API DeepSeek : Settings → Models → ajoutez un modèle custom nommé deepseek-chat, Base URL https://api.deepseek.com/beta, collez votre clé API. Avantage : coût très bas (vous payez au token). Limite : seul le mode chat fonctionne (pas d’autocomplétion Tab, pas de Composer multi-fichiers).

    Continue.dev (VS Code / JetBrains)

    Continue est une extension open source qui transforme VS Code ou JetBrains en assistant de code IA. Configuration pour DeepSeek :

    # config.json de Continue — API DeepSeek
    {
      "models": [{
        "title": "DeepSeek V3.2",
        "provider": "openai",
        "model": "deepseek-chat",
        "apiBase": "https://api.deepseek.com",
        "apiKey": "sk-VOTRE-CLE-DEEPSEEK"
      }]
    }

    Alternative pour le self-hosting local : installez Ollama, téléchargez un modèle DeepSeek quantifié (ollama pull deepseek-coder-v2:16b) et configurez Continue pour pointer vers http://localhost:11434. Zéro coût, zéro données envoyées à l’extérieur — idéal pour le code propriétaire sensible.

    Autres clients compatibles

    Tout outil compatible avec l’API OpenAI peut utiliser DeepSeek en changeant le base_url. Cela inclut Cline (VS Code), Aider (terminal), Open Interpreter, LiteLLM, et la plupart des frameworks d’agents comme LangChain ou CrewAI. Le format est toujours le même : base_url + api_key + nom du modèle.

    Les prompts qui fonctionnent avec DeepSeek

    DeepSeek V3.2 répond bien à certains styles de prompts et moins bien à d’autres. Voici ce que j’ai constaté après plusieurs semaines d’usage intensif, croisé avec les retours de la communauté.

    Ce qui marche bien

    Les prompts structurés avec des exemples. DeepSeek excelle quand vous lui donnez un format clair et un exemple de la sortie attendue. Le few-shot prompting (2-3 exemples avant la vraie requête) améliore significativement la qualité des résultats.

    # Prompt d'extraction structurée — copier-coller
    Extrais les informations suivantes de ce texte sous forme JSON :
    - nom_entreprise (string)
    - chiffre_affaires (number, en millions d'euros)
    - nombre_employes (number)
    - secteur (string)
    
    Exemple :
    Texte : "Doctolib, leader de la e-santé en Europe, emploie
    2 800 personnes et a généré 500 M€ de CA en 2024."
    Résultat : {"nom_entreprise": "Doctolib",
    "chiffre_affaires": 500, "nombre_employes": 2800,
    "secteur": "e-santé"}
    
    Texte à analyser :
    [COLLEZ VOTRE TEXTE ICI]

    Le raisonnement pas à pas. En mode reasoner, DeepSeek montre son processus de réflexion. Pour les problèmes de debug, de logique ou d’analyse, ajoutez « Raisonne étape par étape avant de donner ta réponse finale » — même en mode chat standard, cela force le modèle à décomposer le problème.

    Le code et le debug. Performances solides sur Python, JavaScript/TypeScript, Java, C++, Rust et Go. Le modèle produit du code fonctionnel dès le premier essai dans la majorité des cas pour les fonctions isolées, les refactorings et les tests unitaires.

    Ce qui coince

    Les instructions longues et nuancées en français. DeepSeek est entraîné principalement sur des données anglophones et sinophones. En français, il comprend bien les requêtes directes, mais les instructions complexes avec de nombreuses contraintes simultanées perdent en précision par rapport à Claude, qui gère mieux le français littéraire et les consignes éditoriales fines.

    Les sujets politiques chinois. On l’a dit, mais ça mérite un rappel concret : si votre prompt contient des mots comme « Tiananmen », « Tibet », « Taïwan indépendance », ou « Xi Jinping », attendez-vous à un refus de réponse ou à une réponse propagandiste. CrowdStrike a documenté que même la présence de ces mots-clés dans un contexte sans rapport (par exemple, du code contenant une variable nommée « tibet ») peut affecter la qualité de la sortie.

    La fiabilité factuelle. DeepSeek hallucine plus que Claude Opus ou GPT-5 sur les faits vérifiables. Pour les tâches où la précision factuelle est critique (recherche, rédaction journalistique, conseil juridique), vérifiez systématiquement les affirmations du modèle — ou utilisez un modèle avec de meilleurs garde-fous.

    L’architecture multi-fichiers. Sur les projets complexes qui impliquent plusieurs fichiers interdépendants (refactoring à grande échelle, ajout de fonctionnalités transversales), DeepSeek est en retrait par rapport à Claude Code ou GitHub Copilot Workspace, qui gèrent mieux le contexte de projet complet.

    Tableau comparatif : DeepSeek vs ChatGPT vs Claude au quotidien

    Critère DeepSeek (chat.deepseek.com) ChatGPT (chatgpt.com) Claude (claude.ai)
    Prix du chat Gratuit Gratuit (limité) / 20 $/mois (Plus) Gratuit (limité) / 20 $/mois (Pro)
    Mode raisonnement Oui (Mode Expert / DeepThink) Oui (o4-mini, o3) Oui (Extended Thinking)
    Upload de fichiers Oui (Mode Rapide) Oui Oui
    Génération d’images Non Oui (DALL-E, GPT-4o) Non
    Mode vocal Non Oui Non
    Plugins / connecteurs Non Oui (GPTs, actions) Oui (MCP, artefacts)
    Recherche web Oui (Smart Search) Oui Oui
    Mémoire entre sessions Non Oui Oui
    Censure politique Oui (sujets chinois) Minime Minime
    Résidence des données Chine États-Unis États-Unis

    Workflow type : une journée avec DeepSeek

    Voici comment intégrer DeepSeek dans un workflow quotidien réaliste, en combinant les trois interfaces.

    Matin
    Tâches rapides via le chat

    Résumer un rapport PDF, rédiger un email de suivi, traduire un brief client. Le Mode Rapide suffit. Gratuit, immédiat, aucune configuration.

    Après-midi
    Code avec Cursor ou Continue

    Écrire des fonctions, debugger, refactorer. DeepSeek en modèle principal dans l’IDE. Si un problème résiste, basculer sur Claude Code pour le contexte multi-fichiers.

    Pipeline
    Volume via l’API

    Classifier 500 tickets support, extraire des données de 200 factures, étiqueter un dataset. L’API deepseek-chat en batch, à 0,28 $/M tokens.

    La clé est de ne pas demander à DeepSeek ce qu’il fait mal. Utilisez-le pour le volume et les tâches structurées. Gardez Claude ou ChatGPT pour la rédaction créative en français, le multimodal et les cas où la précision factuelle est non négociable.

    Ce qu’il faut retenir

    DeepSeek s’utilise en cinq minutes : un compte, une clé API, trois lignes de code. Le chat web est gratuit et couvre 80 % des usages quotidiens. L’API est un drop-in replacement pour OpenAI à un quinzième du prix. L’intégration IDE fonctionne nativement dans Cursor et Continue.dev.

    Les limites sont claires : pas de plugins, pas de mémoire, censure sur les sujets politiques chinois, hallucinations plus fréquentes qu’avec les modèles propriétaires premium. Ces limites ne sont pas des deal-breakers pour la plupart des usages professionnels — elles définissent simplement les cas d’usage où DeepSeek excelle (volume, code, extraction) et ceux où il vaut mieux choisir un autre outil.

    Dans le prochain article, nous nous concentrons sur le cas d’usage le plus fort de DeepSeek : le code. Benchmarks détaillés, comparaison avec Claude Code et GitHub Copilot, et guide complet du self-hosting pour garder votre code propriétaire hors de tout serveur externe.

    Aller plus loin
    Comprendre les LLM

    Architecture, entraînement, limites — les fondamentaux des grands modèles de langage expliqués clairement.

    Lire le guide LLM
    Mise à jour : avril 2026
    Étiquettes: