DeepSeek : l’IA chinoise qui bouscule la Silicon Valley
En janvier 2025, un modèle d’IA inconnu a fait perdre 589 milliards de dollars à Nvidia en une seule journée. Son nom : DeepSeek. Depuis, la startup chinoise n’a cessé de progresser — et s’apprête à lancer V4. Voici ce qu’il faut savoir.
Le 27 janvier 2025, les marchés financiers mondiaux ont connu un séisme. Nvidia, première capitalisation boursière mondiale et pilier de l’industrie de l’intelligence artificielle, a perdu près de 17 % en une seule séance — soit 589 milliards de dollars de capitalisation évaporés. Du jamais vu dans l’histoire de Wall Street. La cause ? Un modèle d’IA open source baptisé DeepSeek-R1, développé par une startup chinoise alors quasi inconnue du grand public occidental.
Marc Andreessen, l’un des investisseurs les plus influents de la Silicon Valley, a qualifié l’événement de « moment Spoutnik » de l’IA. Depuis, DeepSeek n’a cessé de progresser. En mars 2026, ses modèles sont intégrés dans des dizaines de plateformes (Mammouth AI, Perplexity, Amazon SageMaker) et V4, son prochain modèle multimodal à 1 000 milliards de paramètres, est sur le point de sortir.
DeepSeek, c’est qui ?
DeepSeek est un laboratoire de recherche en intelligence artificielle fondé en 2023 par Liang Wenfeng, un gestionnaire de fonds quantitatifs basé à Hangzhou, en Chine. Le projet est né d’une conviction simple : il est possible de construire des modèles d’IA de niveau mondial sans dépenser des dizaines de milliards de dollars. Ce qui a commencé comme un projet quasi artisanal est devenu l’un des challengers les plus crédibles face à OpenAI, Google et Anthropic.
Ce qui distingue DeepSeek de ses concurrents américains, c’est son approche radicalement économe. Là où OpenAI et Google mobilisent des budgets de plusieurs milliards et les puces les plus avancées de Nvidia, DeepSeek a construit son modèle R1 avec des puces moins puissantes (les H800, conformes aux restrictions américaines sur les exportations vers la Chine) et un budget d’entraînement annoncé à moins de 6 millions de dollars. Le coût de ses API est environ 10 fois inférieur à celui des concurrents : 0,27 $ par million de tokens en entrée, contre plusieurs dollars chez OpenAI.
DeepSeek fait le choix de l’open source : ses modèles sont disponibles gratuitement sous licence Apache 2.0. N’importe qui peut les télécharger, les modifier et les utiliser.
Les modèles DeepSeek en mars 2026
L’écosystème DeepSeek a considérablement grandi depuis le choc initial de janvier 2025. Voici les principaux modèles disponibles.
DeepSeek-V3.2 — le modèle généraliste
C’est le modèle phare, avec 671 milliards de paramètres au total — mais seulement 37 milliards sont activés pour chaque requête grâce à l’architecture « Mixture of Experts » (MoE). Cela signifie des performances comparables à GPT-5 sur de nombreuses tâches, pour un coût d’inférence radicalement inférieur. La variante V3.2-Speciale, sortie fin 2025, vise les tâches de raisonnement de haut niveau.
DeepSeek-R1 — le raisonnement
C’est le modèle qui a tout déclenché. Spécialisé dans la résolution de problèmes complexes (mathématiques, code, logique), R1 utilise l’apprentissage par renforcement pour s’améliorer de façon autonome. Ses performances rivalisent avec le modèle o1 d’OpenAI sur les benchmarks de raisonnement — pour une fraction du coût.
DeepSeek-Coder-V3 — le code
Optimisé pour la génération, la correction et l’analyse de code. En 2026, DeepSeek est devenu le moteur privilégié de nombreux agents de codage autonomes et de projets d’automatisation, grâce à son rapport coût-performance.
DeepSeek-OCR — la reconnaissance documentaire
Un modèle vision-langage d’environ 3 milliards de paramètres, spécialisé dans l’extraction de texte à partir d’images et de documents. Il gère plus de 100 langues, reconnaît les formules mathématiques, les tableaux et les structures complexes, et corrige les distorsions (reflets, plis, ombres). Depuis février 2026, il est disponible sur Amazon SageMaker. C’est l’un des rares modèles OCR open source capables de rivaliser avec les solutions commerciales pour le traitement documentaire à grande échelle.
DeepSeek-V4 — le prochain grand saut
Annoncé pour début mars 2026, V4 est un modèle multimodal (texte, image, vidéo) à environ 1 000 milliards de paramètres, avec une fenêtre de contexte de 1 million de tokens. Selon le Financial Times, DeepSeek a travaillé avec Huawei et Cambricon pour optimiser V4 sur du matériel chinois. Le lancement est prévu juste avant l’ouverture des « Deux Sessions » parlementaires chinoises, ce qui positionne DeepSeek comme un champion national de l’IA.
V4 introduit trois innovations architecturales majeures : les Connexions Hyper Contraintes par Variété (mHC) pour stabiliser l’entraînement à grande échelle, la mémoire conditionnelle Engram pour gérer les contextes très longs, et l’Attention Sparse pour réduire les coûts de calcul. Si les benchmarks annoncés se confirment (SWE-bench supérieur à 80 %), V4 se positionnerait comme l’un des modèles les plus performants au monde en code — pour un coût 10 à 40 fois inférieur à ses concurrents.
Pourquoi DeepSeek fait trembler l’industrie
La question des investissements massifs
Le vrai séisme provoqué par DeepSeek n’est pas technique — il est économique. Si une startup peut produire des modèles comparables à ceux d’OpenAI avec une fraction du budget, la question se pose : les 1 000 milliards de dollars que la Silicon Valley prévoit d’investir dans l’IA sont-ils nécessaires ? Comme l’a résumé Jefferies : « Si DeepSeek est la bonne affaire à un prix proche de ce qu’ils prétendent, avons-nous besoin de dépenser autant pour des puces haut de gamme ? »
L’effet sur la concurrence
Depuis le choc DeepSeek, les concurrents ont ajusté leurs tarifs. Google a réduit les coûts de l’API Gemini. OpenAI a baissé ses prix et lancé o3-mini pour concurrencer sur l’efficacité. La pression sur les coûts profite directement aux utilisateurs finaux — y compris à vous.
Open source vs. modèles fermés
DeepSeek incarne le camp open source face aux modèles propriétaires d’OpenAI. En publiant ses poids sous licence Apache 2.0, la startup permet à n’importe qui de télécharger, modifier et déployer ses modèles. C’est ce qui explique leur intégration rapide dans des dizaines de plateformes tierces.
Ce que DeepSeek change pour vous concrètement
Si vous utilisez déjà des outils IA
Vous utilisez peut-être déjà DeepSeek sans le savoir. Les modèles DeepSeek sont intégrés dans Mammouth AI, Perplexity, n8n, et de nombreuses autres plateformes. Quand vous sélectionnez « DeepSeek V3 » ou « DeepSeek Reasoning » dans un agrégateur, c’est ce modèle qui tourne derrière.
Si vous êtes développeur ou entrepreneur
Les API DeepSeek sont parmi les moins chères du marché : environ 0,27 $ par million de tokens en entrée. Pour des tâches comme la classification de texte, le résumé, la génération de code ou l’OCR, le rapport coût-performance est difficile à battre. Si vous construisez un produit IA et que votre budget est limité, DeepSeek mérite d’être testé.
Si vous êtes curieux ou créateur de contenu
DeepSeek est accessible gratuitement via son interface web (chat.deepseek.com). Vous pouvez tester ses capacités de raisonnement, de rédaction et de code sans créer de compte payant. La qualité en français est correcte, même si elle reste en retrait par rapport à Claude ou GPT sur les nuances stylistiques.
Les limites à connaître
La question chinoise
DeepSeek est une entreprise chinoise. Ses modèles sont soumis aux régulations chinoises en matière de contenu : certaines questions politiquement sensibles (Taïwan, Tiananmen, le Tibet) produisent des réponses évasives ou refusées. Pour un usage purement technique (code, OCR, analyse de données), cela n’a aucun impact. Pour de la rédaction éditoriale ou des sujets géopolitiques, c’est une limite réelle.
La transparence relative
Même si les modèles sont open source, certains détails sur l’architecture et les données d’entraînement restent opaques. Le budget annoncé de 6 millions de dollars pour R1 a été accueilli avec scepticisme par plusieurs analystes qui estiment que les coûts réels sont probablement supérieurs. Les informations communiquées par DeepSeek sont à prendre avec la même prudence que celles de n’importe quel acteur — américain ou chinois.
Les retours utilisateurs contrastés
En février 2026, une mise à jour de l’application web DeepSeek a modifié le ton des réponses — des utilisateurs ont signalé un style plus froid et moins engageant. La gestion du contexte sur les longues conversations reste en retrait par rapport à Claude ou ChatGPT. Pour un usage professionnel exigeant en termes de nuance et de mémoire conversationnelle, les modèles premium des concurrents conservent un avantage.
Le matériel
Si vous souhaitez faire tourner les modèles DeepSeek localement (par exemple via Ollama), les versions complètes nécessitent un GPU puissant. Les versions « distillées » (plus petites) fonctionnent sur du matériel grand public, mais avec des performances réduites.
DeepSeek vs. la concurrence en mars 2026
DeepSeek V3.2 vs. GPT-5. Performances comparables sur le raisonnement et le code. GPT-5 garde l’avantage sur les tâches créatives et la qualité stylistique. DeepSeek est 10 fois moins cher en API.
DeepSeek V3.2 vs. Claude Opus 4.6. Claude excelle en analyse de documents longs, en nuance rédactionnelle et en sécurité vérifiable (stack de sécurité certifiée pour les industries réglementées). DeepSeek domine sur le rapport coût-performance et l’accès open source.
DeepSeek R1 vs. OpenAI o1. Performances proches sur les benchmarks de raisonnement mathématique et de code. DeepSeek R1 est open source et considérablement moins cher. OpenAI o1 est plus fiable sur les tâches nécessitant des vérifications en chaîne.
En résumé : DeepSeek n’est pas meilleur que ses concurrents sur tout. Mais il est souvent comparable — pour un coût radicalement inférieur. C’est ce qui en fait un acteur incontournable.
Ce qu’il faut retenir
DeepSeek a démontré qu’il est possible de construire des modèles d’IA de niveau mondial sans les budgets colossaux de la Silicon Valley. En 18 mois, la startup est passée de l’anonymat à un rôle central dans l’écosystème IA mondial — avec des modèles intégrés partout, une communauté open source massive, et un prochain lancement (V4) qui pourrait à nouveau redéfinir les rapports de force.
Pour les utilisateurs, l’effet le plus concret est la baisse des prix. La concurrence de DeepSeek pousse tous les acteurs à réduire leurs tarifs et à améliorer leur efficacité. Que vous utilisiez ChatGPT, Claude ou Gemini, vous bénéficiez déjà indirectement de la pression exercée par DeepSeek sur le marché.
DeepSeek est un acteur sérieux — ça ne fait plus débat. Reste à décider si ses forces (coût, open source, performance brute) compensent ses limites (censure, transparence, nuance) pour votre usage précis. C’est un arbitrage que chacun doit faire en connaissance de cause.
Concepts, tendances, guides pratiques… Tout ce qu’il faut connaître sur l’IA.