Aller au contenu
    CODE
    Guide IA

    Codex CLI et l’API : ChatGPT pour les développeurs

    Vous utilisez ChatGPT dans le navigateur pour débugger du code. Vous copiez-collez entre le chat et votre IDE. Ça fonctionne, mais c’est lent. Codex CLI et l’API OpenAI éliminent ce goulot d’étranglement. Ce treizième article de la série couvre l’outil terminal d’OpenAI, la Responses API, et tout ce dont un développeur a besoin pour intégrer GPT-5.4 dans ses workflows — ou le comparer honnêtement avec Claude Code.

    L’écosystème développeur d’OpenAI en avril 2026 se structure autour de trois surfaces. Codex CLI est un agent de codage qui tourne dans votre terminal — l’équivalent direct de Claude Code. Codex Cloud exécute des tâches en parallèle dans des sandbox cloud. Et la Responses API est l’interface programmatique pour intégrer GPT-5.4 dans vos propres applications. Les trois sont inclus dans les plans ChatGPT payants (Plus, Pro, Business, Enterprise, Edu) — l’API étant facturée séparément au token.

    Cet article est plus technique que les précédents. Si vous n’êtes pas développeur, passez directement à la section « Ce que ça change pour les non-développeurs » en fin d’article.

    Codex CLI : l’agent de codage dans votre terminal

    Codex CLI est un outil open source (github.com/openai/codex) qui transforme votre terminal en un environnement de codage assisté par IA. Vous décrivez ce que vous voulez faire en langage naturel, Codex lit votre codebase, propose un plan, fait les modifications, exécute les tests — et vous validez chaque étape.

    Installation

    # Installation via npm
    npm i -g @openai/codex
    
    # Installation via Homebrew (macOS)
    brew install --cask codex
    
    # Connexion avec votre compte ChatGPT
    codex login
    
    # Ou avec une clé API
    codex login --api-key

    Codex CLI peut s’authentifier soit avec votre compte ChatGPT (les limites de votre plan s’appliquent), soit avec une clé API OpenAI (facturation au token, séparée de votre abonnement). Pour les environnements sans navigateur (serveurs, CI/CD, Docker), le device code flow permet de s’authentifier sans callback navigateur.

    Les modèles disponibles en avril 2026

    Modèle Usage Caractéristique
    gpt-5.4 Code complexe + tâches générales Modèle flagship, 1M tokens contexte, computer use natif
    gpt-5.4-mini Code courant, haut volume Rapide, économique, ~4x moins cher que gpt-5.4
    gpt-5.3-codex Codage agentique avancé Optimisé spécifiquement pour les tâches d’ingénierie logicielle
    gpt-5.3-codex-spark Code Q&A temps réel 1 000+ tokens/sec, Pro uniquement

    Note importante : les anciens modèles (gpt-5.2-codex, gpt-5.1-codex) ont été retirés de Codex CLI le 14 avril 2026 pour les utilisateurs connectés via ChatGPT. Ils restent accessibles via clé API.

    Les trois modes d’approbation

    Codex CLI ne fait rien sans votre accord (sauf si vous le lui permettez). Trois niveaux :

    • Read-only — Codex lit le code, propose des changements, mais chaque modification et chaque commande nécessitent votre approbation explicite. Le mode le plus sûr.
    • Auto — Codex a accès complet au workspace (lecture + écriture), mais demande une approbation pour toute action en dehors du workspace. Le bon compromis pour le travail quotidien.
    • Full access — Codex peut lire n’importe où et exécuter des commandes avec accès réseau. Réservé aux tâches supervisées avec un haut niveau de confiance.

    Ce que Codex CLI peut faire concrètement

    # Exemples de commandes Codex CLI
    
    # Lancer une session interactive
    codex
    
    # Donner une tâche directe
    codex "Ajoute des tests unitaires pour le module auth"
    
    # Revue de code
    /review
    
    # Chercher sur le web pendant la session
    # (Codex utilise web search comme outil)
    
    # Attacher une image (screenshot, wireframe, diagramme)
    # Drag & drop ou coller dans le CLI
    
    # Lancer une tâche cloud en parallèle
    codex cloud exec --env ENV_ID "Refactorise le module payment"
    
    # Reprendre une session précédente
    /resume

    Codex CLI suit votre progression avec une to-do list intégrée, supporte MCP pour se connecter à des outils externes, et peut attacher des images (screenshots, wireframes) pour partager du contexte visuel. L’interface TUI (Terminal User Interface) affiche les diffs en coloration syntaxique, les tool calls formatés, et vous permet de copier le dernier output avec Ctrl+O.

    Codex CLI vs Claude Code : la comparaison que tout développeur attend

    Critère Codex CLI (OpenAI) Claude Code (Anthropic)
    Open source Oui (GitHub) Non
    Benchmark SWE-bench Verified ~80 % (GPT-5.4) 80,8 % (Claude Opus 4.6)
    Tâches cloud parallèles Oui (Codex Cloud) Non (exécution locale uniquement)
    Extensions IDE VS Code, JetBrains VS Code, JetBrains
    Contexte max 1M tokens (API) 200K tokens
    Multi-agent Oui (sub-agents v2, spawn/wait) Oui (Agent Teams, bêta)
    MCP Oui Oui (natif)
    Autonomie longue Bon (compaction native GPT-5.4) Excellent (sessions de plusieurs heures documentées)
    Tarif (plan individuel) Inclus dans Plus (20 $) à Pro (100-200 $) Inclus dans Pro (20 $) à Max (100 $+)

    Où Codex CLI domine. Le contexte d’un million de tokens est un avantage concret pour les grands repos. Codex Cloud permet d’exécuter plusieurs tâches en parallèle dans des sandbox isolés — fonctionnalité que Claude Code n’a pas. L’open source permet à la communauté de contribuer et d’inspecter le code. Et l’écosystème est plus large (web search intégré, image input, plugins).

    Où Claude Code domine. La qualité de code sur les tâches d’ingénierie complexes — refactors longs, migrations — reste un léger cran au-dessus selon SWE-bench. Les sessions autonomes de plusieurs heures sont mieux documentées chez Claude Code. Et le protocole MCP est natif chez Anthropic — c’est eux qui l’ont créé.

    Le choix en pratique

    Si votre stack repose sur l’écosystème OpenAI (ChatGPT, Custom GPTs, apps, API), Codex CLI s’intègre naturellement. Si vous cherchez la meilleure qualité de code brute et que le reste de l’écosystème vous importe peu, Claude Code a un léger avantage. Beaucoup de développeurs professionnels utilisent les deux en parallèle et routent selon la tâche.

    L’API OpenAI : la Responses API en 5 minutes

    L’API est séparée de l’abonnement ChatGPT. Aucun plan ChatGPT n’inclut de crédits API — c’est une facturation au token, distincte.

    La Responses API est l’API recommandée en avril 2026. Elle remplace progressivement Chat Completions et l’Assistants API (sunset prévu août 2026). Son avantage : elle est agentique par défaut — le modèle peut appeler plusieurs outils (web search, file search, code interpreter, MCP, computer use, vos propres fonctions) dans une seule requête.

    # Appel minimal — Responses API (Python)
    from openai import OpenAI
    client = OpenAI()
    
    response = client.responses.create(
        model="gpt-5.4",
        input="Écris une fonction Python qui valide un IBAN."
    )
    
    print(response.output_text)

    Les modèles API en avril 2026

    Modèle Input / 1M tokens Output / 1M tokens Contexte
    gpt-5.4 2,50 $ (0,25 $ cached) 15,00 $ 1,05M tokens
    gpt-5.4-mini 0,75 $ (0,075 $ cached) 4,50 $ 1,05M tokens
    gpt-5.4-nano 0,20 $ (0,02 $ cached) 1,25 $ 1,05M tokens
    gpt-5.4-pro Tarif premium Tarif premium 1,05M tokens

    Le prompt caching réduit les coûts de 90 % sur les tokens d’input récurrents. Le Batch API offre 50 % de réduction pour les traitements asynchrones. Pour les projets à fort volume, la différence entre gpt-5.4 et gpt-5.4-nano peut représenter un facteur 12 sur la facture — le choix du bon modèle par tâche est une décision économique autant que technique.

    Function calling, outils et agents

    La Responses API supporte cinq catégories d’outils natifs, plus vos propres fonctions :

    • Web search — Le modèle cherche sur le web pour compléter sa réponse avec des données récentes.
    • File search — Recherche dans des fichiers uploadés (RAG intégré).
    • Code interpreter — Exécute du code Python dans un sandbox.
    • Computer use — Le modèle interagit avec une interface graphique via screenshots, clavier et souris (preview). GPT-5.4 a obtenu 75 % sur OSWorld-Verified.
    • Remote MCP — Connexion à des serveurs MCP distants pour accéder à des services tiers.
    • Function calling — Vos propres fonctions, définies via un schéma JSON. Le modèle décide quand les appeler et génère les paramètres.

    Nouveauté GPT-5.4 : le tool search permet de charger dynamiquement les définitions d’outils au moment de l’exécution, au lieu de toutes les inclure dans le prompt. C’est indispensable pour les applications avec des dizaines d’outils — réduction de 47 % de la consommation de tokens dans les workflows multi-outils.

    L’Agents SDK

    L’Agents SDK (Python et TypeScript) est le framework d’orchestration d’OpenAI pour construire des agents IA multi-étapes. Il gère les boucles agentiques, le chaînage d’outils, la gestion des approbations, et les workflows multi-agents. C’est le cadre recommandé pour passer du « un prompt, une réponse » au « donne une tâche, le système la résout en plusieurs étapes ».

    Computer use preview : ce que c’est (et ce que ce n’est pas encore)

    GPT-5.4 est le premier modèle mainstream d’OpenAI avec des capacités de computer use intégrées. Concrètement, le modèle peut générer du code Playwright, lire des screenshots, et simuler des actions clavier/souris pour interagir avec des interfaces graphiques.

    C’est un preview, pas un produit fini. Les cas d’usage viables : automatisation de tests UI, navigation dans des interfaces d’administration, remplissage de formulaires. Les cas d’usage non viables : pilotage autonome de workflows critiques sans supervision humaine. Le score de 75 % sur OSWorld-Verified est au-dessus du baseline humain (72,4 %), mais pas assez pour une confiance aveugle.

    Ce que ça change pour les non-développeurs

    Si vous n’êtes pas développeur, retenez trois choses de cet article.

    1. Codex CLI est l’équivalent de Claude Code. Si votre équipe dev utilise Claude Code et que vous vous demandez si OpenAI a un concurrent, la réponse est oui. Les deux outils sont comparables en capacité, avec des forces différentes.

    2. L’API et l’abonnement ChatGPT sont séparés. Votre abonnement Plus à 20 $ ne vous donne pas de crédits API. Si quelqu’un dans votre équipe veut intégrer GPT-5.4 dans une application interne, c’est un budget séparé, facturé au token.

    3. Le computer use va changer la donne. Aujourd’hui en preview, le computer use est la brique qui permettra à terme à ChatGPT de piloter des logiciels à votre place — remplir un CRM, naviguer dans un ERP, automatiser des tâches dans des outils qui n’ont pas d’API. Surveillez les évolutions de cette fonctionnalité.

    Ce que vous pouvez faire maintenant

    Si vous codez : installez Codex CLI (deux commandes), connectez-le à votre compte ChatGPT, et testez-le sur votre prochain bug ou votre prochaine feature. Comparez avec Claude Code si vous l’utilisez déjà — la meilleure façon de choisir est de tester sur votre propre codebase.

    Si vous gérez une équipe dev : évaluez les Codex-only seats (facturation au token, pas de siège fixe) pour donner accès à Codex Cloud sans passer par un abonnement ChatGPT complet.

    Le dernier article de la série assemble toutes les pièces : Custom Instructions, mémoire, personnalité, Projects, Custom GPTs, apps, Scheduled Tasks — le système ChatGPT complet, avec trois setups par métier et une checklist de mise en place en 12 étapes.

    Aller plus loin
    Tous nos guides IA

    Retrouvez l’ensemble de nos guides pratiques sur l’intelligence artificielle : concepts, outils, méthodes.

    Explorer les guides
    Mise à jour : avril 2026

    Étiquettes: