Aller au contenu
    AGENT
    Série Qwen · Article 4/12

    Qwen-Agent et QwenPaw : transformer Qwen en collaborateur permanent

    Sans contexte, Qwen repart de zéro à chaque conversation. Avec un agent bien configuré, il connaît votre métier, vos documents, vos outils — et il s’en sert sans qu’on le lui demande. Qwen-Agent est le framework open source qui propulse aujourd’hui Qwen Chat lui-même. QwenPaw, lancé le 12 avril 2026, le rend accessible sans coder. Voici comment passer du chatbot ponctuel au collaborateur permanent.

    Vous avez une routine professionnelle. Vous écrivez avec un certain ton. Vous travaillez sur des projets récurrents. Vous utilisez des templates. Vous avez besoin d’accéder à vos fichiers, à votre calendrier, à votre messagerie. Et chaque fois que vous ouvrez Qwen Chat, vous repartez de zéro : vous re-collez votre charte éditoriale, vous re-uploadez vos documents de référence, vous re-expliquez votre contexte métier. Le modèle est puissant, mais l’expérience est laborieuse.

    C’est exactement le problème que résout l’agent IA : une couche de configuration persistante qui donne à Qwen un contexte stable, l’accès à vos outils et à vos documents, et la capacité d’agir au-delà du simple chat. Côté Qwen, deux solutions co-existent en avril 2026 — l’une historique et orientée développeurs (Qwen-Agent), l’autre toute neuve et accessible sans coder (QwenPaw, lancé le 12 avril). Cet article décortique les deux et vous aide à choisir.

    Pourquoi un agent change la donne

    La différence entre un chat classique et un agent tient en trois points concrets : la persistance du contexte, l’accès aux outils, et la capacité d’action.

    Dans un chat classique avec Qwen, vous démarrez chaque conversation avec un modèle vierge. Toutes les instructions, tous les documents, tous les détails métier doivent être ré-injectés à chaque session. Le contexte s’évapore dès que vous fermez l’onglet.

    Dans un agent, vous configurez une fois pour toutes : un system prompt qui décrit votre métier, vos préférences, vos contraintes. Une base de connaissances avec vos documents de référence (chartes, templates, archives). Une liste d’outils auxquels Qwen peut accéder (votre messagerie, votre Drive, vos bases de données, des recherches web automatisées). Cette configuration s’applique automatiquement à chaque interaction, sans rien à recoller. Vous parlez à un assistant qui connaît déjà votre univers.

    Qwen-Agent propulse maintenant Qwen Chat

    Information importante : depuis l’ouverture de Qwen Chat à l’international, c’est Qwen-Agent qui sert de backend à l’interface chat.qwen.ai elle-même. Quand vous activez les artifacts, le code interpreter ou la recherche web dans Qwen Chat, vous utilisez en réalité les briques de Qwen-Agent — sans le savoir. La maîtrise du framework est donc utile même si vous ne codez pas : elle vous fait comprendre ce qui se passe sous le capot.

    Qwen-Agent : le framework officiel d’Alibaba

    Qwen-Agent est le framework Python open source publié par l’équipe Alibaba sur GitHub. Il est conçu pour développer des applications LLM exploitant pleinement les capacités de Qwen3 : instruction following, tool calling, planification, mémoire. Sa licence Apache 2.0 autorise tout usage, y compris commercial.

    Ce que le framework apporte

    Qwen-Agent fournit une boîte à outils complète pour construire un agent autour de Qwen, sans avoir à réinventer chaque brique :

    • Function Calling natif — appels d’outils parallèles, multi-étapes, multi-tours, avec parsing automatique des sorties. Compatible avec les templates de tool-call propres à Qwen3 (paramètre fncall_prompt_type=nous).
    • RAG sur très longs documents — solution de question-réponse sur des documents de plus d’1 million de tokens, qui surpasse les modèles long-context natifs sur deux benchmarks et obtient un score parfait sur le test « needle-in-the-haystack » (retrouver une info précise noyée dans un corpus massif).
    • Code Interpreter sandboxé — exécution de code Python dans des conteneurs Docker isolés. Qwen écrit le code, l’exécute, récupère le résultat, itère.
    • Intégration MCP (Model Context Protocol) — connexion native aux serveurs MCP standards : filesystem, github, sqlite, memory, et tous les serveurs tiers compatibles. Le même protocole que celui utilisé par Claude.
    • Outils intégrés — recherche web, génération d’images, parsing de documents, retrieval, image search, zoom (pour Qwen3-VL).
    • Interface GUI — déploiement rapide d’une démo Gradio pour interagir avec votre agent dans le navigateur, en quelques lignes.

    Architecture en composants

    Le framework est organisé en deux niveaux. Les composants atomiques sont les briques de base : les LLMs (qui héritent de la classe BaseChatModel et embarquent le function calling) et les Tools (qui héritent de BaseTool). Les composants de haut niveau sont les agents pré-construits, dérivés de la classe Agent — Assistant, FnCallAgent, ReActChat, DocQA Agent, GroupChat, ArticleAgent.

    Pour la plupart des usages, vous n’avez pas besoin de tout réinventer : vous prenez un Assistant pré-construit, vous lui passez un system prompt, une liste d’outils et une liste de fichiers, et vous l’exécutez. Tout le reste est géré par le framework.

    Installation et configuration de base

    Côté technique, l’installation tient en une commande :

    # Installation depuis PyPI
    pip install -U "qwen-agent[gui,rag,code_interpreter,mcp]"
    
    # Ou installation minimale sans options
    pip install -U qwen-agent

    Les options entre crochets activent les modules : gui pour l’interface Gradio, rag pour le retrieval, code_interpreter pour le sandbox Docker, mcp pour les serveurs Model Context Protocol. La GUI nécessite Python 3.10 ou supérieur (dépendance Gradio 5).

    Configuration d’un assistant minimal qui utilise Qwen3-235B via DashScope, lit un PDF et a accès au code interpreter :

    # Configuration LLM
    llm_cfg = {
        'model': 'qwen3-235b-a22b',
        'model_type': 'qwen_dashscope',
        # Clé API lue depuis DASHSCOPE_API_KEY
    }
    
    # Création de l'assistant
    from qwen_agent.agents import Assistant
    
    bot = Assistant(
        llm=llm_cfg,
        system_message="Tu es analyste financier senior...",
        function_list=['code_interpreter'],
        files=['./rapport_q1_2026.pdf']
    )
    
    # Lancement de l'interface web
    from qwen_agent.gui import WebUI
    WebUI(bot).run()

    Vous obtenez en moins de vingt lignes un assistant qui connaît votre prompt système, lit votre PDF, exécute du code Python pour faire des calculs, et parle dans une interface web propre. Pour un développeur, c’est l’un des frameworks LLM les plus simples du marché.

    QwenPaw : l’agent personnel sans code

    Pour qui ne code pas, le framework Python reste hors de portée. C’est précisément le manque qu’est venu combler QwenPaw — Qwen Personal Agent Workstation — lancé le 12 avril 2026 par l’équipe AgentScope (anciennement appelé CoPaw avant son rebranding officiel).

    QwenPaw transpose les capacités agentiques de Qwen dans une application clé en main, installable sur votre machine, qui se connecte à vos outils du quotidien sans qu’aucune ligne de code ne soit nécessaire. C’est l’équivalent Qwen de ce que Claude Cowork est à Anthropic, mais open source et gratuit.

    Ce que QwenPaw permet de faire

    Les cas d’usage cibles, listés dans la documentation officielle de la version 1.1.1 publiée le 14 avril 2026 :

    • Réseaux sociaux — digests quotidiens de posts populaires (Xiaohongshu, Zhihu, Reddit), résumés de vidéos Bilibili et YouTube.
    • Productivité — agrégation d’emails et newsletters poussés vers DingTalk/Feishu/QQ, organisation des contacts email et calendrier.
    • Création et construction — décrivez votre objectif avant d’aller dormir, exécution automatique pendant la nuit, prototype prêt au réveil. Workflow complet de la sélection du sujet à la vidéo finale.
    • Recherche et apprentissage — veille tech et IA, base de connaissances personnelle indexée et recherchable.
    • Bureau et fichiers — organisation et recherche dans vos fichiers locaux, lecture et résumé de documents, demandes de fichiers en chat.

    L’application se connecte à de multiples canaux de communication — DingTalk, Feishu, WeChat, Discord, Telegram — pour pousser ses sorties là où vous lisez vos messages. Vous pouvez ainsi déclencher une analyse sur votre téléphone et recevoir le résultat dans votre Slack ou votre Telegram.

    Architecture et sécurité

    QwenPaw repose sur trois principes : déploiement local (toutes les données restent sur votre machine), compatibilité multi-LLM (Qwen mais aussi d’autres modèles via API), sécurité multicouche. Concrètement :

    • Tool guard — interception automatique des commandes shell dangereuses (rm -rf /, fork bombs, reverse shells, etc.).
    • File access guard — restriction de l’accès aux chemins sensibles (~/.ssh, fichiers de clés, répertoires système).
    • Skill security scanning — scan automatique avant installation d’une skill, détection de prompt injection, command injection, clés en dur, exfiltration de données.
    • Authentification web — protection optionnelle de la console (désactivée par défaut, activable via QWENPAW_AUTH_ENABLED=true).

    Quand vous utilisez un LLM cloud (l’API Qwen via Alibaba Cloud par exemple), les contenus de conversation sont envoyés au fournisseur — c’est inévitable. Mais la mémoire, les fichiers et les configurations restent en local. Si vous voulez la confidentialité totale, vous combinez QwenPaw avec un Qwen installé localement via Ollama (sujet de l’article 9 de cette série).

    Qwen-Agent vs QwenPaw : que choisir

    Les deux solutions ne s’opposent pas — elles ciblent des publics différents. Voici le tableau de décision :

    Critère Qwen-Agent QwenPaw
    Public cible Développeurs Python Tous publics
    Code requis Oui (Python) Non (config UI)
    Personnalisation Totale Modulable via skills
    Cas d’usage typique Application métier sur mesure Assistant personnel quotidien
    Déploiement Embarqué dans votre app Application standalone
    Connecteurs externes Via MCP, code custom Canaux pré-intégrés (chat apps)
    Multi-LLM Qwen prioritaire Multi-modèles natif
    Maturité Stable, en prod chez Qwen Chat v1.1.1 (avril 2026), évolution rapide

    Si vous êtes développeur et voulez intégrer Qwen dans une application sur mesure (chatbot client, outil interne métier, automatisation B2B), Qwen-Agent est la voie naturelle. Documentation solide, framework éprouvé en production, communauté active sur GitHub.

    Si vous êtes utilisateur professionnel sans bagage technique et cherchez un assistant IA personnel qui automatise votre quotidien (veille, emails, fichiers, recherche), QwenPaw est le bon point de départ. L’installation se fait via une commande simple (qwenpaw init), la configuration via une console web. Comptez quelques heures pour prendre la main.

    Comparaison avec les Projects de Claude

    Pour celles et ceux qui connaissent les Projects de Claude, l’analogie aide à comprendre. Un Project Claude offre : instructions persistantes, base de connaissances de fichiers, conversations groupées par projet, accès aux connecteurs MCP. Qwen-Agent offre tout cela aussi, plus la possibilité de tout customiser au niveau code. QwenPaw va plus loin : c’est un agent qui tourne en autonomie, lit votre email, vous pousse des digests, exécute des tâches planifiées.

    Trois différences notables avec Claude :

    • Open source contre propriétaire — Qwen-Agent et QwenPaw sont sous licence ouverte, modifiables, hébergeables où vous voulez. Les Projects Claude sont liés à l’écosystème Anthropic.
    • Multi-LLM contre mono-LLM — QwenPaw peut piloter d’autres modèles que Qwen (utile pour benchmarker ou pour jouer la carte de la diversité). Claude Projects ne fonctionne qu’avec Claude.
    • Configuration code contre configuration UI — Qwen-Agent demande Python pour la config avancée, là où Claude Projects propose une UI complète. QwenPaw rééquilibre cette différence pour le grand public.

    Comment démarrer concrètement

    Étape 01
    Identifiez votre besoin

    Application sur mesure ou assistant personnel ? Veille automatisée ou chatbot métier ? Ce choix détermine si vous partez sur Qwen-Agent ou QwenPaw.

    Étape 02
    Choisissez votre modèle

    API DashScope (Qwen3-Max, Qwen3.5-Plus, Qwen3.6-Plus) si vous priorisez la qualité. Modèle local via Ollama (Qwen3-30B-A3B, Qwen3-32B) si vous priorisez la confidentialité et le coût.

    Étape 03
    Configurez le contexte

    System prompt métier détaillé, fichiers de référence, outils nécessaires. C’est cette étape qui fait la différence entre un agent générique et un assistant qui vous est vraiment utile.

    L’erreur la plus fréquente des débutants : bâcler le system prompt. Un assistant configuré avec « tu es mon assistant » fonctionne, mais ne vous fait gagner que peu de temps. Un assistant avec un system prompt de 500 à 1 000 mots — qui décrit votre rôle, votre cible, vos contraintes éditoriales, votre méthode, vos exemples favoris — produit des sorties calibrées dès la première requête. C’est l’investissement initial qui change tout.

    Notre avis : la pièce manquante de l’usage Qwen

    Tant que vous utilisez Qwen comme un chatbot ponctuel via chat.qwen.ai, vous restez à 30 ou 40 % de son potentiel. La bascule vers un agent — quel qu’il soit — change la nature même de l’usage. Vous passez d’un outil que vous interrogez à un collaborateur que vous orientez. Le gain de productivité est facilement mesurable : 5 à 10 minutes par requête épargnées sur le contexte à recoller, plus une qualité de sortie systématiquement supérieure grâce au cadrage permanent.

    Notre recommandation calibrée selon le profil :

    • Solo non-développeur — testez QwenPaw dès cette semaine. La v1.1.1 est suffisamment mature et la version est gratuite. Commencez par un cas d’usage simple (digest emails ou résumés de vidéos), élargissez ensuite.
    • Solo développeur — testez Qwen-Agent en local avec Ollama. Trois heures d’investissement pour un assistant codé sur-mesure qui sera plus puissant que n’importe quel ChatGPT Plus.
    • Petite équipe — déploiement Qwen-Agent sur un serveur partagé avec accès via interface Gradio. Avantage : tout le monde a le même contexte de référence, pas de drift entre les utilisateurs.
    • Entreprise structurée — Qwen-Agent intégré à votre stack interne, modèles via API EU Francfort pour la conformité RGPD, déploiement multi-agents par département.

    Ce que cela change pour vous

    Vous avez maintenant les bases pour transformer Qwen d’un chatbot intelligent en collaborateur permanent. Les trois prochains articles de la série exploitent cette capacité agentique sur des terrains spécifiques : le contexte d’1 million de tokens (article 5), l’analyse visuelle avec Qwen3-VL (article 6), et le code agentique avec Qwen3-Coder (article 7). Chacun de ces cas d’usage gagne énormément à être branché dans un agent plutôt qu’utilisé en chat ponctuel.

    L’investissement à faire dès maintenant : identifier deux ou trois tâches récurrentes de votre semaine où vous re-collez systématiquement le même contexte à Qwen. Ces tâches sont vos premiers candidats pour un agent. Une fois configuré, vous ne reviendrez plus en arrière.

    Aller plus loin
    Tout sur les agents IA

    Comprendre les agents IA, leur fonctionnement, leurs cas d’usage, et les frameworks pour les construire ou les déployer.

    Découvrir les agents IA
    Mise à jour : avril 2026

    Étiquettes: