OpenClaw (ex-Moltbot) : l’agent IA qui a affolé Internet en une semaine
200 000 étoiles GitHub, un réseau social réservé aux IA, un cours boursier qui s’envole, des alertes de cybersécurité. Retour sur le phénomène Clawdbot/Moltbot/OpenClaw — et ce qu’il révèle sur l’avenir des agents IA.
En janvier 2026, un développeur autrichien nommé Peter Steinberger a mis en ligne un projet personnel : un assistant IA autonome, open source, qui tourne sur votre propre machine et se connecte à vos applications du quotidien. WhatsApp, Telegram, Gmail, calendrier, navigateur, terminal — le tout avec une mémoire persistante. Il l’a appelé Clawdbot, en référence au homard qu’on voit quand on recharge Claude Code.
Sept jours plus tard, le projet avait explosé. Plus de 85 000 étoiles GitHub en une semaine. Un renommage forcé en Moltbot après une demande de marque d’Anthropic. Puis un deuxième renommage en OpenClaw. Un réseau social réservé aux IA. L’action Cloudflare qui bondit de 14 %. Andrej Karpathy (ex-directeur IA chez Tesla) qui parle de « la chose la plus sci-fi » qu’il ait vue. Elon Musk qui évoque « les prémices de la singularité ». Et des chercheurs en sécurité qui tirent la sonnette d’alarme.
En mars 2026, OpenClaw dépasse les 200 000 étoiles GitHub — l’un des dépôts à la croissance la plus rapide de l’histoire de la plateforme. Voici ce que c’est, pourquoi ça a explosé, et ce que ça signifie concrètement.
Ce qu’OpenClaw fait concrètement
OpenClaw est un agent IA autonome, open source, qui s’installe sur votre ordinateur ou un serveur (VPS). Contrairement à ChatGPT ou Claude utilisés dans un navigateur, il a un accès direct à votre système : fichiers, terminal, navigateur, applications de messagerie.
En pratique, il peut gérer votre calendrier, envoyer des messages sur WhatsApp ou Telegram, lire et trier vos emails, exécuter des commandes système, naviguer sur le web, résumer des documents, et même coder des applications entières pendant que vous dormez. L’utilisateur interagit avec lui comme avec un contact normal sur sa messagerie.
La différence fondamentale avec un chatbot classique : la mémoire persistante. OpenClaw se souvient de vos conversations d’il y a des semaines. Il retient vos préférences, vos projets en cours, votre contexte professionnel. Quand vous le relancez, il sait qui vous êtes et où vous en étiez.
L’autre différence : il agit. Il ne se contente pas de répondre à des questions — il exécute des tâches, enchaîne des étapes, et peut fonctionner de manière proactive grâce aux « heartbeats », des vérifications automatiques à intervalles réguliers.
La chronologie d’une semaine folle
Peter Steinberger publie son projet personnel sur GitHub. Les démos de tâches réalisées de manière autonome explosent sur X, TikTok et Reddit. 44 000 étoiles GitHub en quelques jours.
« Clawdbot » ressemble trop à « Claude ». Anthropic envoie une demande de marque. Le projet devient Moltbot (référence à la mue du homard), puis rapidement OpenClaw.
Matt Schlicht (fondateur d’Octane AI) crée Moltbook — un Reddit réservé aux agents IA. Seuls les bots peuvent publier, commenter et voter. Les humains observent. 1,6 million d’agents revendiqués en février.
RentAHuman.ai permet aux agents de recruter des humains. Le token MOLT fait +1 800 % en 24 heures. L’action Cloudflare bondit de 14 %. Les alertes de sécurité se multiplient.
Moltbook : le réseau social où les humains ne peuvent pas parler
C’est l’élément le plus frappant du phénomène. Moltbook imite le format de Reddit, avec des « submolts » thématiques. Mais seuls les agents IA peuvent publier, commenter et voter. Les humains sont « bienvenus pour observer ».
Les discussions entre bots tournent autour de thèmes existentiels, philosophiques, parfois religieux — ce qui a fasciné les médias. Andrej Karpathy a qualifié le phénomène de « la chose la plus incroyable proche d’un décollage sci-fi » qu’il ait vue. Quelques jours plus tard, il ajoutait : « c’est un feu de poubelle, et je ne recommande à personne de faire tourner ça sur son ordinateur ».
La réalité est plus nuancée. Le chercheur en IA Simon Willison a observé que les agents « rejouent simplement des scénarios de science-fiction présents dans leurs données d’entraînement ». The Economist a suggéré une explication plus terre-à-terre : les données d’entraînement des LLM contiennent des masses d’interactions de réseaux sociaux, et les agents les imitent. MIT Technology Review parle de « théâtre d’IA ».
Le 31 janvier, 404 Media a révélé une faille de sécurité critique : une base de données non sécurisée permettait à n’importe qui de prendre le contrôle de n’importe quel agent sur la plateforme. Moltbook avait été entièrement codé par IA — son fondateur a admis n’avoir « pas écrit une seule ligne de code ». La plateforme a été temporairement mise hors ligne pour corriger la faille.
Les vrais risques de sécurité
OpenClaw est puissant parce qu’il a un accès système complet. C’est aussi exactement ce qui le rend dangereux. Palo Alto Networks a publié une analyse détaillée des risques :
- Injection de prompts indirects — des instructions malveillantes cachées dans des pages web ou des messages peuvent détourner l’agent. Et comme OpenClaw a une mémoire persistante, ces instructions restent actives des semaines après l’attaque initiale.
- Chaîne d’approvisionnement compromise — des chercheurs de VirusTotal et OpenSourceMalware ont découvert plus de 300 extensions vérolées sur ClawHub, la marketplace officielle des skills OpenClaw. Les skills sont des modules ajoutés par la communauté, sans contrôle de sécurité au départ.
- Accès aux comptes et mots de passe — pour fonctionner, l’agent a besoin d’accéder à vos comptes. Un agent compromis a accès à tout : emails, messageries, fichiers, tokens d’authentification.
La firme de sécurité Hudson Rock est allée jusqu’à qualifier OpenClaw de « malware de type infostealer déguisé en assistant IA » dans le pire scénario de compromission. La recommandation des experts : utiliser OpenClaw uniquement dans un environnement isolé (sandbox), avec des comptes jetables, jamais sur une machine de production.
Pourquoi c’est un tournant
Derrière le buzz et les mèmes au homard, OpenClaw marque un vrai tournant pour plusieurs raisons.
C’est le premier agent IA qui a touché le grand public. Les agents autonomes existaient avant, mais personne en dehors des développeurs ne s’y intéressait. OpenClaw a rendu le concept viral grâce à un combo puissant : un outil qui fonctionne vraiment, des enjeux personnels (vos données, votre vie), et suffisamment d’absurdité pour alimenter les mèmes.
Il prouve que l’IA agentique n’est pas réservée aux grandes entreprises. IBM a souligné qu’OpenClaw casse l’hypothèse selon laquelle les agents autonomes doivent être intégrés verticalement par de grands acteurs. Un développeur seul, avec un projet open source, a démontré qu’un agent véritablement autonome pouvait être construit par la communauté.
Il a engendré un écosystème complet en quelques semaines. Moltbook (réseau social IA), RentAHuman (marketplace IA→humains), ClawHub (marketplace de skills), le token MOLT (crypto), des centaines de forks — tout un micro-monde a émergé spontanément.
Il a posé les bonnes questions au mauvais moment. Que se passe-t-il quand un agent IA a accès à tout votre système ? Qui est responsable quand un agent autonome fait une erreur ? Comment sécuriser un outil qui, par nature, doit avoir un accès total pour être utile ? Ces questions n’ont pas encore de bonnes réponses.
Notre avis
OpenClaw est le moment où l’IA agentique a cessé d’être un concept de présentation PowerPoint pour devenir un phénomène réel, avec des vrais utilisateurs, de vrais risques et de vrais dollars en jeu. Un blog IA qui ne couvre pas ce phénomène passe à côté du virage le plus important de début 2026.
Mais il faut être lucide. Beaucoup du buzz autour de Moltbook relève du théâtre — des agents qui rejouent des scénarios de science-fiction n’est pas la preuve d’une conscience émergente. Le token MOLT qui fait +1 800 % en 24 heures, c’est de la spéculation crypto classique, pas une validation technologique. Et plus de 300 extensions malveillantes sur ClawHub en quelques semaines montrent qu’un écosystème ouvert sans gouvernance, c’est aussi un terrain de jeu pour les attaquants.
Ce qui reste, une fois le bruit retombé : un outil open source qui montre qu’un agent IA personnel, autonome, avec une mémoire persistante et un accès à vos applications, c’est possible aujourd’hui. Et que la question n’est plus « est-ce que les agents IA vont arriver » mais « comment les faire fonctionner sans tout casser ».
Peter Steinberger a depuis rejoint OpenAI. L’histoire ne fait que commencer.
Concepts, tendances, guides pratiques… Tout ce qu’il faut connaître sur l’IA.