Astra AI : fini la galère en maths ?
Que se passerait-il si votre IA pouvait voir, entendre et se souvenir de ce qui vous entoure — en permanence ? C’est exactement la promesse de Project Astra, le projet phare de Google DeepMind. Présenté pour la première fois à Google I/O 2024, Astra est en 2026 une réalité progressive : encore en phase de test élargie, mais ses capacités s’intègrent déjà dans les produits Google accessibles au grand public.
Qu’est-ce que Project Astra ?
Project Astra est un prototype de recherche développé par Google DeepMind. L’objectif déclaré : créer un « assistant IA universel » capable d’interagir avec le monde physique en temps réel. Ni chatbot, ni moteur de recherche classique — Astra vise à être un compagnon contextuel permanent, capable de voir via la caméra de votre smartphone ou d’une paire de lunettes connectées, d’entendre votre environnement, et de répondre en quelques millisecondes.
Greg Wayne, co-responsable de l’équipe Astra chez Google DeepMind, résume ainsi la vision : « On construit une IA qui a des yeux, des oreilles et une voix. Elle peut être n’importe où avec vous, et vous aider dans tout ce que vous faites. »
Astra est propulsé par les modèles Gemini de Google, en particulier Gemini 2.0 depuis fin 2024.
Fonctionnalités clés
Compréhension multimodale en temps réel. Astra traite simultanément la vidéo de votre caméra, votre voix et votre écran partagé. Il répond sans délai perceptible. Il ignore les bruits de fond et les conversations parasites pour se concentrer sur ce qui vous concerne.
Mémoire de session et mémoire persistante. Astra mémorise les 10 dernières minutes de vidéo d’une session. Il peut rappeler où vous avez posé vos clés, quel ingrédient manquait dans une recette vue il y a cinq minutes, ou la teinte exacte d’un vêtement photographié plus tôt. Sa mémoire persistante retient aussi les préférences et habitudes entre les sessions.
Intégration avec les services Google. Astra accède à Google Search, Maps, Lens, Gmail, Calendar et d’autres services pour enrichir ses réponses et exécuter des tâches. Il peut chercher un prix en ligne, identifier un monument, ou organiser un rendez-vous en une seule conversation.
Partage d’écran interactif. Astra peut analyser ce qui s’affiche sur votre écran en temps réel, commenter un document, identifier une erreur dans un code, ou expliquer un graphique.
Lunettes prototype. Astra s’intègre à des lunettes connectées expérimentales pour une expérience « mains libres » totale. Ces lunettes sont en développement en partenariat avec Samsung et Warby Parker, sans date de lancement commerciale annoncée à ce jour.
Programme d’accessibilité. Google développe une version spécifique d’Astra pour les personnes aveugles ou malvoyantes, en collaboration avec le service d’interprétation Aira. Un programme de testeurs de confiance est ouvert sur liste d’attente.
Disponibilité en 2026 : un déploiement progressif
C’est le point le plus important à clarifier. Project Astra n’est pas encore un produit grand public disponible librement.
En 2026, voici la situation exacte :
La fonctionnalité centrale d’Astra — partage de caméra et d’écran en temps réel avec Gemini Live — est disponible pour les abonnés Google One AI Premium (21,99 €/mois) sur Android. Cette fonctionnalité a commencé à se déployer à partir du MWC en mars 2025, et l’expansion aux utilisateurs non-Premium via Gemini Live est en cours depuis Google I/O 2025. iOS n’est pas encore couvert.
Le prototype complet de Project Astra reste accessible uniquement à un groupe restreint de « Trusted Testers » sur liste d’attente. Les lunettes connectées ne sont pas disponibles à l’achat. Il n’existe pas de produit standalone « Project Astra » avec un prix dédié.
En parallèle, les capacités Astra alimentent aussi le Live API pour développeurs, qui permet aux équipes techniques de créer des applications exploitant la vision et la voix en temps réel depuis Gemini 2.0.
Points forts
Deux points forts émergent des démonstrations et tests disponibles.
Premièrement, la fluidité de l’interaction multimodale. La rapidité de réponse et la capacité à maintenir le contexte d’une conversation visuelle sans interruption représente un vrai saut par rapport aux assistants vocaux classiques.
Deuxièmement, l’intégration native à l’écosystème Google. Accéder à Maps, Lens, Search et Gmail depuis une seule conversation contextuelle, sans changer d’application, simplifie considérablement les usages quotidiens.
Limites
Plusieurs limites réelles sont documentées.
La disponibilité est encore très restreinte. En dehors de l’abonnement AI Premium, l’accès reste limité ou inexistant pour la majorité des utilisateurs mondiaux. Le déploiement sur iOS n’est pas encore annoncé.
Les lunettes connectées n’ont pas de date commerciale. L’expérience « mains libres » reste une promesse pour 2026 et au-delà, sans calendrier confirmé.
La mémoire a des limites pratiques. La mémoire en session est limitée à 10 minutes de vidéo. Astra ne peut pas accéder à vos photos personnelles, vos e-mails ou votre historique sans permission explicite.
Les questions de vie privée se posent. Un assistant qui voit et entend en permanence soulève des enjeux de collecte de données et de surveillance. Google déclare travailler sur la sécurité, la confidentialité et la responsabilité éthique comme priorités de développement. Il est conseillé de consulter les conditions d’utilisation avant de rejoindre les programmes de test.
À qui s’adresse Project Astra ?
En 2026, Project Astra intéresse avant tout les abonnés Google One AI Premium sur Android souhaitant exploiter la vision et le partage d’écran en temps réel dans Gemini Live. Il est pertinent pour les développeurs souhaitant expérimenter le Live API pour des applications multimodales. Il est à suivre de près pour les créateurs et professionnels intégrant fortement l’écosystème Google (Maps, Calendar, Gmail), chez qui les cas d’usage quotidiens sont les plus naturels. Pour les utilisateurs grand public sur iOS, il faudra encore patienter.
Mise à jour : février 2026












