Meta a tenu son rendez-vous annuel avec la presse et les développeurs, Meta Connect 2025, en dévoilant une série de nouveautés qui confirment son ambition : faire des lunettes connectées et de l’intelligence artificielle la prochaine grande plateforme informatique après le smartphone.
Le métavers comme horizon
Mark Zuckerberg a réaffirmé la vision centrale de Meta : construire des lunettes qui ressemblent à de vraies lunettes, légères et élégantes, mais capables d’apporter une super-intelligence personnelle et une présence enrichie par des hologrammes réalistes. Trois principes guident cette approche : des lunettes qui restent d’abord confortables à porter, une technologie qui s’efface dans l’usage et une IA conçue pour servir l’utilisateur, non pour automatiser la société en coulisses.
Les nouvelles Ray-Ban et Oakley
La star des annonces reste la deuxième génération de Ray-Ban Meta, désormais dotée d’une autonomie doublée et d’une caméra 3K pour des vidéos plus nettes et fluides. Meta a également introduit Conversation Focus, une fonction qui amplifie la voix de vos interlocuteurs dans un environnement bruyant, et présenté les avancées du mode Live AI, qui fonctionne désormais en continu pendant une à deux heures. Disponibles dès aujourd’hui, ces lunettes sont commercialisées à partir de 379 dollars.
Meta a aussi levé le voile sur l’Oakley Meta Vanguard, un modèle conçu pour la performance et le sport. Avec son champ de vision élargi à 122 degrés, sa stabilisation vidéo et son étanchéité (IP67), le modèle se destine aux athlètes et aventuriers. Il s’intègre aux montres Garmin et à l’application Strava, permettant de déclencher automatiquement des enregistrements en fonction de la vitesse ou de la distance parcourue, puis de superposer des statistiques aux vidéos. Lancement prévu le 21 octobre, au prix de 499 dollars.
Les lunettes à affichage et le bracelet neuronal
Le moment le plus attendu de la conférence a sans doute été la présentation des Meta Ray-Ban Display, les premières lunettes Meta dotées d’un écran haute résolution intégré, accompagné du Neural Wristband. Ce bracelet capte les micro-mouvements musculaires pour permettre de contrôler les lunettes de façon quasi invisible. Saisir un message, répondre à un appel WhatsApp ou lancer une chanson sur Spotify devient possible sans toucher l’appareil, simplement en effectuant de minuscules gestes.
Ces lunettes affichent un écran suffisamment lumineux (jusqu’à 5 000 nits) pour rester lisible en plein soleil et suffisamment défini (42 pixels par degré) pour surpasser les casques actuels. Proposées à 799 dollars avec le bracelet, elles seront disponibles dès le 30 septembre.
Agentic AI et Horizon Engine
Meta a également donné un aperçu de son futur avec Agentic AI, une intelligence proactive capable d’observer ce que vous voyez et entendez à travers vos lunettes, de raisonner en arrière-plan puis de revenir avec des suggestions. Une étape vers un assistant personnel permanent.
Du côté des développeurs, Meta a dévoilé Horizon Studio, une suite d’outils boostée à l’IA générative pour créer plus vite des mondes virtuels, et le Horizon Engine, un moteur graphique optimisé offrant de meilleurs rendus et une physique réaliste. Parmi les démos marquantes, Hyperscape Capture permet de scanner une pièce en quelques minutes pour la transformer en espace virtuel immersif.
Horizon TV : vers un cinéma immersif
Enfin, Meta a présenté Horizon TV, sa plateforme de divertissement immersif. Disney+ (avec Hulu et ESPN) y fait son entrée, aux côtés de Universal et Blumhouse pour les amateurs de films d’horreur. Le cinéaste James Cameron, invité spécial, a salué cette avancée qui pourrait offrir une expérience de “salle de cinéma privée” grâce aux nouveaux écrans Meta.