Les lunettes connectées s’imposent en 2025 comme un accessoire technologique incontournable, transformant notre rapport au numérique. Et si vos lunettes devenaient votre nouvel écran, votre assistant personnel, votre traducteur en temps réel ? Grâce aux dernières avancées en réalité augmentée, intelligence artificielle et affichages immersifs ultra-fins, elles révolutionnent notre quotidien tout en conservant un design élégant et discret. Mais […]
Présentées au CES 2026, les lunettes connectées Meta Ray-Ban Display bénéficient de mises à jour clés : prompteur intégré, messagerie manuscrite via bandeau neural, navigation piétonne élargie et nouvelles applications EMG dans l’automobile et la recherche sur l’accessibilité. Le tout renforce leur statut d’interface fluide entre technologie et quotidien.
Quel rôle joue désormais le prompteur dans l’expérience Meta Ray-Ban Display ?
Le prompteur embarqué dans les lunettes permet d’afficher des notes ou scripts en toute discrétion, directement dans le champ visuel. Il s’active via des cartes personnalisables, manipulables grâce au Meta Neural Band. L’objectif : fluidifier la prise de parole, enregistrer du contenu ou animer une conférence sans jamais détourner le regard de l’instant. Une fonctionnalité taillée pour les créateur·rices, communicant·es et professionnel·les de la scène.
Comment fonctionne l’écriture manuscrite sans support avec Meta Neural Band ?
Grâce à des capteurs EMG situés au poignet, le Meta Neural Band permet aux utilisateur·rices de rédiger des messages simplement en traçant des lettres avec leur doigt sur n’importe quelle surface. La technologie détecte les signaux musculaires et les convertit en texte pour Messenger ou WhatsApp. C’est une nouvelle façon de communiquer, mains libres, sans écran, le regard toujours tourné vers l’extérieur.
Dans quelles villes la navigation piétonne est-elle désormais disponible ?
Le service de navigation piétonne des lunettes Meta Ray-Ban Display s’étend à 32 villes. Aux 28 premières s’ajoutent Denver, Las Vegas, Portland et Salt Lake City. L’utilisateur·rice peut ainsi se repérer sans sortir son téléphone, guidé·e visuellement depuis ses lunettes, avec des indications superposées à la réalité environnante.
Quels usages le Meta Neural Band explore-t-il avec Garmin ?
Dans un concept développé avec Garmin, le bandeau neural permet de contrôler l’interface de bord Unified Cabin d’un véhicule par simples gestes : faire défiler un menu, sélectionner une app, la lancer en pinçant les doigts. L’ambition : transformer le poignet en télécommande universelle, et inventer une ergonomie plus intuitive pour les passagers, centrée sur le divertissement et la fluidité d’interaction.
Comment Meta collabore-t-il avec l’Université de l’Utah pour l’accessibilité ?
Une collaboration avec l’Université de l’Utah explore l’usage du Meta Neural Band chez des personnes atteintes de dystrophie musculaire, d’AVC ou de SLA. L’objectif est d’adapter les gestes EMG pour piloter des objets connectés (volets, enceintes, skis adaptés) avec des mouvements minimaux. L’enjeu : concevoir une interface inclusive, co-développée avec les utilisateur·rices, pour un accès élargi aux technologies intelligentes.
Meta Ray-Ban Display CES 2026 : Pourquoi ce lancement marque-t-il une nouvelle étape pour les lunettes connectées ?
Parce qu’il articule design, interface gestuelle et usages concrets dans des domaines variés : communication, mobilité, accessibilité. Meta Ray-Ban Display ne se contente plus d’être une paire de lunettes connectées — elles deviennent une plateforme adaptable, pilotée au poignet, au service de la fluidité et de l’inclusivité.