La nouvelle génération de lunettes connectées développée par Meta avec Ray‑Ban introduit un écran couleur dans la lentille, une caméra 12 MP, un système audio immersif, un assistant vocal IA et un bracelet de commande gestuelle. Une proposition technologique intégrée dans un design optique grand public, marquant une étape clé vers l’informatique visuelle embarquée.
Que propose concrètement cette nouvelle version des lunettes connectées ?
Les Ray‑Ban Meta Display introduisent un mini-écran MicroLED couleur de 600×600 px dans la lentille droite, avec un champ de vision de 20° et une fréquence allant jusqu’à 90 Hz. La luminosité atteint 5 000 nits, assurant une lisibilité optimale même en extérieur. Une caméra 12 MP à grand angle capture photos et vidéos en haute résolution (3024×4032 px pour la photo, 1440×1920 px @30fps pour la vidéo). Côté son, les lunettes intègrent cinq micros, un micro de contact nasal, et deux haut-parleurs ouverts pour un rendu directionnel clair. Elles embarquent 32 Go de stockage interne, une connectivité Wi-Fi 6 et Bluetooth 5.3, et sont certifiées IPX4 (résistance aux projections d’eau).
Quels modèles, finitions et options optiques sont disponibles ?
Le modèle repose sur une monture Wayfarer, décliné en deux tailles (standard et large), pesant environ 68 à 70 g. Les verres se déclinent en versions transparentes, solaires, polarisées ou photochromiques Transitions® Gen 8. Les lunettes sont disponibles en plusieurs coloris, du noir classique à l’olive ou au bleu mat. Elles sont compatibles avec les prescriptions correctrices de –4.00 à +4.00 dioptries.
Comment se passe l’expérience utilisateur au quotidien ?
L’usage repose sur trois modes d’interaction : la commande vocale via “Hey Meta”, un contrôle tactile sur la branche, et un bracelet optionnel (Neural Band) qui capte des signaux musculaires du poignet pour piloter l’interface. L’affichage dans la lentille permet de lire notifications, traductions, itinéraires ou informations en contexte. L’autonomie est annoncée à 6 heures en usage mixte, avec un étui de recharge prolongeant l’usage à 24 h. Des tests terrain relèvent toutefois une autonomie réelle autour de 3 à 4 heures selon les usages intensifs.
Quel est le rôle de l’IA embarquée et de la plateforme Meta ?
Meta AI joue un rôle central : il répond aux commandes vocales, traduit instantanément des conversations (anglais, français, italien, espagnol), reconnaît objets et textes, et projette les informations directement dans la lentille. Une future version de l’IA, exploitant la vision multimodale (analyse en temps réel de l’environnement visuel), est prévue. Cette ambition vise à transformer ces lunettes en assistant personnel visuel, où le numérique s’adapte aux gestes, à la voix et au regard de l’utilisateur.
Quels sont les principaux atouts et limites de ces lunettes ?
Atouts : intégration technologique avancée dans une monture classique, écran lisible en plein jour, assistant IA embarqué, expérience mains libres complète. Limites : champ de vision restreint (20°), autonomie variable selon l’usage, confort alourdi (70 g), et préoccupations potentielles sur la vie privée (caméra discrète, enregistrement passif).
Ray‑Ban Meta Display , pourquoi repérer cette évolution aujourd’hui ?
Parce qu’elle marque une convergence forte entre style optique et technologie immersive, promettant de repositionner la lunette connectée comme interface visuelle de demain. Meta Ray‑Ban Display n’est pas une simple série d’objets connectés : c’est l’affirmation d’un nouveau standard où l’IA, l’audio et l’affichage visuel s’intègrent dans un objet du quotidien, sans compromis sur le style.