Ray-Ban Meta : voici enfin les lunettes connectées que l’on attend depuis plus de dix ans

 
Lors de la Meta Connect 2024, Mark Zuckerberg a présenté les nouvelles fonctionnalités de ses lunettes connectées, fabriquées en partenariat avec Ray-Ban. Commandes vocales, intelligence artificielle et plus de compatibilités avec des verres correcteurs : aurions-nous affaire à un appareil véritablement utile et intéressant ?
capture d'écran de la Meta Connect 2024
Mais, qu’est-ce que c’est ? L’avenir des lunettes connectées ? // Source : Capture d’écran Frandroid

Vous souvenez-vous des Google Glass ? Douze ans après leur présentation, les lunettes connectées de la firme de Mountain View ont marqué les esprits, mais certainement pas l’industrie. Une situation que Meta et Ray-Ban sont bien décidés à changer.

En effet, Mark Zuckerberg vient de présenter, sourire aux lèvres, les nouvelles fonctionnalités des Ray-Ban Meta, fruit de la collaboration entre les deux entreprises. Celles-ci n’ont pas chômé, et apportent des nouveautés qui pourraient faire de ces lunettes connectées un must have pour le plus grand nombre.

Si les appels vocaux, l’écoute de contenus audio et la captation de vidéos en direct ou en différé sont toujours d’actualité, un nouveau venu – et non des moindres – fait son apparition : l’intelligence artificielle, dopée par les capacités de Llama 3.2.

Outre la commande vocale d’applications telles que Spotify ou Audible, l’IA peut être utilisée comme traducteur en temps réel pour dialoguer avec des locuteurs de langues étrangères. La transcription se fait en direct dans les écouteurs des appareils, et si un seul des deux utilisateurs dispose de lunettes connectées, Llama pourra l’aider à converser dans la langue de son interlocuteur.

capture d'écran de la Meta Connect 2024
Les fonctionnalités de traduction automatique s’annoncent d’une grande utilité // Source : Capture d’écran Frandroid

Un « format parfait pour l’IA » aux yeux de Mark Zuckerberg

Mais, la fonctionnalité la plus impressionnante est la reconnaissance d’objets grâce aux capteurs de la Ray-Ban Meta. Llama 3.2 peut, en effet, traiter des images et l’utilisateur pourra lui poser des questions en fonction de ce qu’il a dans son champ de vision.

Il sera ainsi possible de créer des notes ou des alertes en regardant un prospectus, de demander à l’IA de se souvenir d’une place de parking, et elle pourra faire des suggestions d’accessoires pour accompagner une tenue. Les utilisateurs aveugles et malvoyants pourront quant à eux bénéficier directement des services de Be My Eyes, permettant d’entrer en contact avec des volontaires qui pourront leur décrire une scène ou un objet.

capture d'écran de la Meta Connect 2024
Il sera possible de poser des questions à l’IA en fonction de ce qui se trouve dans notre champ de vision // Source : Capture d’écran Frandroid

Même si la réalité mixte n’est pas encore (tout à fait) au menu, l’intégration de telles fonctionnalités justifie un peu plus le coût de ces lunettes connectées, proposées à plus de 329 euros. D’autant que Mark Zuckerberg a annoncé une plus grande compatibilité avec les verres correcteurs et les verres photochromiques (qui s’assombrissent automatiquement à la lumière du soleil), de quoi intéresser même les plus bigleux d’entre nous.

Dans la même veine, Ray-Ban et Meta lancent une version transparente de leurs lunettes, révélant ainsi les composants électroniques qui les constituent. Pour ces deux entreprises, il n’est plus question de cacher la véritable nature de ces objets qui pourraient se multiplier dans les années à venir, plus d’une décennie après l’échec (avant-gardiste ?) des Google Glass.


Les derniers articles