Grâce à l’intégration de la langue française, les lunettes connectées de Meta ont gagné en popularité en France. Couplées aux nouvelles fonctionnalités d’IA annoncées lors du Meta Connect, elles s’imposent comme un objet résolument futuriste. Un futur désormais à portée de main, puisque la mise à jour déployant ces nouvelles capacités est en cours de déploiement, rapporte Android Central.
Une IA au service de l’utilisateur
l’IA partout tout le temps
C’est sur son blog que Meta dévoile la nature de cette mise à jour. L’entreprise évoque, en premier lieu, l’arrivée de l’IA en direct : l’intelligence artificielle de Meta « peut voir ce que vous voyez en continu et converser avec vous plus naturellement que jamais » sans avoir à utiliser la commande « Hey Meta ». Parmi les usages répertoriés, Meta note la possibilité pour les utilisateurs d’obtenir des conseils sur la préparation d’un repas ou encore la découverte d’un nouveau quartier. La promesse de Meta est simple : faire « des suggestions utiles avant même que vous ne les posiez ».
Une fonctionnalité qui n’est pas sans rappeler la manière dont Gemini, l’IA de Google, permet de s’adresser à ses utilisateurs.
Polyglotte sans efforts
La deuxième fonctionnalité au cœur de cette mise à jour est la possibilité de traduction en direct : de manière naturelle, les lunettes se proposent de traduire en temps réel des échanges ayant lieu en anglais, espagnol, français ou italien via les hauts parleurs des lunettes ou en transcription écrite sur le smartphone de l’utilisateur.
Une fonctionnalité qui n’est pas sans rappeler le système de traduction qu’offre déjà Samsung avec son Z Flip 6 ou encore ses écouteurs. Google de son côté souhaite aller plus loin avec son projet de lunettes connectées avec un affichage directement au sein des verres.
N’oubliez pas les paroles
La dernière intégration concerne l’arrivée de Shazam au sein des lunettes. L’entreprise indique qu’il sera possible de retrouver un morceau diffusé autour de soi en utilisant la commande vocale « Dis Meta, c’est quoi cette chanson ? ».
Pour le moment, l’ensemble de ces fonctions n’est accessible qu’aux seuls membres du programme anticipé de Meta qui lui-même n’est accessible qu’aux États-Unis et au Canada. Android Central, rapporte que ces fonctionnalités devraient arriver dans une version stable d’ici 2025. Reste maintenant à savoir si ces fonctionnalités bénéficieront d’un déploiement en Europe avec la mise en place de l’IA Act.
Rappelons que Google a annoncé, la semaine dernière, le développement de ses propres lunettes connectées, basées sur Android XR et conçues en partenariat avec plusieurs constructeurs.
Retrouvez un résumé du meilleur de l’actu tech tous les matins sur WhatsApp, c’est notre nouveau canal de discussion Frandroid que vous pouvez rejoindre dès maintenant !
Ce contenu est bloqué car vous n'avez pas accepté les cookies et autres traceurs. Ce contenu est fourni par Disqus.
Pour pouvoir le visualiser, vous devez accepter l'usage étant opéré par Disqus avec vos données qui pourront être utilisées pour les finalités suivantes : vous permettre de visualiser et de partager des contenus avec des médias sociaux, favoriser le développement et l'amélioration des produits d'Humanoid et de ses partenaires, vous afficher des publicités personnalisées par rapport à votre profil et activité, vous définir un profil publicitaire personnalisé, mesurer la performance des publicités et du contenu de ce site et mesurer l'audience de ce site (en savoir plus)
En cliquant sur « J’accepte tout », vous consentez aux finalités susmentionnées pour l’ensemble des cookies et autres traceurs déposés par Humanoid et ses partenaires.
Vous gardez la possibilité de retirer votre consentement à tout moment. Pour plus d’informations, nous vous invitons à prendre connaissance de notre Politique cookies.
Gérer mes choix