Ray-Ban Meta : les lunettes connectées prennent de l'avance sur Google avec ces nouvelles fonctionnalités
Après avoir présenté de nouvelles fonctionnalités lors du Meta Connect, certains utilisateurs de Ray-Ban connectés commencent à en profiter avec le déploiement d’une nouvelle mise à jour.
Grâce à l’intégration de la langue française, les lunettes connectées de Meta ont gagné en popularité en France. Couplées aux nouvelles fonctionnalités d’IA annoncées lors du Meta Connect, elles s’imposent comme un objet résolument futuriste. Un futur désormais à portée de main, puisque la mise à jour déployant ces nouvelles capacités est en cours de déploiement, rapporte Android Central.
Une IA au service de l’utilisateur
l’IA partout tout le temps
C’est sur son blog que Meta dévoile la nature de cette mise à jour. L’entreprise évoque, en premier lieu, l’arrivée de l’IA en direct : l’intelligence artificielle de Meta « peut voir ce que vous voyez en continu et converser avec vous plus naturellement que jamais » sans avoir à utiliser la commande « Hey Meta ». Parmi les usages répertoriés, Meta note la possibilité pour les utilisateurs d’obtenir des conseils sur la préparation d’un repas ou encore la découverte d’un nouveau quartier. La promesse de Meta est simple : faire « des suggestions utiles avant même que vous ne les posiez ».
Une fonctionnalité qui n’est pas sans rappeler la manière dont Gemini, l’IA de Google, permet de s’adresser à ses utilisateurs.
Polyglotte sans efforts
La deuxième fonctionnalité au cœur de cette mise à jour est la possibilité de traduction en direct : de manière naturelle, les lunettes se proposent de traduire en temps réel des échanges ayant lieu en anglais, espagnol, français ou italien via les hauts parleurs des lunettes ou en transcription écrite sur le smartphone de l’utilisateur.
Une fonctionnalité qui n’est pas sans rappeler le système de traduction qu’offre déjà Samsung avec son Z Flip 6 ou encore ses écouteurs. Google de son côté souhaite aller plus loin avec son projet de lunettes connectées avec un affichage directement au sein des verres.
N’oubliez pas les paroles
La dernière intégration concerne l’arrivée de Shazam au sein des lunettes. L’entreprise indique qu’il sera possible de retrouver un morceau diffusé autour de soi en utilisant la commande vocale « Dis Meta, c’est quoi cette chanson ? ».
Pour le moment, l’ensemble de ces fonctions n’est accessible qu’aux seuls membres du programme anticipé de Meta qui lui-même n’est accessible qu’aux États-Unis et au Canada. Android Central, rapporte que ces fonctionnalités devraient arriver dans une version stable d’ici 2025. Reste maintenant à savoir si ces fonctionnalités bénéficieront d’un déploiement en Europe avec la mise en place de l’IA Act.
Rappelons que Google a annoncé, la semaine dernière, le développement de ses propres lunettes connectées, basées sur Android XR et conçues en partenariat avec plusieurs constructeurs.