Hot topics close

Ray-Ban Meta : les lunettes connectées prennent de l'avance sur Google avec ces nouvelles fonctionnalités

RayBan Meta  les lunettes connectées prennent de lavance sur Google avec 
ces nouvelles fonctionnalités
Après avoir présenté de nouvelles fonctionnalités lors du Meta Connect, certains utilisateurs de Ray-Ban connectés commencent à en profiter avec le

Après avoir présenté de nouvelles fonctionnalités lors du Meta Connect, certains utilisateurs de Ray-Ban connectés commencent à en profiter avec le déploiement d’une nouvelle mise à jour.

Grâce à l’intégration de la langue française, les lunettes connectées de Meta ont gagné en popularité en France. Couplées aux nouvelles fonctionnalités d’IA annoncées lors du Meta Connect, elles s’imposent comme un objet résolument futuriste. Un futur désormais à portée de main, puisque la mise à jour déployant ces nouvelles capacités est en cours de déploiement, rapporte Android Central.

Une IA au service de l’utilisateur

l’IA partout tout le temps

C’est sur son blog que Meta dévoile la nature de cette mise à jour. L’entreprise évoque, en premier lieu, l’arrivée de l’IA en direct : l’intelligence artificielle de Meta « peut voir ce que vous voyez en continu et converser avec vous plus naturellement que jamais » sans avoir à utiliser la commande « Hey Meta ». Parmi les usages répertoriés, Meta note la possibilité pour les utilisateurs d’obtenir des conseils sur la préparation d’un repas ou encore la découverte d’un nouveau quartier. La promesse de Meta est simple : faire « des suggestions utiles avant même que vous ne les posiez ».

Une fonctionnalité qui n’est pas sans rappeler la manière dont Gemini, l’IA de Google, permet de s’adresser à ses utilisateurs.

Polyglotte sans efforts

La deuxième fonctionnalité au cœur de cette mise à jour est la possibilité de traduction en direct : de manière naturelle, les lunettes se proposent de traduire en temps réel des échanges ayant lieu en anglais, espagnol, français ou italien via les hauts parleurs des lunettes ou en transcription écrite sur le smartphone de l’utilisateur.

Une fonctionnalité qui n’est pas sans rappeler le système de traduction qu’offre déjà Samsung avec son Z Flip 6 ou encore ses écouteurs. Google de son côté souhaite aller plus loin avec son projet de lunettes connectées avec un affichage directement au sein des verres.

N’oubliez pas les paroles

La dernière intégration concerne l’arrivée de Shazam au sein des lunettes. L’entreprise indique qu’il sera possible de retrouver un morceau diffusé autour de soi en utilisant la commande vocale « Dis Meta, c’est quoi cette chanson ? ».

Pour le moment, l’ensemble de ces fonctions n’est accessible qu’aux seuls membres du programme anticipé de Meta qui lui-même n’est accessible qu’aux États-Unis et au Canada. Android Central, rapporte que ces fonctionnalités devraient arriver dans une version stable d’ici 2025. Reste maintenant à savoir si ces fonctionnalités bénéficieront d’un déploiement en Europe avec la mise en place de l’IA Act.

Rappelons que Google a annoncé, la semaine dernière, le développement de ses propres lunettes connectées, basées sur Android XR et conçues en partenariat avec plusieurs constructeurs.

Similar news
News Archive
  • Evercore
    Evercore
    Plug Power CEO Andy Marsh To Present at the 2nd Annual Evercore ISI Global Clean Energy & Transition ...
    13 Jun 2023
    4
  • Rita marley
    Rita marley
    Rita Marley is NOT dead: Bob Marley’s wife’s death hoax debunked
    10 Jan 2021
    1
  • Jalen Brunson
    Jalen Brunson
    Jalen Brunson returns for NY in 2nd half of Game 2 vs. Pacers, then ...
    20 May 2024
    22
  • Maps
    Maps
    Geographic Information Systems (GIS) Division County Maps and ...
    21 Oct 2024
    2
  • Mario Balotelli
    Mario Balotelli
    Balotelli brings fight against racism directly to fans
    4 Nov 2019
    1
This week's most popular news