Hot topics close

Ray-Ban Meta : les lunettes connectées prennent de l'avance sur Google avec ces nouvelles fonctionnalités

RayBan Meta  les lunettes connectées prennent de lavance sur Google avec 
ces nouvelles fonctionnalités
Après avoir présenté de nouvelles fonctionnalités lors du Meta Connect, certains utilisateurs de Ray-Ban connectés commencent à en profiter avec le

Après avoir présenté de nouvelles fonctionnalités lors du Meta Connect, certains utilisateurs de Ray-Ban connectés commencent à en profiter avec le déploiement d’une nouvelle mise à jour.

Grâce à l’intégration de la langue française, les lunettes connectées de Meta ont gagné en popularité en France. Couplées aux nouvelles fonctionnalités d’IA annoncées lors du Meta Connect, elles s’imposent comme un objet résolument futuriste. Un futur désormais à portée de main, puisque la mise à jour déployant ces nouvelles capacités est en cours de déploiement, rapporte Android Central.

Une IA au service de l’utilisateur

l’IA partout tout le temps

C’est sur son blog que Meta dévoile la nature de cette mise à jour. L’entreprise évoque, en premier lieu, l’arrivée de l’IA en direct : l’intelligence artificielle de Meta « peut voir ce que vous voyez en continu et converser avec vous plus naturellement que jamais » sans avoir à utiliser la commande « Hey Meta ». Parmi les usages répertoriés, Meta note la possibilité pour les utilisateurs d’obtenir des conseils sur la préparation d’un repas ou encore la découverte d’un nouveau quartier. La promesse de Meta est simple : faire « des suggestions utiles avant même que vous ne les posiez ».

Une fonctionnalité qui n’est pas sans rappeler la manière dont Gemini, l’IA de Google, permet de s’adresser à ses utilisateurs.

Polyglotte sans efforts

La deuxième fonctionnalité au cœur de cette mise à jour est la possibilité de traduction en direct : de manière naturelle, les lunettes se proposent de traduire en temps réel des échanges ayant lieu en anglais, espagnol, français ou italien via les hauts parleurs des lunettes ou en transcription écrite sur le smartphone de l’utilisateur.

Une fonctionnalité qui n’est pas sans rappeler le système de traduction qu’offre déjà Samsung avec son Z Flip 6 ou encore ses écouteurs. Google de son côté souhaite aller plus loin avec son projet de lunettes connectées avec un affichage directement au sein des verres.

N’oubliez pas les paroles

La dernière intégration concerne l’arrivée de Shazam au sein des lunettes. L’entreprise indique qu’il sera possible de retrouver un morceau diffusé autour de soi en utilisant la commande vocale « Dis Meta, c’est quoi cette chanson ? ».

Pour le moment, l’ensemble de ces fonctions n’est accessible qu’aux seuls membres du programme anticipé de Meta qui lui-même n’est accessible qu’aux États-Unis et au Canada. Android Central, rapporte que ces fonctionnalités devraient arriver dans une version stable d’ici 2025. Reste maintenant à savoir si ces fonctionnalités bénéficieront d’un déploiement en Europe avec la mise en place de l’IA Act.

Rappelons que Google a annoncé, la semaine dernière, le développement de ses propres lunettes connectées, basées sur Android XR et conçues en partenariat avec plusieurs constructeurs.

Similar news
News Archive
  • First day of Winter
    First day of Winter
    StormTrack Weather: First day of Winter brings sunny and cool temperatures Saturday
    21 Dec 2019
    1
  • Robert De Niro
    Robert De Niro
    'Nothing redeemable in him': Robert De Niro says he would never ...
    28 May 2024
    20
  • Sonos
    Sonos
    Sonos Ace vs Sony WH-1000XM5: Which premium headphones are best?
    20 Jul 2024
    23
  • Amy Schneider
    Amy Schneider
    Amy Schneider has totally shaken up Jeopardy!’s all-time records
    25 Jan 2022
    13
This week's most popular news