Meta intègre Shazam et l’IA dans ses lunettes intelligentes Ray-Ban
Découvrez les nouvelles fonctionnalités des lunettes intelligentes Ray-Ban de Meta, qui incluent désormais Shazam et la technologie d'intelligence artificielle pour une expérience utilisateur encore plus innovante et immersive.
Tl;dr
- Les lunettes intelligentes Meta Ray-Ban ont reçu trois nouvelles mises à jour.
- Deux fonctionnalités sont réservées aux utilisateurs du programme d’accès anticipé.
- Shazam est maintenant intégré dans les lunettes disponibles en dehors des États-Unis et du Canada.
Les lunettes intelligentes de seconde génération de Meta Ray-Ban ont suscité l’admiration lors de leur lancement. Depuis, grâce à l’intelligence artificielle de Meta, elles ont connu une amélioration constante. Même une activité aussi banale que les courses peut être transformée si vous les portez.
Une mise à jour majeure
La dernière mise à jour est la plus significative à ce jour. Présentées lors de Meta Connect en septembre, trois nouvelles fonctionnalités ont été déployées en même temps, rendant les lunettes encore plus utiles. Toutefois, deux d’entre elles ne sont disponibles que pour les participants au programme d’accès anticipé et toutes trois sont actuellement réservées aux résidents des États-Unis et du Canada.
Selon le blog de Meta, ces trois améliorations sont arrivées avec la mise à jour logicielle v11. La première, accessible hors du programme d’accès anticipé, est l’intégration de Shazam. Si vous entendez un morceau que vous souhaitez réécouter parmi tous les chants de Noël actuellement répétés, vous pouvez simplement dire « Hey Meta, quelle est cette chanson? » et vos lunettes utiliseront le microphone pour écouter et trouver la réponse pour vous.
Les avantages de l’accès anticipé
Les deux autres fonctionnalités nécessitent une adhésion au programme d’accès anticipé. La première, Live AI, ajoute la vidéo à Meta AI sur vos lunettes. Lorsqu’elle est activée, Meta AI peut maintenant « voir » ce que vous regardez et discuter naturellement de ce qui se passe devant vos yeux. Cette fonction pourrait être très utile lorsque vos mains sont occupées (par exemple en cuisinant ou en jardinant), ou simplement en déplacement.
La traduction en direct : une fonction révolutionnaire
Enfin, et à mon avis la plus excitante, la traduction en direct promet de vous permettre de comprendre des langues étrangères sans jamais essayer de les apprendre. Lorsqu’elle est activée, si quelqu’un vous parle en français, italien ou espagnol, une traduction en temps réel vous sera fournie par les haut-parleurs ou sous forme de texte sur votre téléphone.
Ces deux dernières fonctionnalités de l’IA nécessitent une adhésion au programme d’accès anticipé. Si vous êtes en Amérique du Nord, vous pouvez vous inscrire ici, bien que le processus soit décrit comme l’inscription à une liste d’attente, ce qui suggère que l’acceptation n’est pas garantie.
Et après ?
Ces fonctionnalités seront déployées à tous les utilisateurs à terme, et Meta a laissé entendre que d’autres nouveautés arriveraient bientôt. « Nous reviendrons avec d’autres mises à jour logicielles – et peut-être quelques surprises – en 2025 », conclut mystérieusement le post.