Une révolution silencieuse est en marche dans le monde des wearables. Meta vient de dévoiler trois fonctionnalités qui transforment ses lunettes Ray-Ban en véritables assistants intelligents portables.
Cette évolution marque un tournant décisif dans notre façon d’interagir avec la technologie au quotidien.
L’IA en temps réel : votre assistant personnel permanent
La fonction phare de cette mise à jour est sans conteste le Live AI, un système qui permet une interaction naturelle avec l’assistant Meta tout en analysant constamment votre environnement.
Imaginez-vous dans un supermarché : vos lunettes peuvent désormais suggérer des recettes en fonction des ingrédients que vous regardez, transformant chaque course en expérience culinaire inspirante.
Un détail technique crucial : l’autonomie de cette fonction est limitée à environ 30 minutes en utilisation continue. Cette contrainte reflète le défi permanent entre puissance et durée de vie de la batterie dans les appareils portables.
La barrière linguistique s’efface
La traduction en direct représente une avancée majeure pour la communication internationale. Le système permet actuellement de traduire en temps réel entre :
- L’anglais
- Le français
- L’espagnol
- L’italien
Les utilisateurs peuvent choisir entre deux modes d’affichage :
- Audio direct dans les lunettes
- Transcription sur smartphone
Shazam : l’identification musicale simplifiée
Contrairement aux deux fonctionnalités précédentes, Shazam est immédiatement disponible pour tous les utilisateurs aux États-Unis et au Canada.
Son fonctionnement est remarquablement simple : il suffit d’interroger Meta AI lorsqu’une musique est diffusée pour obtenir son identification instantanément.
Comment accéder à ces nouvelles fonctionnalités
Pour bénéficier de ces innovations, plusieurs conditions doivent être réunies :
- Mise à jour v11 des lunettes installée
- Application Meta View en version v196
- Inscription au programme Early Access pour l’IA et la traduction en direct
L’avenir des lunettes connectées
Cette mise à jour s’inscrit dans une tendance plus large où les géants de la tech misent sur l’IA comme fonction centrale des lunettes intelligentes. Google vient d’ailleurs d’annoncer Android XR, son système d’exploitation dédié aux lunettes connectées, confirmant l’émergence d’une nouvelle ère dans l’informatique portable.
Ces avancées marquent un tournant décisif dans l’évolution des wearables, transformant progressivement des accessoires de mode en véritables assistants personnels intelligents. La combinaison de l’IA, de la traduction en temps réel et de la reconnaissance musicale ouvre la voie à des usages jusqu’alors cantonnés à la science-fiction.
Leave a Comment