Depuis mi-mai 2025, la MAJ V15 permet l'utilisation de la traduction simultanée et la description de l'environnement.
Depuis le mois de mars 2025, l'intelligence artificielle de Meta, Meta AI, a fait discrètement son apparition en Europe. Elle s'installe de nombreux mois après ses principaux concurrents, comme ChatGPT (de OpenAI, accessible en novembre 2022) ou Gemini (de Google, arrivé en juin 2024). Meta AI, vous l'avez peut-être vu récemment sur Whatsapp ou Instragram, propriétés populaires de Meta.
Et depuis mercredi 30 mars 2025, Meta AI est disponible dans les lunettes Ray-Ban Meta pour les porteurs européens.
Il s'agit d'abord d'un assistant vocal qui peut répondre à des questions simples, comme indiquer la météo, le prix moyen d'un litre d'essence, le remboursement maximum d'une monture optique en France etc. Pour cela, veillez à mettre à jour vos lunettes via l'application smartphone dédiée ! Et à prononcer "Hey Meta" avant chaque instruction...
De son propre aveux, Meta AI est encore en phase d'entrainement. Par exemple, lorsqu'on lui demande quelle est la durée moyenne nécessaire pour rejoindre Strasbourg depuis Paris en voiture, elle botte en touche, expliquant qu'elle n'a pas cette information, mais qu'elle s'améliore de jour en jour.
Il n'est jamais trop tôt pour apprendre. Spoiler : il faut 4-5 heures.
L'intégration des informations des citoyens européens se fait petit à petit, avec certaines affinités marquées. Par exemple, dans notre utilisation en France, force est de constater que l'IA a tendance à mettre en avant les montures du panier A alors qu'elles ne représentent que 20% du marché :
Exemple d'un échange vocal. La transcription écrite apparaît dans l'application sur smartphone, non sans intégrer une faute de conjugaison.
Ou encore :
Le panier A est très bien référencé chez Meta AI France
La mise à jour 1.4 permet l'utilisation d'un assistant vocal
D'autres applications majeures bientôt disponibles en France
Parmi les annonces faites lors de l'assemblée générale d'EssilorLuxottica il y a quelques jours à Paris à laquelle nous avons assisté, il y a 2 applications majeures de l'IA intégrées aux Ray-Ban Meta qui seront disponibles dans les prochaines semaines. Elles sont déjà accessibles au Royaume-Uni, qui ne dépend pas des règles européennes du RGPD.
Décrire l'environnement
Dès que ces nouvelles fonctionnalités seront fonctionnelles dans l'Union Européenne, il sera possible de demander à décrire les objets de l'environnement. Par exemple, le descriptif de tel monument en face duquel le porteur se trouve, ou les obstacles environnants. Ou encore, demander à l'IA de suggérer une recette simplement en ouvrant la porte du frigo. Une fonctionnalité qui existe depuis quelques années via certaines applications sur smartphone, mais qui, pour la première fois, s'exprime sur le bout du nez, comme une extension du regard et de la vue.
What ? Qué ? Che cosa ? Quoi ?
L'autre fonctionnalité consiste à traduire en temps réel, appliqué à une conversation, ou bien à un texte écrit dans une langue étrangère, comme un panneau ou un menu de restaurant. Les langues retenues pour le moment sont le français, l'italien, l'espagnol et l'anglais. A l'heure actuelle, aucune date exacte de la disponibilité de ces 2 fonctionnalités n'a été annoncée, mais c'est "imminent".