Meta déploie certaines des fonctionnalités de ses lunettes intelligentes Ray-Ban alimentées par l'IA pour les utilisateurs aux États-Unis et au Canada. Directeur method Andrew Bosworth sur Threads, la mise à jour d'aujourd'hui des lunettes inclut une reconnaissance plus naturelle du langage, ce qui signifie que les commandes guinchées de « Hey Meta, regarde et dis-moi » devraient disparaître. Les utilisateurs pourront engager l'assistant IA sans la partie « regarder et » de l'invocation.
La plupart des autres outils d'IA présentés lors de l'événement Join du mois dernier arrivent également sur les cadres aujourd'hui. Cela inclut les messages vocaux, les minuteries et les rappels. Les lunettes peuvent également être utilisées pour que Meta AI appelle un numéro de téléphone ou scanne un code QR. Le PDG Mark Zuckerberg a présenté les nouvelles fonctionnalités de rappel comme moyen de retrouver votre voiture dans un parking dans une bobine Instagram. Une omission notable de cette mise à jour est la fonctionnalité de traduction en direct, mais Bosworth n'a pas partagé de calendrier quant au second où cette fonctionnalité sera prête.
Les lunettes intelligentes de Meta ont déjà fait la une des journaux une fois aujourd'hui après que deux étudiants de l'Université Harvard les aient utilisées essentiellement pour . Leur combinaison de technologie de reconnaissance faciale et d’un vaste modèle de traitement du langage a permis de révéler des adresses, des numéros de téléphone, des détails sur les membres de la famille et des numéros partiels de sécurité sociale.