Meta está implementando algunas de las funciones de sus gafas inteligentes Ray-Ban con tecnología de inteligencia artificial para usuarios de EE. UU. y Canadá. CTO Andrew Bosworth en Threads que la actualización de hoy de las gafas incluye un reconocimiento de lenguaje más natural, lo que significa que los comandos afectados «Hey Meta, mira y cuéntame» deberían desaparecer. Los usuarios podrán activar el asistente de IA sin la parte de “apariencia y” de la invocación.
La mayoría de las otras herramientas de IA presentadas durante el evento Connect del mes pasado también llegarán hoy. Esto incluye mensajes de voz, temporizadores y recordatorios. Las gafas también se pueden usar para que Meta AI llame a un número de teléfono o escanee un código QR. El CEO Mark Zuckerberg demostró las nuevas funciones de recordatorios como una forma de encontrar su automóvil en un estacionamiento en un carrete de Instagram. Una omisión notable de esta actualización es la función de traducción en vivo, pero Bosworth no ha compartido un cronograma sobre cuándo estará lista esa función.
Las gafas inteligentes de Meta ya fueron noticia hoy después de que dos estudiantes de la Universidad de Harvard las usaran esencialmente. Su combinación de tecnología de reconocimiento facial y un gran modelo de procesamiento del lenguaje pudo revelar direcciones, números de teléfono, detalles familiares y números parciales de la seguridad social.
«Introvertido. Solucionador de problemas. Aficionado total a la cultura pop. Estudiante independiente. Creador».