Cronica

Mundo completo de noticias

Primeras impresiones del modo de voz avanzado de ChatGPT: divertido y un poco aterrador
Tecnología

Primeras impresiones del modo de voz avanzado de ChatGPT: divertido y un poco aterrador

Les dejo el de ChatGPT Modo de voz mejorado activado mientras escribía este artículo como compañero de IA ambiental. De vez en cuando le pido que me dé un sinónimo de una palabra usada en exceso o de algún estímulo. Aproximadamente media hora después, el chatbot interrumpe nuestro silencio y comienza a hablarme en español, sin que se lo pida. Me río un poco y pregunto qué está pasando. «¿Sólo un pequeño cambio? Hay que mantener el interés», dice ChatGPT, ahora de nuevo en inglés.

Al probar el modo de voz avanzado como parte de la versión alfa inicial, mis interacciones con la nueva función de audio de ChatGPT fueron divertidas, confusas y sorprendentemente variadas, aunque vale la pena señalar que las funciones a las que tuve acceso fueron solo la mitad de lo que OpenAI demostró cuando lanzó el Modelo GPT-4o en mayo. El aspecto de visión que vimos en la demostración transmitida en vivo ahora está programado para un lanzamiento posterior, y la voz mejorada de Sky, que Su La actriz Scarlett Johanssen ha reaccionado, ha sido eliminado del Modo de Voz Mejorado y ya no es una opción para los usuarios.

Entonces, ¿cuál es la vibra actual? En este momento, el modo de voz mejorado recuerda a cuando se lanzó el ChatGPT original basado en texto a fines de 2022. A veces conduce a callejones sin salida decepcionantes o se convierte en tópicos vacíos de la IA. Pero otras veces las conversaciones de baja latencia funcionan de una manera que Siri de Apple o Alexa de Amazon nunca lo hicieron por mí, y me siento obligado a seguir charlando por diversión. Es el tipo de herramienta de inteligencia artificial que le mostrarás a tus familiares durante las vacaciones para reírte.

READ  YouTube Music recibe sus primeros signos (rotos) de lanzar pistas repetidamente

OpenAI dio a algunos periodistas de WIRED acceso a la función una semana después del anuncio inicial, pero la retiró a la mañana siguiente, citando preocupaciones de seguridad. Dos meses después, OpenAI lanzó el Modo de voz avanzado para un pequeño grupo de usuarios y lanzó Tarjeta de sistema GPT-4oun documento técnico que describe los esfuerzos del equipo rojo, lo que la empresa considera riesgos de seguridad y las medidas de mitigación que ha tomado para reducir el daño.

¿Tienes curiosidad por probarlo tú mismo? Esto es lo que necesita saber sobre la implementación más amplia del Modo de voz avanzado y mis primeras impresiones de la nueva función de voz de ChatGPT, para ayudarlo a comenzar.

Entonces, ¿cuándo será el lanzamiento completo?

OpenAI lanzó un modo de voz avanzado de solo audio para algunos usuarios de ChatGPT Plus a finales de julio, y el grupo alfa todavía parece relativamente pequeño. La compañía planea habilitarlo para todos los suscriptores en algún momento de este otoño. Niko Felix, portavoz de OpenAI, no compartió detalles adicionales cuando se le preguntó sobre el calendario de lanzamiento.

Compartir pantalla y vídeo fue una parte clave de la demostración original, pero no está disponible en esta prueba alfa. OpenAI planea agregar estos aspectos eventualmente, pero tampoco está claro cuándo sucederá.

Si es suscriptor de ChatGPT Plus, recibirá un correo electrónico de OpenAI cuando el Modo de voz mejorado esté disponible para usted. Una vez que esté en su cuenta, puede cambiar entre Estándar y Avanzado en la parte superior de la pantalla de la aplicación cuando el modo de voz ChatGPT está abierto. Pude probar la versión alfa en un iPhone y también en un Galaxy Fold.

READ  Nintendo publica comunicado completo tras la cancelación del Smash World Tour

Mis primeras impresiones del modo de voz avanzado de ChatGPT

En la primera hora de hablar con él, descubrí que me encanta interrumpir ChatGPT. No es como si hablaras con un humano, pero tener la nueva capacidad de cortar ChatGPT a mitad de una frase y solicitar una versión diferente del resultado parece una mejora dinámica y una característica destacada.

Los primeros usuarios que estaban entusiasmados con las demostraciones originales pueden sentirse frustrados por tener acceso a una versión del Modo de voz avanzado que está restringida con más barreras de seguridad de las previstas. Por ejemplo, si bien el canto generativo de IA fue un componente clave de las demostraciones de lanzamiento, con canciones de cuna susurradas y múltiples voces tratando de armonizarLas serenatas de IA están ausentes en la versión alfa.

DEJA UNA RESPUESTA

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

"Introvertido. Solucionador de problemas. Aficionado total a la cultura pop. Estudiante independiente. Creador".