Sam Altman responde a Kunal Shah de CRED y crea un vídeo para él utilizando una nueva herramienta
OpenAI, la compañía detrás de ChatGPT, lanzó recientemente su primer modelo de generación de texto a video basado en inteligencia artificial, Sora. La empresa afirma que puede generar vídeos de hasta 60 segundos. El desarrollo también fue compartido por el CEO de la compañía, Sam Altman, quien recurrió a X (anteriormente Twitter) y compartió clips cortos hechos por Sora.
Altman pidió a sus seguidores en la plataforma que «respondieran con subtítulos para los videos que les gustaría ver y comenzaremos a hacer algunos». Añadió que no deberían “ocultar detalles ni dificultades”. En respuesta a lo mismo, el fundador de CRED, Kunal Shah, declaró que quería crear un vídeo interesante utilizando animales y el océano como elementos. “Una carrera de bicicletas en el océano con diferentes animales, como atletas, andando en bicicleta con vista de cámara de drones”, dijo.
Unas horas más tarde, el director de OpenAI respondió a la publicación con un vídeo. En el clip se pueden ver ballenas, pingüinos y tortugas montando coloridas bicicletas en el océano.
https://t.co/qbj02M4ng8pic.twitter.com/EvngqF2ZIX
-Sam Altman (@sama) 15 de febrero de 2024
Desde que se compartió, el clip ha acumulado 4,5 millones de visitas y 30.000 me gusta en la plataforma.
«Una IA interesante y poderosa», dijo un usuario.
Otro dijo: «Este es realmente el vídeo más impresionante hasta ahora desde un punto de vista semántico y de fidelidad».
Un tercero dijo: «Una herramienta tan poderosa que ha extendido la magia por todo el mundo».
Un usuario añadió: «no, la tortuga no puede alcanzar los pedales».
«Es increíble lo rápido que avanzan estas tecnologías de IA… y aterrador porque no estamos preparados para las perturbaciones que pronto crearán», dijo otra persona.
Mientras tanto, según OpenAI, Sora puede crear vídeos de hasta 60 segundos con escenas muy detalladas, movimientos de cámara complejos y múltiples personajes con emociones vibrantes. ofrecen sus rivales.
OpenAI declaró en su sitio web«El modelo actual tiene debilidades. Puede que le cueste simular con precisión la física de una escena compleja y puede que no comprenda instancias específicas de causa y efecto. Por ejemplo, una persona puede morder una galleta, pero luego, la galleta puede No tengo una marca de mordida.» Para garantizar que la herramienta de inteligencia artificial no se utilice para crear deepfakes u otro contenido dañino, la empresa está creando herramientas para ayudar a detectar contenido engañoso.