VITO TVO

0 4 mins 2 meses

Al igual que la herramienta de OpenAI, puede crear videos hiperrealistas, incluyendo audio, a partir de una descripción escrita.

Meta ha lanzado un conjunto de modelos fundacionales bajo el nombre de Movie Gen, que proporciona a los creadores herramientas para generar, personalizar y editar videos hiperrealistas, incluyendo audio, a partir de descripciones de texto. De este modo, Zuckerberg se suma a otras empresas en el desarrollo de herramientas de inteligencia artificial (IA) para la creación de videos.

Esta nueva herramienta está diseñada para creadores de contenido y cineastas, con el propósito de «estimular su creatividad, en lugar de reemplazarla«. Movie Gen incluye dos modelos operativos: uno para video (Movie Gen Video) con 30,000 millones de parámetros, y otro para generar sonidos (Movie Gen Audio) con 13,000 millones de parámetros.

Zuckerberg lo evalúa

Según Meta, el funcionamiento de Movie Gen es bastante similar al de otras herramientas de este tipo. Con solo una descripción de texto, se puede generar un video de entre 4 y 16 segundos de duración, a 16 cuadros por segundo. La IA también permite editar clips existentes usando diferentes descripciones o incluso crear videos personalizados al subir una foto del usuario. Aunque la empresa asegura que el material es hiperrealista y de calidad full HD, es notable que Meta haya optado por 16 FPS en lugar de los 24 fotogramas por segundo habituales en la industria cinematográfica.

Zuckerberg ofreció un primer vistazo a las capacidades de Meta Movie Gen a través de una publicación en Instagram, donde se le ve ejercitándose mientras diversos elementos del fondo, su ropa y los aparatos cambian según lo que la inteligencia artificial recibe como instrucción.

https://www.instagram.com/reel/DAs_J17Pw0G/?utm_source=ig_web_copy_link&igsh=MzRlODBiNWFlZA==

Habilidad para crear audios

Uno de los principales aspectos que distingue a Movie Gen es su capacidad para generar sonidos para los videos. A diferencia de herramientas como Sora, que no ofrecen esta opción, sus creadores explican que el modelo de 13,000 millones de parámetros puede utilizar un video y una descripción de texto para crear una pista de audio que se sincronice con lo que aparece en la imagen.

Entre los ejemplos compartidos por Meta, se puede ver un quad acelerando y saltando, con el sonido del motor de fondo y música. También se muestra una serpiente moviéndose entre la vegetación, acompañada del crujir de las hojas y música generada por IA. En este caso, el audio puede tener una duración de hasta 45 segundos y abarcar desde sonidos ambientales hasta música instrumental. Sin embargo, no se pueden generar voces o diálogos, probablemente para evitar la creación de deepfakes.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *