* xataka.com * #android #tech #tecnologia
En agosto de 2022, cuatro meses después de que DALL·E 2 de OpenAI entrara en fase beta, Stability AI presentaba Stable Diffusion. Lejos de pasar desapercibido, el modelo se hizo de un lugar de importancia en el incipiente mundo de la IA generativa por su enorme capacidad para generar imágenes con diferentes estilos artísticos y, principalmente, conceptos abstractos.
Ahora, el equipo de Stable Diffusion acaba de presentar un nuevo modelo. No de generación de imágenes, si no de vídeos. Stable Video Diffusion promete ampliar el ecosistema de modelos de Stability AI al llevar las capacidades de generación de imágenes estáticas a imágenes en movimiento. Veamos qué tiene para ofrecernos esta propuesta.
El modelo de generación de vídeos de Stability AI
El modelo de generación de vídeos de Stability AI funcionará bajo la misma mecánica del generador de imágenes. Los usuarios deberán introducir un prompt describiendo lo que el modelo deberá crear, así que mientras más detalladas sean las indicaciones, más preciso debería ser el resultado. El contenido llegará en un vídeo entre 3 y 30 fotogramas por segundo.
El modelo de generación de vídeos de Stability AI funcionará bajo la misma mecánica que los equivalentes de Meta llamados Emu. Los usuarios deberán introducir un prompt detallando específicamente lo que desean crear. En primer lugar se generará la imagen y después de animará. El resultado serán vídeos cortos en una resolución de 576×1024 de entre 3 y 30 fotogramas por segundo.
La firma también ha apostado por la versatilidad. Dice que el modelo puede adaptarse fácilmente tareas posteriores como la síntesis multivista a partir de una sola imagen con ajuste fino en conjuntos de datos multivista. En este sentido, señalan que el modelo puede ser útil en un amplio abanico de sectores, entre ellos el de la publicidad, la educación y el entretenimiento.
Al igual que otros modelos de IA generativa, Stable Video Diffusion está disponible de manera limitada. Esto quiere decir que no es tan sencillo acceder a él. No obstante, hay dos vías para poder probarlo: ejecutarlo de manera local con los archivos disponibles en GitHub y Hugging Face o unirse a la lista de espera para acceder a la interfaz web.
Estamos presenciando en directo la evolución de la inteligencia artificial generativa. Hace apenas dos años los modelos de generación de imágenes no estaban disponibles para el público en general y sus resultados, comparados con los de ahora, eran muy primitivos. En la actualidad, cualquier persona puede acceder a ellos y tienen una calidad sorprendente.
La generación de vídeos con IA parece estar siguiendo este mismo camino. En estos momentos no está disponible ampliamente y los resultados tienen mucho por mejora. ¿Cuánto evolucionará en los próximos meses? La buena noticia es que estaremos aquí para descubrirlo y a partir de hoy podemos experimentar con las herramientas que tenemos disponibles.
Imágenes: Stability AI
source
Segun xataka.com