Qué hay que hacer con la IA generativa para que un juego salga bonito

Iniciado por Hollyhock, Diciembre 15, 2025, 12:06:27 AM

Tema anterior - Siguiente tema

0 Miembros y 1 Visitante están viendo este tema.

Mensaje #15

sirdrak

#15
Como comentaba, vamos a modelo revolucionario nuevo por mes... Hace apenas una semana se publicó otro modelo opensource en local como el Ovi 1.1 que mencioné antes, pero esta vez 'con vitaminas'. Se llama LTX Video 2. Es decir, es un modelo para generar vídeo con audio, incluidos diálogos en cualquier idioma, pero esta vez de calidad, con las siguientes características:

- Es muy rápido generando los vídeos, el más rápido hasta el momento. Con el modelo 'destilado' (ya que ha salido en dos variantes, una más lenta pero con mayor calidad y otra muy rápida pero más sencilla) puedo hacer vídeos a 1280x720, a 24 fps y de una duración de 10 segundos en tan sólo un par de minutos.
- Los vídeos pueden ser mucho más largos... Con mi RTX 3090 los he llegado a hacer de 20 segundos a 1080p (1920x1088), algo impensable antes y menos a esa resolución. El único límite real es la cantidad de VRAM de la gráfica.
- Permite resoluciones nativas altas en equipos de usuario, 1080p en gráficas con 16 o 24 GB de VRAM antes era impensable (salvo que se generase a una resolución inferior y luego se rescalase el vídeo a una superior, pero siempre es mejor hacerlo de forma nativa)
- Desde salida permite continuar vídeos existentes (sean creados con IA o no) y mantener el audio original (voces incluídas), usar frame final (es decir, que no sólo puedes generar el vídeo a partir de una imagen de inicio sino que también le puedes dar la final para controlar hacia donde evoluciona la animación), que le des una pista de audio y cree el vídeo sincronizándolo con dicha pista de audio y haga la animación basada en el sonido, usar un vídeo que tú le des como 'vídeo de control' para controlar la animación, trasladando el movimiento de las personas del vídeo al nuevo vídeo, el estilo o la profundidad (lo que antes hacía el famosos ControlNET en las IAs para generar imágenes)
- El mismo modelo hace text 2 video (genera el vídeo desde cero sólo con el prompt, o con el prompt y una pista de audio) y también image 2 video (genera el vídeo además de con el prompt con una imagen de partida), que en otros modelos de vídeo tienes que usar dos modelos específicos diferentes
- Además, piensan actualizarlo a menudo, de hecho está prevista la versión 2.1 para dentro de un mes.

Como curiosidad, mencionar que parece que han entrenado mucho el modelo en las series de Cartoon Network y es perfectamente posible hacer vídeos de los personajes de dichas series incluso con las voces correctas no sólo en sus versiones inglesas sino incluso en español (yo he hecho memes y he gastado bromas con Bob Esponja, Hora de Aventuras y Steven Universe, es brutal, los clava perfectamente). Esto me ha venido genial porque gracias a eso he hecho una animación de Bob Esponja para felicitar a uno de mis sobrinos que cumple 8 años, estoy deseando que la vea porque seguro que le sorprende ver a los personajes de las series que ve felicitándole expresamente...

La forma más fácil de probarlo es usando Wan2GP a través de pinokio, que se instala todo en 1-click y tiene una interfaz muy amigable... Además en Wan2GP le han dado muy buen soporte y es donde mejor funciona ahora mismo.

Aquí podéis ver el primer meme que se me ocurrió como ejemplo: