0 Usuarios y 1 Visitante están viendo este tema.
Aún no estamos en ese punto, no creo que tardemos mucho, pero por ahora aún no. Para usar Google Colab necesitas no diré que tener conocimientos de programación, pero a una persona que no ha tocado este tipo de cosas ni con un palo ven esto:https://colab.research.google.com/github/huggingface/notebooks/blob/main/diffusers/stable_diffusion.ipynb#scrollTo=_RrbYQVQXK6I
Aunque yo no los he usado, en el Discord de Unstable Diffusion, en la sección es Español, hay cuadernos de Colab ya preparados y en Español y la diferencia con eso es que ejecutan directamente la interfaz Web de Stable Diffusion, la misma que se usa en local, por lo que no es tan árido... Ya vienen preconfigurados incluso con varios modelos precargados para elegir. Lo mejor es pasar por aquél Discord y preguntar allí.
Pues nada ya tengo un Colab..... y ahora que ?He cogido uno de Unstable que se llama "General Gost Colab Actualizado" (SD 1.5 & Civitai) pero no se que hacer con el, lo ejecuto y se carga... pero mas de ahi no se avanzar, Alguno de vosotros sabeis como seguir o donde encontrar info ?
Ya he visto que estás en el Discord de Unstable Diffusion... Justo en los mensajes de antes de tu saludo estaban explicando un poco cómo se usa... Básicamente, ejecutas el cuaderno y conforme el mismo cuaderno te explica, seleccionas los modelos que quieras usar de los que tenga (aunque creo que luego tu puedes cargar otros, pero los que propone están bién). Los modelos (checkpoints) están especializados en cosas diferentes (por ejemplo URPM es para fotorrealismo e imágenes nfsw, mientras que para anime están los Anything, Orangemix y similares).No elijas todos porque no cabrán todos en la cuenta, con seleccionar 2 o 3 estará bién... Al terminar de ejecutar el cuaderno, te dará una dirección ip, que pone algo así como 'Running on local URL: <aquí una dirección IP>' y debajo 'Running on public URL: <otra dirección IP>'. Bien, pues abres la segunda en una ventana nueva y te abrirá la interfaz de Stable Diffusion UI como si lo ejecutaras en local y ya podrás generar imágenes, escribir el prompt, seleccionar la resolución, etc...
/content/stable-diffusion-webuised: can't read /content/stable-diffusion-webui/modules/shared.py: No such file or directory 🚀Tiempo de ejecución: 00:07:02python3: can't open file '/content/stable-diffusion-webui/launch.py': [Errno 2] No such file or directory
Pues me ha dado por probarlo, con una máquina en la cloud que tengo, con las indicaciones de @sirdrak del primer post, mirando el tutorial de instalación y ya luego un poco de investigación y mirando un poco por civitai... Aún le tengo que dar un poco porque los colores me salen muy oscuros o con pocos detalles o menos de lo que me gustaría, quizá me cueste expresarme con el inglés para ser más descriptivo... ¿Algún otro tutorial interesante que pueda conseguir esos resultados? Lo curioso, con las últimas pruebas es que consigues unos resultados básicos y a base de iterar y de usar una imagen pregenerada de base, vas consiguiendo mejores imágenes, con más detalles y mejorando extremidades, dedos, etc. Es curiosa la forma de trabajar...
Pues ahora, en mis experimentos con la IA, he dado accidentalmente con una combinación de modelos que me generan imágenes de un estilo que recuerdan a las espectaculares portadas de los juegos de ordenadores de 8 bits de Dinamic de Luis Royo... Básicamente estaba probando el LoRA que entrené con el estilo de Azpiri sobre un modelo para generar imágenes semirrealistas muy popular que se llama RevAnimated (que os he mencionado en otras ocasiones), junto con otro mini-modelo experimental que descargué que lo que hace es añadir mayor detalle a las imágenes, tal que así:De esto:A esto:Sin embargo, en la combinación que hice el resultado fue no sólo que añadía más detalle sino que cambiaba de forma espectacular el estilo con imágenes que bien podrían ser directamente portada de algún juego de la época (sin edición de ningún tipo, directamente). El ejemplo más claro es este:Como véis, tiene esa gran cantidad de detalles, cuerpo femenino espectacular y contrastes rojo/naranja y azules, fuego/explosiones/agua y similares que se veían en carátulas como las de juegos como Navy Moves o Satán de Luis Royo. Y ahora pondré algunos otros ejemplos de temáticas variadas para que podáis ver:El modelo para añadir más detalle se puede descargar aquí:https://civitai.com/models/82098?modelVersionId=87153Y aquí la última versión del checkpoint Rev Animated 1.2.2:https://civitai.com/models/7371?modelVersionId=46846Además, entre otras novedades interesantes hay dos muy importantes... La primera es la aparición de una extensión llamada Roop que permite poner la cara de una persona de una imagen previa a la imagen que estés generando, con una sola foto y sin necesidad de entrenar un LoRA, que funciona muy bién, y la segunda, y más importante, es que está a punto de salir la siguiente versión de Stable Diffusion, Stable Diffusion XL, que es un paso adelante muy importante que rivaliza literalmente con la calidad de las imágenes de la última versión de Midjourney pero sin censura y por supuesto gratis al ser opensource. Estos días Stability.Ai (la empresa responsable de Stable Diffusion) puso a disposición del público SDXL 0.9 una versión cercana a la final, para que la gente la pudiera probar accediento a su web oficial. Después se filtró el modelo y la misma Stability.Ai decidió ponerlo oficialmente para descarga debido a ello, aunque la versión final sale el día 18 de este mes.