/pruebas/ - Hisporno

Tablón porno de habla hispana

Index Catalog Archive Bottom Refresh
Options
Subject
Message

Max message length: 12000

files

Max file size: 32.00 MB

Total max file size: 50.00 MB

Max files: 5

Supported file types: GIF, JPG, PNG, WebM, OGG, and more

E-mail
Password

(used to delete files and posts)

Misc

Remember to follow the Rules

The backup domains are located at 8chan.se and 8chan.cc. TOR access can be found here, or you can access the TOR portal from the clearnet at Redchannit 3.0.

Uncommon Time Winter Stream

Interboard /christmas/ Event has Begun!
Come celebrate Christmas with us here


8chan.moe is a hobby project with no affiliation whatsoever to the administration of any other "8chan" site, past or present.

Hentai Diffusion General #15: Edición inclusiva Negras/Prietas/Piel Oscura Wizard 03/23/2024 (Sat) 15:24:00 No. 1416
Quinceavo hilo Como el hilo anterior se acercaba al limite de bumps, decidí tomar las riendas y actualizar un par de enlaces, en este hilo nos centramos en aprender a usar los modelos de generación de imagenes de Stable Diffusion, el tema del hilo es meramente simbólico y no estan obligados a seguirlo, siéntanse libres de subir sus propias imagenes y experimentos con IA. Hilo anterior >>33137 >Instala Stable Difussion WebUI Local y cualquier otra UI con un Click! (ir a Releases y descargar el archivo .exe) https://github.com/LykosAI/StabilityMatrix https://lykos.ai/ <Alternativa EasyDiffusion https://easydiffusion.github.io >COLAB SD FOOOCUS (solo permite usar JuggernautXL por corto tiempo) https://colab.research.google.com/drive/1OG-t4snVisfZoMcmRCPmgJjjtwdJCIIj >Notebooks de Sagemaker Takagi+DreamscapeAI (el de Archie no sirve) <Takagi Notebook instalación en español: https://www.youtube.com/watch?v=ZBU_42yU8j4 <Dreamscape AI notebook + Alternativa a NGROK (En inglés) https://www.youtube.com/watch?v=ynUVo9ICiIE >Recursos: Modelos, Prompts, LoRas, Hypernetworks y Embeddigs/Textual Inversion https://civitai.com >Guía: Como crear Datasets especialmente cuando tienes pocas imágenes https://spainias.notion.site/Como-hacer-LORAs-con-muy-pocas-imagenes-Consejos-y-Tips-1d65bea1379047ccad243c35eb3980f0 >Colab: Entrenamiento de LoRa https://colab.research.google.com/github/hollowstrawberry/kohya-colab/blob/main/Spanish_Lora_Trainer.ipynb >Colab: Creación de Datasets https://colab.research.google.com/github/hollowstrawberry/kohya-colab/blob/main/Spanish_Dataset_Maker.ipynb >Recuerso: Modelos ControlNet 1.1 https://github.com/lllyasviel/ControlNet-v1-1-nightly >Prompt Generator https://huggingface.co/spaces/Gustavosta/MagicPrompt-Stable-Diffusion >Guía para cambiar estilos con Img2img https://medium.com/@alickwong/transfer-your-image-to-cartoon-style-in-stable-diffusion-d466565ae18a >Boooru AI para Furros https://e6ai.net/ >Booru AI para anime (útil por los prompts que comparten, puedes subir tus obras maestras) https://aibooru.online >Páginas Web judías dónde generar imagenes: <Ideogram (casi igual o mejor que Dall E 3 tiene ligera censura) https://ideogram.ai Krea.AI (genera imagenes en tiempo real) https://www.krea.ai/ <NovelAI (pago) https://novelai.net <PixAI https://pixai.art <TensorArt https://tensor.art/ <Yodayo https://yodayo.com/
[Expand Post]<Nemusona https://waifus.nemusona.com/ <Holara.ai: https://holara.ai/ <Leonardo.AI https://app.leonardo.ai/
(3.04 MB 1344x1728 00043-3430935355.png)

(2.89 MB 1152x2016 00046-2632478064.png)

(3.12 MB 1344x1728 00053-1187786734.png)

(3.27 MB 1344x1728 00050-3813693943.png)

(3.17 MB 1536x1536 00005-4151133806.png)

Y me alegra poder empezar no soy tan experto como el anterior OPé, pero trataré de ayudar como siempre, al principio iba a darle una mala reseña a Blue Pencil XL Turbo 3.1, pero la verdad me había ido mal gracias al limite de Bandwith de Ngrok y me había sido difícil de acostumbrarme, pero después de probarlo bien, me ha encantado. Me recuerda mucho cuando usaba AbyssOrangeMix 3(checkpoint favorito obsoleto) pero con un extra, además extrañaba usar diferentes resoluciones(GhostXL solo permitía 1024-1536), encima la versión turbo es muy veloz sobre todo con el sampler de Euler A, jamás creí correr una imagen con solo 8 steps y 4 de guidance scale se verían tan bien. Aunque imagino que la versión 5.0 normal de Blue Pencil XL será mejor que la turbo 3.1, también me gustaría empezar a probar los modelos Lightning XL de generación en tiempo real. Seguiré subiendo también algunas pics que me sobraron de GhostXL en el medio tiempo que duran estos hilos (por lo que se ve será mucho tiempo)
Probando diferentes metodo de re-escalado por SD y Krea AI, este último sería genial de no ser porque solo permiten unos judíos tres minutos de generación de imagenes en 24 horas de plan gratuito (seis minutos con dos cuentas). Sé que la primera la pude enviar directamente al apartado de extras de A1111 para una resolución el cuadruple de alta (o más) con dos re-escaladores de calidad (si saben cuales son), pero se me olvidó y encima no siempre tengo acceso a la GPU de Amazon. Como he dicho GhostXL no es muy bueno para otras resoluciones y se nota con pic 2, la cual tuve que salvar con algo de Inpaint. Creo que el re-escalado de SD Fooocus mantiene mejor la integridad de la imagen (a veces me da malos resultados) ya que hubo una versión con Krea Ai que no me gustó, pero dejo una versión de muestra. Actualizado: Se me había olvidado subir la versión re-escalada de Foocus de pic 5.
>>1416 Oye Op, tengo una duda, anduve leyendo el hilo anterior y con respecto a usar el comfyUI, significa que usando el comfy (que de comfy no tiene nada kek) puedo usar los modelos de los demás SD? osea tipo modelos compatibles con sd1.5, sd1.6 el sd forge o el que estas usando tú el sdXL??? es que no me queda claro muy bien que digamos la diferencia de usar el comfyui si con las otras webui puedo ahcer lo mismo -_- osea dejando de lado la animacion, que creo que ahi si no se puede hacer en los otros y es más practico en el comfyui, o eso entendí no se.
(1.09 MB 832x1024 ComfyUI_00390_.png)

(1.08 MB 832x1024 ComfyUI_00391_.png)

(1.72 MB 960x1344 ComfyUI_00392_.png)

(1.70 MB 960x1344 ComfyUI_00394_.png)

(1.64 MB 960x1344 ComfyUI_00398_.png)

>>1419 Claro que se puede, negro. Vengo usando el comfyUI desde hace ya un par de semanas y justo hoy volví por acá para ver si el otro negrito me había respondido: >also >>1416 Gracias OP, asumo que eres el que me ha estado sugiriendo, aconsejando y guiando desde el hilo anterior. >que de comfy no tiene nada kek Totalmente de acuerdo, es una mierda como interfaz, y no tanto por ese embrollo de ventanas unidas a nodos, si no porque es muy textual y nada visual.. ¿habrá alguna manera de solucionar esto? En fin... <also 2 Dejo picosas que justamente hice con un modelo para el SDXL llamado "GhostXL" la última algo prieta para ir con la temática del hilo >es que no me queda claro muy bien que digamos la diferencia de usar el comfyui si con las otras webui puedo ahcer lo mismo -_- Carajo negro, esta es una pregunta que no se me había ocurrido, pero estoy seguro que eventualmente se me iba a ocurrir y lo peor es que no tengo idea, gracias, ahora por tu culpa no voy a poder dormir...
>>1419 >puedo usar los modelos de los demás SD? Disculpa la tardanza, la respuesta es sí, porque ComfyUI (User Interface) es simplemente una interfaz de usuario, el ForgeUI también es una interfaz, más rápida que A1111 y de aspecto similar porque la transición debería ser más fácil para el usuario promedio, Fooocus también es una interfaz, Invoke es otra Interfaz de usuario. >diferencia de usar el comfyui si con las otras webui puedo ahcer lo mismo La diferencia empieza con el rendimiento, ComfyUI ayuda mucho a usuarios con una GPU de baja gama, te ayuda a entender el proceso detrás de la generación de imagenes con su transmisión manual, permite hacer más con menos, tener mayor control de el trabajo (workflow) y de la imagen en general con un registro. En resumen: ComfyUi tiene capacidades más avanzadas con menor necesidad de recursos pero requiere mayor habilidad de parte del usuario para adaptarse. Por ejemplo, corriendo SDXL en ComfyUI con una RTX3050 de 4GB de vRAM deberías poder obtener imagenes a 4k mientras que con A1111 podría darte errores por falta de memoria. Estoy seguro que a los memeprogamadores que les gusta generar imagenes les debe dar una erección al momento de usar ComfyUI con tanto texto, kek. Así que lo piensas bien, simplemente es cuestión de saber adaptarse a lo que necesitas y lo que quieres hacer, yo por mi parte, sigo recomendando A1111 (aunque he leído opiniones que por requerir menos recursos los resultado en comfyUI son siempre mejores pero no he podido comprobarlo personalmente). Espero que todo haya quedado claro. >>1420 >asumo que eres el que me ha estado sugiriendo Cy, estoy tratando de seguir la tradición de estos hilos, y al menos espero poder seguir animando a los usuarios, llevaba tiempo subiendo mis ejemplos de Inpaint y al menos creo que eso alentó a otro usuario (el de Makoto) a empezar a usar Inpaint, y al menos logré resolverle la duda del notebook censurado de Sagemaker al que generaba embarazadas y ahora hay un nuevo tunel menos restrictivo como Zrok para seguir usando Sagemaker con un método que facilita su instalación. Dejo un proceso de negritas con pelo albino use algo de inpaint más otros métodos de re-escalado.
(2.09 MB 1024x1536 00000-3518911454.png)

(2.05 MB 1024x1536 00001-3518911454.png)

(2.13 MB 1024x1536 00002-3518911454.png)

(2.14 MB 1024x1536 00003-1962355523.png)

(2.20 MB 1024x1536 00007-1962355523.png)

Estas fueron algunas de mis últimas imagenes con GhostXL antes que decidiera mudarme a BluePencil XL Turbo. Me gustó mucho como quedaron las tres variantes de la sucubo, en orden fue la original, adetailer face+hand y adetailer person. La negrita sin embargo, me pasó algo muy kekeante, y es que con el "Adetailer Person" me di cuenta es posible blanquearla literalmente, aunque el adetailer person funciona horrible con los furros. Me gustaría que hubiera más adetailer específicos para más partes del cuerpo o de la imagen y que se pudieran usar más de dos al mismo tiempo, aunque considerando nivel de procesamiento de la GPU de Colab y Sagemaker más de dos adetailer tardarían mucho, ya para todo lo demás es preferible usar el Inpaint.
(2.99 MB 1344x1728 00012-1731106785.png)

(3.05 MB 1344x1728 00001-2303150283.png)

(2.90 MB 1344x1728 00038-3430935355.png)

(2.89 MB 1344x1728 00042-3430935355.png)


Sigo con Blue PencilXL Turbo, hoy no fue tan bueno como el día dos de prueba, asuntos personales a un lado, en parte es que no me acostumbro a los parametros tan bajos, por ejemplo en SD y XL sabía que poner el guidance scale a 10 era sinónimo de empezar a quemar la imagen, aquí encontré que una resolución de 832x1216 con guidance scale a 2 y solamente 8 steps da buenos resultados, es gracioso porque ni el creador sabía a que parámetro poner los steps del HiResFix pero entre 2 y 8 sirve. El sampler de DPM++ SDE Karras es bueno, pero si en serio quieren que se sienta "turbo" como promete, usen Euler A. Dejo algunas que me gustaron, dos mecha musume y un trío de chicas cyborg con una negrita para cumplir la cuota de inclusión. <Aldo ¿Soy yo o la IA trató de añadirle el logo de Equis/Twitter a pic 4?
>>1416 Gracias negrito por tomar las riendas de este nuevo hilo! Porfavor continua haciendolo. Ya no pude seguir como OP en el hilo anterior por tiempo y que al pagar NAI y tener mi local cada vez me fui perdiendo las novedades sobre alternativas a Colab. Aprovechando el descanso de esta semana aproveche a darme una vuelta y hay algunas recomendaciones o compartir descubrimientos que me gustaría compartir para aportar al hilo (igual ni les descubro nada nuevo). >Instala Stable Difussion WebUI Local https://github.com/lllyasviel/stable-diffusion-webui-forge Si no te interesa ComfyUI u otra UI, Forge es actualmente la mejor, especialmente para modelos XL, tiene un gran rendimiento especialmente en GPUs que no tienen tanta VRAM, es una instalación de un click muy sencilla que ya tiene todo lo necesario. (pic 2) Es probablemente incluso más sencillo que Matrix y lo mejor es que tiene muchas extensiones muy útiles preinstaladas. >Vid2Vid con ComfyUI (video related) https://civitai.com/articles/4522 hace poco encontré esta guía para hacer videos con MMD o cualquier otro video, recuerdo que era algo de lo que más Solicitaban en antiguos hilos, y si les gusta ComfyUI o saben lo básico, creo que les puede gustar bastante, este fue mi resultado despues de como 20 minutos de espera. (requiere mucha VRAM y RAM)
(2.15 MB 1536x1536 00012-96477536.png)

(3.11 MB 960x2304 00019-2448491497.png)

(3.27 MB 1344x1728 00022-3619104032.png)

(2.67 MB 1344x1728 00029-4074644608.png)

(2.56 MB 1536x1536 00061-3330966982.png)

>>1424 Muchas gracias, significa mucho viniendo de ti, lo intentaré, yo también tengo un pequeño negocio y a veces no puedo generar imagenes bonitas todo el día (o a veces tengo otros problemas). >alternativas a Colab Dreamscape AI sigue subiendo notebooks de Sagemaker, lamentablemente no ha subido ninguno hasta ahora con ForgeUI, la cual he venido mencionando desde el hilo anterior, pero el Notebook que puse en el post es el más nuevo, soluciona el problema del túnel de Ngrok facilitando la instalación y uso de Zrok. Yo he estado experimentando con Blue Pencil XL 3.1 Turbo con resultados mixtos, pero me gusta. También había un Colab alternativo de Invoke de MaratAI pero nunca logré hacerlo funcionar, así que no lo coloqué, puse el de Fooocus en su lugar. >especialmente para modelos XL Entonces me vendría bien ForgeUI, justamente me encantan los modelos XL, creo que empezaré a usarlos en dos cuentas y olvidarme de SD (aunque no creo hacerme una tercera cuenta). >encontré esta guía para hacer videos Muchas gracias, no uso ComfyUI para ya sé de un negrito aquí que se esta rompiendo la cabeza tratando de aprenderlo, pero te felicito por eso, esa animación, es mucho mejor que la que subiste de Bridhid de Xenoblade en el hilo 13, es mucho más dinámica y vivaz. Justamente estaba pensando en subir las animaciones de un japo con ComfyUI pero el tipo uso otras herramientas tipo Unity, Krita, Shoost aparte de SD. Aunque considerando el salto nivel cuántico que dio OpenAI con Sora, hace ver al resto de las herramientas de animación IA como poca cosa, siento que será difícil alcanzarlos a corto plazo, será una pelea entre OpenSource y ClosedSource (implicando que OpenAI no haya aplastado a todos ya), aunque sin duda OpenAI esta a la vanguardia de la innovación con IA. >20 min. (mucha VRAM y RAM) Justamente estaba mencionando más arriba porque todavía es importante el ComfyUI en cuestión de rendimiento, considerando lo que se tarda en animar, no me conviene para Sagemaker en lo absoluto, en fin muchas gracias por compartir estas recomendaciones, si seguimos aquí al final del hilo 15 me aseguraré de ponerlas para el próximo hilo.
(10.81 MB 1280x720 maid.mp4)

>>1425 Si, todo lo de los colab y alternativas, ahora es un poco tierra de nadie, pero he visto casos de negros que incluso usando servicios gratis como Tensor han podido ir escalando en caso lo hagan para obtener beneficios o pura diversión. >Modelos XL Los modelos XL son el meta actual, todos tenemos que empezar a movernos ahí, Animagine XL V3.1 es el mejor actualmente a mi opinión. Y pony si te gusta el porno, pero a mi nunca me ha convencido. >es mucho mejor que la que subiste de Bridhid de Xenoblade Gracias negro, esta animación fue un vid2vid por lo que es más consistente, y ni siquiera esta terminada, el resultado debe ser como video related. A Brighid la hice con txt2vid. Que es bastante random si sale algo bueno, aparte de que fue utilizando SD que es menos efectivo para videos.

(2.15 MB 1248x1824 00035-486329728.png)

(1.20 MB 832x1216 00043-3818685532.png)

(2.44 MB 1248x1824 00053-3630645501.png)

(1.67 MB 1248x1824 00063-3108737575.png)

>>1426 >Tensor Ya lo mencione antes, pero en el caso de tensor me ardió tanto el culo que limitaran los steps a 25 que no quiero saber más nada de ese servicio, pero bueno, ardor aparte, supongo que sigue siendo bueno y sin tanta censura como otros(Pixai por ejemplo) y ya lo he dicho antes también, pero es que después de probar Colab/Sagemaker me es imposible volver atrás, aunque en lo personal extraño el Control Net, yo en un mundo ideal me gustaría tener tanto A1111 y Fooocus para generar imagenes, pero estoy jodido en general. >XL es el meta actual No me sorprende, me fue sumamente fácil pedirle a Blue Pencil una loli/oppai loli conduciendo un gokart (pic dos y tres) y me lo dio sin dificultades ni loras, ni extras (aunque con un par de errores). En SD solo no hubiera podido lograr algo así y punto. >Animagine XL V3.1 Justamente Animagine XL V3.0 fue el checkpoint que me convenció para mudarme a XL, me sorprendió que ya saliera la 3.1 Puedo confirmar que la 3.0 es CALIDAD. Trataré de probar la nueva versión lo más pronto posible. >Nunca me ha convencido PonyDiffusion No lo he probado aún porque no estoy tan interesado en generar porno, pero en lo personal me pierdo cuando no uso modelos tipo anime, hasta el punto que tuve que instalar un lora para adaptar los prompts de anime al modelo furro de EasyFluff (ambos muy buenos por cierto), por ahora me interesa seguir probando modelos animes como Blue Pencil 5.0 o Anything XL o Counterfeit XL (lo he probado poco mediante bots de hecho pero no puedo dar un veredicto) >Vid2Vid Ok, como una especie de Img2Img para video, entiendo, creí que era AnimateDiff, en ese caso el japo que te digo hizo algo similar filmando alguien con un teléfono (imagínate bailar y convertirte a ti mismo en la mona china kek), según él mismo uso: Unity, ComfyUi, Krita y Shoost en ese orden, creo que para el re-escalarlo podrías usar Topaz Video Enhance y Davinchi Resolve para el color, pero ya son programas de pago. Dejo el vídeo del japo Yume_Azaki me gustó mucho su resultado: https://twitter.com/yume_asaki_/status/1747213226386088181
>>1427 >me ardió tanto el culo que limitaran los steps a 25 Pregunta de novato, ¿cuánto de Sampling Steps es lo recomendando a usar?, ¿Mientras más mejor?
(2.71 MB 1344x1728 00019-2090160702.png)

(2.85 MB 1344x1728 00028-2924964257.png)

(947.88 KB 808x1440 00007-3803086919.png)

(1.94 MB 1080x1920 00003-2069484827.png)

(2.82 MB 1248x1824 00048-2523020658.png)

>>1428 >¿cuánto de Sampling Steps es lo recomendando a usar? Entre 20 y 30 sampling steps (pasos de muestreo), suele ser lo recomendado, aunque he tenido buenos resultados tanto en 18 y 50. >¿Mientras más mejor? No necesariamente, aunque dependiendo del sampler puede que te de una imagen más suave (euler a) a una más definida (DPM++ SDE Karras por dar un solo ejemplo), los sampling steps son simplemente el número de iteraciones (repeticiones) por la que pasará el modelo para transformar el ruido aleatorio en una imagen. Menos steps, irá más rápido, más steps irá más lento. En lo personal creo 30 steps me parece el número adecuado para combinar tiempo de espera y calidad de imagen, a 40 y 50 steps nunca vi una mejora real o incluso añadían cosas raras a la imagen, 150 es simplemente una exageración y perdida de tiempo, yo a veces usaba samplers de calidad como Restart a 18 steps por el largo de tiempo de espera que daba. Samplers de tipo SDE funcionan bastante bien a 25 steps para ser honesto, modelos de calidad como AnimagineV3 XL recomiendan 28 según el propio creador, por eso me parece muy judío por parte de Tensor limitar los steps de esa forma. Así que todo depende de lo que busques, si vas a usar un servicio limitado de 4 horas como yo en Sagemaker (con una GPU de calidad) es natural que quieras usar un sampler más rápido (Euler A) que te permita esperar menos aunque uses una cantidad de steps moderado. Ojo, nada de esto aplica a modelos turbo que son hechos especificamente para ser rápidos, dónde lo máximo de steps que he usado son apenas 8, dejo algunas imagenes que me sobraron de cuando use Blue Pencil Turbo XL el día uno, aunque ya he compartido varias en el hilo, todavía me sobran algunas de Animagine y GhostXL.
>>1427 >me lo dio sin dificultades ni loras, ni extras Esa es la magia, puro escribir Prompt como en los buenos tiempos y listo, lo mismo con personajes y demás. Y esto apenas acaba de empezar este año. >Animagine XL V3.1 Mejora Bastante >>1428 >¿Mientras más mejor? No, depende de muchas cosas, más en Modelos XL demasiados son perjudiciales. Yo para modelos XL uso de 28 a 25 Pero para inpaint y cosas así uso 20 para más velocidad por ejemplo
(1.38 MB 832x1152 ComfyUI_00427_.png)

(1.16 MB 832x1152 ComfyUI_00440_.png)

(1.17 MB 832x1152 ComfyUI_00447_.png)

(1.25 MB 832x1152 ComfyUI_00437_.png)

(1.29 MB 832x1152 ComfyUI_00455_.png)

>>1425 >sé de un negrito aquí que se esta rompiendo la cabeza tratando de aprenderlo Yooooo, kek, ese soy yo, perdonen la demora, de verdad quisiera tener el tiempo que esto demanda para ir a buen ritmo, pero lo cierto es que estoy bastante saturado de trabajo y tareas. >also No sé, tal vez esto sea demasiado obvio para ustedes, pero tambien me acabo de dar cuenta que varios LoRas ni siquiera los reconoce el SD1.5, pero en el ComfyUI... Se me está ocurriendo que, en lugar de implementar absolutamente todas las extensiones (o no sé como llamarlos pero me refiero al Adtailer, hire Fix, controlnet, etc) que estaba aprendiendo a usar con el SD, lo que puedo hacer es mezclarlos, por ejemplo, esta ultima vez, me han salido varios cosas que podría editar para mejorar (inPaint) entonces, se me ocurre que luego podría pasarlo por el SD como ultima fase ¿Será esto viable? o es que no tiene sentido? se me acaba de ocurrir mientras escribo este post, kek >alternativo de Invoke >ahora con ForgeUI tal vez me confundo pero, esos 2 me parece haberlos visto en el launcher del Matrix.. al menos ese segundo si. de hecho, las pocas veces que he entrado a jewtub para revisar alguna que otra guía, me he estado topando con videotutos sobre el ForgeUI, y casi me vi tentando en instalarlo también (me detuvo el espacio, ya me quedan solo 350GB libres) Pero tengo que decir algo y es que... me tienen la cabeza vuelta un lío con tantas y tantas interfacez que sacan cada día, joder es complicado seguirles el ritmo. >OpenAI con Sora lo vi ayer justo, está brutal, al menos para cosas que son realmes, es como que la IA tiene demasiados recursos en que basarse, pero patina para mal, cuando hace cosas como Extraterrestres y mierdas así, kek >also que bonita tu 4ta pic, me transmite paz >>1424 Esa guía para las animaciones me cae como anillo al dedo... "es lo que hubiera dicho antes de leer que para usarlo, requiero como minimo 32GB de RAM" y yo con mis 16GB putamadre! aunque igual, lo de las animaciones siempre lo tuve planeado usarlo cuando al menos entienda decentemente como funcionan las IA para solo generar imágenes. pero normal, en lo que aprendo me doy chance para comprar un pack extra de RAM, iré por lo seguro y compraré 2 de 16, así haré 48 con las actuales que tengo. por cierto, gracias negrito, que bueno saber de ti despúes de mil años! kek >also oye anon, porque en el loop que tú hiciste, se ven como residuos o rastros blancos ? algo que no aparece en el loop del cual te basaste aquí >>1426 Será el checkpoint o será algo de hardware? >>1427 >esa primera animacion de la monita en la espendedora... siiiiiiiiiiiiiii eso es justo lo que quiero hacer, es tan comfy, carajo!! ¿de donde lo scaste, negrito? tendrás redes quien posteó eso? es trabajo de aquel japonés del que hablas? >>1428 Pues en mi caso, no podría dar un numero de sampling step fijos, he hecho cosas desde 20 (no lo recomiendo, queda todo muy sucio) hasta en 60 entonces, solo diría es que es cosa de experimentar. >also definitivo. dejo algunas monas albinas en trajes ceñidos de latex, un negro del hilo pasado lo sugirió y me pareció cool. La ultima pic fue un intento de forzar una escena sexual con jalada de pelo, y el que posteo, que ni siquiera hay penetración, kek, fue lo más decente de todos mis intentos..
(612.24 KB 1224x1080 Yume_Azaki_AnimateDiff+Shoost.mp4)

(2.37 MB 1024x1536 00000-465194665.png)

(2.42 MB 1024x1536 00006-465194665.png)

(2.10 MB 1024x1536 00011-1923357159.png)

(2.11 MB 1024x1536 00012-1267559076.png)

>>1430 Tranquilo, yo más que nadie quisiera generar imagenes bonitas todo el día, pero no puedo por diversas razones. >loras no los reconoce el SD 1.5 Los loras entre SD y XL son incompatibles, los loras no deberían ser incompatibles por un cambio de interfaz. Hace cinco días salió un tutorial de 28 minutos de como usar loras en comfyUI parece bastante completo: https://youtu.be/COy72BRENso >pasarlos como última fase Varios prompters dentro del meta actual pagan NovelAI v3 para obtener la imagen base que quieren o necesitan y luego pasarlos por modelos de SDXL. Pero creo que usan Img2Img para eso, ahora bien, yo me fije hace poco descargue una imagen de ComfyUI de Blue Pencil Turbo XL y al momento de revisarla con PNG Info me apareció un desastre de texto a diferencia de mis propias imagenes (u otras descargadas de CivitAI), en palabras simples, no puedes transferir el workflow más complejo de ComfyUI a una interfaz más simple como A1111, pero podrías usar Img2Img de todas formas. <Aldo Como curiosidad puede ser que a veces un lora no sea compatible con ciertos modelos, recuerdo un negro hace muchos hilos que quería imagenes de Cococonut y creo que el lora no era compatible con el modelo base del Colab NoCrypt que nos dio OP en ese entonces (creo que era abyss orange) y le salían mal, pero el lora funcionaba con otros checkpoint como podía ser Cetus Mix, a mi me paso reciente que el lora XL de Kazami Yuuka de Touhou que me servía con GhostXL pero no me sirve con Blue Pencil Turbo y es que ambos funcionan a velocidades y parametros completamente distintos, no sé si los modelos turbo tendrán sus propios loras, quizás suba el ejemplo más tarde. >al Adtailer, hire Fix, controlnet, etc Si se les puede llamar extensiones. >tranmite paz ¡Gracias!, para lograr ese efecto use prompts simples en Blue Pencil, escribí: >painting \(medium\), (watercolor), (oil painting) Ya lo demás depende de lo que tu quieras (o no quieras en el caso de los prompts negativos) Me tomo siete intentos/generaciones para obtener la correcta, por suerte el adetailer hand no empeoró las manos y me ayudo (últimamente me falla mucho el adetailer hand que es casi mejor ni usarlo). >¿de donde lo scaste, negrito? tendrás redes quien posteó eso? es trabajo de aquel japonés del que hablas? Equis/Twitter, Cy y cy Te dejo su enlace, el japo dejo una explicación muy escueta en japones de cómo lo hizo: https://twitter.com/yume_asaki_ https://twitter.com/yume_asaki_/status/1747202842535068134 https://twitter.com/yume_asaki_/status/1747213226386088181 También tiene una comunidad en japo de animación en ComfyUI, por cierto me encantó la primera peli albina, casi escojo el tema de albina con latex, pero me di cuenta que no tenía ninguna en mi galería de generaciones, kek. Sobre la última pic me hiciste recordar que traté de hacer interacción sexual en GhostXL, no muy buenas, pero creo que hay un par que puedo salvar con algo de Inpaint. Dejo otra de sus animaciones con AnimateDiff para rellenar un espacio y dejo un par de pruebas que generé con GhostXL.
(140.15 KB 1185x891 ForgeUI.png)

(81.89 KB 604x903 MoreAdetailers.png)

(2.47 MB 1536x1024 00004-546597621.png)


(1.42 MB 832x1216 00065-3108737575.png)

Buenas y malas noticias, las buenas logré probar al fin ForgeUI, las malas son todo lo demás. Primero que nada la interfaz es muy fácil de adaptarse y cómoda si vienen de A1111 y tiene varias cosas que yo quería como más de dos adetailer al mismo tiempo, incluyendo un adetailer de pechos, tiene animatediff y otros samplers, merge models y un largo etc. Lo malo es que tiene otros problemas y estos quizás sean del notebook y otros no, como que se congelaba después de generar cada imagen y luego tenía reiniciar la UI, y encima la dichosa mejora del 70 % de velocidad ni lo sentí y eso que estaba probando otro modelo turbo, no tiene el autocompletador de tags ni el batchlinks downloader para descargar cosas mientras lo usas (aunque los notebooks de DreamscapeAI esto falla también) Más malas noticias es que tampoco me sirvió el nuevo notebook DreamscapeAI ni el bendito Zrok que para colmo es peor más lento y limitado. Si alguna vez Ngrok no tuvo limites como ahora, pues perdimos la oportunidad también, esto de hacer multi cuentas sabiendo que van a durar muy poco es cansino. Por lo que ahora los únicos Notebooks que me han servido son el de SDXL de DreamscapeAI, el Notebook adaptado SD de Takagi y el de ForgeUI de Osito Malvado. Después de varias frustrantes instalaciones de notebooks y perdida de horas de GPU estoy volviendo a instalar Blue Pencil turbo XL porque simplemente me gustó y porque sentí que aún no había terminado con este. Dejo un inpaint ligero a una imagen de GhostXL y una imagen de BluePencilXL que se me había olvidado refinar, pero, me gustó cómo quedo.
(2.20 MB 1536x1536 00001-1022163655.png)

(2.66 MB 1536x1536 00003-604763910.png)

(2.59 MB 1344x1728 00011-2605352836.png)


(2.79 MB 1536x1536 00017-1065615883.png)

Buenas noticias, encontré un notebook de sagemaker que funciona. Es del mismo usuario OsitoMalvado y encima con Zrok como tunel de bandwith. Es fácil de instalar y tiene una lista de modelos que descargar tanto para SD y XL tanto normales y turbo, lo malo es que no tiene un enlace propio para descargar los modelos que uno quiera, así que sí quieren uno en especifico, tendrán que subirlo ustedes mismos con las horas de CPU a Sagemaker (lo cual yo ya estaba acostumbrado) por mi suerte, venía incluido uno que quería probar desde hace un tiempo, y es Blue Pencil XL 5.0 y como me esperaba es mejor que Blue Pencil XL Turbo 3.10. Ahora bien, el único "problema" es que en verdad, Zrok es mucho más lento, así que si van a usar modelos normales que no sean turbo, les recomendaría usar Euler A con unos steps a 25 con unos HiResSteps que estén como a la mitad de los steps originales al momento de aplicar denoise stength a la imagen. También tienen que descargar las imagenes de la carpeta outputs una por una. Dejo algunos ejemplos probando las respuestas de Blue Pencil XL. >Repositorio: https://github.com/ositoMalvado/sdf >Tutorial: https://www.youtube.com/watch?v=TvCMlsbVgC0
(2.47 MB 1152x2016 00024-2386969640.png)

(2.17 MB 1152x2016 00025-2386969640.png)

(2.53 MB 1152x2016 00007-864325906.png)

(2.53 MB 1152x2016 00008-864325906.png)

(21.51 MB 4608x8064 00000 (V2).jpg)

Siempre tengan en cuenta los adetailer para sus imagenes, como adetailer person para arreglar esas deformidades corporales, en mi caso funcionó con pic 1 a pic 2, pero, lamentablemente adetailer person tiende a sobrecargar o sobrepasar el efecto de adetailer face, lo cual hace que los ojos queden un poco peor y les advierto, adetailer person no funcionará muy bien con furros. Pic 3 es un ejemplo de como el adetailer hand de hecho empeora el resultado de las manos (a veces) así que preferí quitarlo para la siguiente y dejar el efecto solo de adetailer face, el adetailer hand, en mi experiencia, es una especie de 50/50 de oportunidad de mejorar o empeorar horriblemente las manos. Pic 5 me había olvidado lo rápido que era el re-escalador doble de extras, como 50 segundos, sino mal recuerdo la proporción que recomendó el OPé anterior del re-escalador secundario era de 0,467 pero justamente ayer me quitaron el bandwith de Ngrok de mi segunda cuenta, perdí un poco de tiempo buscando los re-escaladores correctos, pero me gustó el resultado. La convertí a JPG para que pesara un poco menos.


(4.41 MB 1536x2688 00043-2331878011.png)

(4.21 MB 1792x2304 00058-1206040823.png)

(1.22 MB 896x1152 00066-2497372372.png)

Y probando al fin el nuevo Animagine XL v3.1 y al principio iba a decir que esta okey, pero para ser honesto, sí es una mejora de la 3.0 como lo puede ser la imagen de Marisa comiendo que lamentablemente me desconectaron antes de poder re-escalarla (pensé que con Zrok esto no pasaría) tengo una versión similar en el anterior hilo, o la propia Reisen, que use el sampler de Restart, es muy bueno para esto, pero tarda demasiado. En una nota más positiva es que el Notebook con ForgeUI es realmente mucho mejor, gracia a la primera pic me di cuenta por error que es posible gracias a esta interfaz re-escalar x2 por lo tanto pueden pasar de una resolución base de XL como 896x1152 (que ya es alta) a 1792x2304 (el doble) a diferencia del 1.5 x que permitía la interfaz A1111 con XL, esto es grandioso para obtener imagenes de mayor resolución con HiResFix. Trataré de probarlo con checkpoints de SD para tratar de re-escalar más allá de x2 (recordatorio que SD trabaja con resoluciones base muchos más bajas), bueno,tengo muchas imagenes que rescatar mañana, veo que ya 8chan aumentó el límite de peso de archivos, es bueno, así que así no tendré que cambiarles la extensión como hice antes.
Probando AnimagineXL v3.1 pero con el notebook de DreamscapeAI, lo sigo disfrutando, lamentablemente debido a la interfaz sin ForgeUI no puedo alcanzar esas mismas resoluciones x2 al momento de hacer HiResFix pero x1.5 no esta mal, era el parametro recomendado de la v3.0 de Animagine. También noté que me da más errores al momento de generar o al re-escalar una imagen incluso con el límite correcto de 1.5, raro, no me sucedía antes. Al menos Ngrok me devolvió el bandwith con esta cuenta. Que por cierto casi pierdo ambas cuentas de Sagemaker por una tontería. Dejo algunas que generé hoy, creo que de haber tenido adetailer breasts le hubiera podido añadir semen a los pechos de pic 3 (o el resto) de forma más satisfactoria, el adetailer person es como un 50/50 también, a veces ayuda a veces no, mi preferida fue pic 2.
>>1431 Kek, disculpa mago (recordé que aquí somos magos negros así que bien podríamos usar la jerga después de todo) me di cuenta de qué si bien trate de responderte la pregunta se me olvidó citarte en >>1432 En fin, lo siento, nada más quería decir que como andaba aburrido quise hacer un ejemplo de comparación entre la imagen de la mona albina de latex de tu pic 1 (creo que era GhostXL también) en varios checkpoint a los que tenía acceso y me habían gustado en su momento y para no repetir la misma imagen tanto preferí dejarlo todo en una, aunque si quieres puedo pasarte las versiones re-escaladas de dichas imagenes. Dejo algunos ejemplos más de estilos que he estado probando en AnimagineXL.
Como nuevo OP, decidí archivar el resto de hilos hasta ahora, sé que ya los primeros cuatro estaban archivados en zzzchan . xyz pero, me dispuse también a archivar los que fueron movidos al tablón /sexy/ Hubieron dos sorpresas, la primera, el onceavo hilo ya había sido archivado (el resto no) pero lo archive de nuevo de todas formas, la segunda fue que el cuarto hilo (cuando me uní) no se ven bien las imagenes, pero cuando les doy click puedo verlas, de todas formas, traté de volverlo a guardar como hice con el onceavo, pero seguía igual, es la primera vez que me dispongo a archivar hilos desde Hispa, y solamente use el método de ArchiveToday que usan en /v/ así que no sé si alguien más sabe como solucionarlo, porque le doy a la opción de descargar, y no me aparece nada, aunque yo puedo ver el contenido de los enlaces bien, en fin dejo los hilos archivados hasta el momento, gracias a todos los magos negros por las memorias y las pajas Primer Hilo /Tablón Sexy/ https://archive.fo/lSHQb http://archive.today/lSHQb http://archive.today/2024.04.03-165009/https://8chan.se/sexy/res/1.html Segundo Hilo /Tablón Sexy/ https://archive.ph/4aSzD http://archive.today/4aSzD http://archive.today/2024.04.03-171253/https://8chan.se/sexy/res/254.html Tercer Hilo /Tablón Sexy/ https://archive.ph/fyRhY http://archive.today/fyRhY http://archive.today/2024.04.03-173045/https://8chan.se/sexy/res/504.html Cuarto hilo /Tablón Sexy/ Problema de visualización de imagenes https://archive.ph/1tKRG http://archive.today/1tKRG http://archive.today/2024.04.03-174453/https://8chan.se/sexy/res/757.html Quinto Hilo: https://archive.ph/FNiib http://archive.today/FNiib http://archive.today/2024.04.03-175748/https://8chan.se/sexy/res/998.html Sexto Hilo: https://archive.ph/Yxq1z http://archive.today/Yxq1z
[Expand Post] http://archive.today/2024.04.03-180423/https://8chan.se/sexy/res/1205.html Séptimo Hilo: https://archive.ph/KViWm http://archive.today/KViWm http://archive.today/2024.04.03-181321/https://8chan.se/sexy/res/3526.html Octavo Hilo http://archive.today/A95TW http://archive.today/2024.03.28-211038/https://8chan.se/av/res/23222.html Noveno hilo: http://archive.today/3tpb6 http://archive.today/2024.04.03-160818/https://8chan.se/av/res/24462.html Decimo Hilo: http://archive.today/LGC37 http://archive.today/2024.04.03-161707/https://8chan.se/av/res/27873.html https://archive.fo/LGC37 Onceavo Hilo: (ya estaba archivada) https://archive.ph/0oBym http://archive.today/0oBym http://archive.today/2024.04.03-162612/https://8chan.se/av/res/29239.html Doceavo Hilo: https://archive.ph/Wcb2u http://archive.today/Wcb2u http://archive.today/2024.04.03-163035/https://8chan.se/av/res/30614.html Treceavo Hilo: https://archive.ph/GXIgY http://archive.today/GXIgY http://archive.today/2024.04.03-163642/https://8chan.se/av/res/32041.html Catorceavo Hilo https://archive.fo/SxMaT http://archive.today/2024.03.28-202001/https://8chan.se/av/res/33137.html
>>1439 Se agradece nigrin
(19.75 MB 5376x6912 image (6).png)

>>1440 ¡De nada! Me gusta ayudar, solamente me hubiera gustado saber porque justamente en el hilo 4 desaparecen las imagenes casi a la mitad (aunque reitero se pueden ver cuando les haces clic o al menos yo puedo verlas después de hacer clic) Mañana subiré más cosas, no pude usar mucho Sagemaker hoy, salvo recuperar un par de pics de sesiones pasadas y esta Reisen, las tengo que descargar una por una desde la carpeta de outputs.
>>1439 Y no pude hacer nada hoy tampoco, pero, llevaba tanto tiempo generando con A1111 que no había notado que al igual que orden de los prompts importa, el orden de los adetailer también, si les salen deformidades como pic 3 primero usen el adetailer person y luego usen el adetailer face, era tan simple que pude haberme ahorrado muchos problemas y tiempo antes, aunque no es nada que Inpaint no pueda resolver también, mencionando esto último, en el caso de la peliverde bronceada, subí la versión deforme por error, pero gracias a eso pude hacerle unos retoques con Inpaint que ningún adetailer no hubiera podido arreglar. Para que se den una idea, todo fue fácil excepto agregarle la uña al dedo de la mano que sostiene la guitarra, fueron como más de 18 generaciones. Después subiré más sesiones de Inpaint.
(2.55 MB 1728x1344 00005-82790901.png)

(2.30 MB 1344x1728 00021-1199465827.png)

(2.52 MB 1152x1920 00037-1086362646.png)

(4.25 MB 1280x3072 00032-2788376658.png)

(2.89 MB 1152x1920 00044-2850509064.png)

Algunas generaciones, descargar desde la nube de Sagemaker es un poco cansino así que algunas las guardo directo, me interrumpieron un buen tanto en el trabajo, así que perdí como una hora de sagemaker, no soy fan de Genshin Impact, pero me gustó esta marrona de nombre dehya y afortunadamente animagine la reconoce fácil tan fácil como escribir su nombre y franquicia. En lo personal no siempre es tan buena idea re-escalar x2, a veces puede traer más errores que aciertos en XL, pero por supuesto, todo depende de cómo se sientan cómodos (o lo que la GPU o entorno les permita)
(3.62 MB 1536x2304 00012-3895956787.png)

(2.35 MB 1536x2304 00015-4119575026.png)

(2.54 MB 1536x1024 00025-2859911748.png)

(2.53 MB 1536x1536 00054-1538131842.png)

(5.52 MB 1536x3072 00056-2971416738.png)

Me sentí nostálgico, y estuve usando Cetus Mix_WhaleFallv2 con pastel-waifu-diffusion.vae.pt (recomendado por el creador), Cetus Mix v4 fue probablemente uno de mis checkpoints favoritos de SD y al menos yo lo recordaba mejor que esto (siendo justos es una v2 de otro modelo), pero quizás la nostalgia me estaba jugando trucos, una vez que vuelves tan atrás, se siente un cambio tremendo en cuanto a calidad, aunque tengo que admitir que fue un gusto hacer HiResFix x3 en SD gracias a ForgeUI, pero el refinar a una escala aún mayor no siempre es lo indicado. Y es que cambiar devuelta a SD se siente como cambiar un auto a una bicicleta, que sabes que funciona, pero simplemente no tiene las mismas capacidades, ahora entiendo porque simplemente me pasaba tanto tiempo haciendo Inpaint a las imagenes, en fin dejo algunos ejemplos que pude generar hoy que me gustaron. Lastima que Eagelaxis (creador de Cetus) nunca lanzó la 4.5, imagino que todavía deben haber checkpoints de SD que son buenos como LimboMix v2 o EasyFluff 10 (pre-release) Volveré otro día.
(6.66 MB 2560x3712 Pyra.png)

(5.36 MB 2560x1440 Fotos 9_04_2024 11_54_28.png)

>>1431 >porque en el loop que tú hiciste, se ven como residuos o rastros blancos ? Son cosas de la semilla, este workflow, va haciendo img2img a cada frame, y pues nunca va salir igual, aparte de que no le hice el hires.fix (demasiado tiempo y solo queria probar por los kekes). >>1432 > pagan NovelAI v3 para obtener la imagen base que quieren Exactamente eso es lo que yo hago, por ejemplo Pyra related, cree la imagen con NAIV3, luego le pase img2img con animagine 3.1 y fui arreglando o mejorando la calidad con inpaint...te Ahorra mucho trabajo, y como yo hago muchas comisiones o me piden personajes o trajes, pues no puedo perder mi tiempo haciendo loras, buscandolos o intentando hacerlos funcionar. si te quieres dedicar NAI es muy util en ese sentido. (Si lo compran vayan por la de 25$ para imagenes ilimitadas y descarguen las Extesión API para SD) >>1435 Yo personalmente ya no uso Adetailer, creo que es mejor hacerlo con Inpaint por lo menos para anime, el adetailer lo hace muy realista para mi gusto, yo hago inpaint con la opción de "only masked" para mejorar ojos o manos...o lo que sea a lo que quiera mejorarle definición, pero debe ser una cosa a la vez. >>1436 Con modelos XL ya la "resolución base" de tus imagenes debe ser mayor, por lo que solo un x1.5 debería ser suficiente.
(1.37 MB 896x1152 00006-4257329286.png)

(3.65 MB 1792x2304 00009-4257329286.png)

(1.30 MB 896x1152 00025-2522255718.png)

(3.59 MB 1792x2304 00029-2522255718.png)

(3.56 MB 1664x2432 00028-2108529018.png)

>>1445 >va haciendo img2img a cada frame, y pues nunca va salir igual, Por esto cada vez que veo una animación con IA (o con el filtro de la IA dependiendo del caso) se me viene a la mente una rotoscopia 2.0 Llegar al nivel de SORA será difícil para SD. >Exactamente eso es lo que yo hago, Gracias por confirmarlo. >Ahorra mucho trabajo, Gracioso yo lo estaba hablando a un amigo por telegram del meta actual y le parecía mucho trabajo el proceso cuando es justamente lo contrario, NAI V3 facilita todo, pero supongo que algunas cosas son difíciles de explicar o de entender cuando no estas metido en esto, o no lo pueden ver de la misma forma. >si te quieres dedicar NAI Nunca, soy lolpobre no irónico y aún si no lo fuera no lo haría, soy muy judío para pagar por servicio como ese de todas formas, prefería pagar por Colab y sus unidades judescas de computación (son tokens glorificados). Es gracioso, todo lo que no sea SD me termina aburriendo (aunque NAIV3 sea en esencia un modelo SDXL) solo hago esto por diversión. >no puedo perder mi tiempo haciendo loras, buscándolos o intentando hacerlos funcionar Sumale que la cantidad de loras es menor para SDXL lo cual dificultaría más las cosas, no sé cual es el problema de los usuarios para migrar a este entorno, traté de volver por nostalgia a SD y justamente me encontré más problemas que conveniencias, no sé que lleva a la gente a decir que SDXL es "inusable", si acaso XL todavía tiene mucho que dar a diferencia de SD. Aunque me decepcionó un poco que AnimagineXL no reconociera bien a Rosa de Pokémon, pero sí reconocía bien a Homura, Dehya, 2B y varias Tohas como he comprobado. >el adetailer lo hace muy realista para mi gusto Tenemos puntos diferentes, normal, a mi a veces el Inpaint se me hace muy invasivo (sobre todo si se trata de XL), si te fijas el doble set negritas de pic 1 y 2 arriba en el inicio del hilo use el el Inpaint de JuggernautXL en Fooocus para los rostros (el resto simplemente les hice un inapaint menor), el adetailer me gusta por ser más sutil, aunque debo decir que adetailer person siento que descubrí como usarlo bien demasiado tarde, aunque debo admitir que este último funciona horrible en furros en general. >x1.5 debería ser suficiente. He estado pensándolo, sobre todo cuando me encuentro con manos el hacer un HiResFix menor reduce bastante las posibilidades de cagarla, aunque en Animaginexl 3.1 no hay tanto que temer con las manos (aunque sigue lejos de ser perfecto). Dejo algunos algunos de mis imagenes de diferentes re-escalados, aunque tuve que resetear el Notebook por culpa usar pip install y luego realizar horriblemente que era demasiado para el poco espacio que ofrece Sagemaker. Gracias por pasar de vuelta por este hilo.
(7.11 MB 2560x3712 Poppi.png)

>>1446 >NAI V3 facilita todo Exactamente.Lo facilita todo, no necesitas loras ni para personajes, estilos o ropa, ni perder tiempo haciéndolos funcionar >prefería pagar por Colab No sale muy bien eso, los unidades se van demasiado rapido...aunque no estoy seguro si aunque se te acaben las unidades de procesamiento puedes seguir usandolo con GPU T4, las gratis... >solo hago esto por diversión Así empecé yo, y es lo mejor. Todo los días aprender más cosas, los negros que lo hacen directamente por dinero no saben ni usar el inpaint y ya quieren empezar a cobrar. >no sé cual es el problema de los usuarios para migrar a este entorno 1 puede ser la resistencia al cambio, no recuerdo si dije esto en algún hilo pasado, pero 1.5 hace rato que ya estaba estancado, todos los modelos nuevos eran puro fine tuning de merges de los mismos modelos una y otra vez y LoRas para incluso las cosas más sencillas como "hacer una chica comiendo una manzada"...ni eso podía hacer en 1.5 sin loras... o 2, puede ser limitantes de Hardware, según entiendo XL necesita minimo unos 6 GB de VRAM. >a mi a veces el Inpaint se me hace muy invasivo Le agarras el trunco practicando, ahi es muy importante el sampler, si estas usando loras o hasta el mismo prompt que este poniendo, y por supuesto es denoising strengh...hay muchas variables, yo ya encontre un punto donde mas o menos tengo el control >Gracias por pasar de vuelta por este hilo. De nada negritos, sigue así.
>>1447 >o necesitas loras ni para personajes, estilos o ropa, ni perder tiempo haciéndolos funciona Algo me dice que si se vuelve a filtrar NovelAI sería una bendición para los usuarios y un gran avance para SD, pero no creo que vuelva a suceder algo así (por ejemplo PonyDiffusion esta basado en una versión de NAI-lvl (o algo así entendí) sin duda NAIV3 muestra el potencial de lo que todos los modelos de anime pueden llegar a ser. >aunque no estoy seguro si aunque se te acaben las unidades de procesamiento Acabo de revisar y parece que ni siquiera eso, hace un par de años Google eran menos judíos y no tenía unidades de procesamiento para el Colab Pro por el mismo precio. Ahora no me siento tan mal cuando rechace a un amigo del exterior por ofrecerse a pagarme la suscripción a colab (en serio quiere que empiece), seguiré con sagemaker por el momento. >por dinero no saben ni usar el inpaint Esto lo he visto yo personalmente en comunidades de IA que he visto en telegram que he estado hace un tiempo, de hace un año usando esto y ni siquiera saben hacer outpaint ni Inpaint cuando realmente es crucial. >puede ser limitantes de Hardware Es curioso porqué leí esto de un mismo desarrollador de modelos para SD, dijo y cito: "SDXL tiene un alto nivel de censura, una pequeña variedad de datos que ya han sido entrenados por la comunidad y el rendimiento es significativamente menor" Y puede que tenga razón en lo de la censura, pero el rendimiento me parece mucho mejor en XL, si acaso diría que XL tuvo un inicio lento. Algo me dice que para SD 3 será igual, pero ahorita mismo hay un poco de miedo de la comunidad que no será un modelo lanzado al público ni open source como los anteriores, pero yo tengo que fe que sí. >denoising strengh en Inpaint Coño, gracias por el consejo me sirvió para una imagen que estaba generando con Cetus aunque aún no la he terminado, me estaba generando mucha mierda rara y bajar el denoise strength fue la solución, aunque considerando que los resultados que me da XL cada vez necesito menos inpaint. >sigue así. Trataré.
Negros tengo rato de no usar sage maker aún funciona? Porqué el enlace de ngrok para conectarme queda en blanco y no me carga nada.
>>1449 >sage maker aún funciona? Cy, sigue siendo gratuito y dura cuatro horas, lo que pasa es que a veces los notebooks se quedan obsoletos. >Ngrok Ya no es recomendable usar Ngrok como túnel para usar SD en Sagemaker se pusieron muy judíos, y no voy a pagar 15 dolares para usar un servicio gratuito de otra plataforma que dura apenas cuatro horas. Lo recomendable ahora es ZROK con ForgeUI, esta última interfaz compensará la falta de velocidad de túnel de Zrok y te permitirá refinar tus imagenes el doble de ser XL y el triple de ser SD. Más arriba dejé un tutorial en vídeo de este notebook, pero aún así te dejo el repositorio aquí y video aquí, asegúrate de activar la interfaz de Webui Forge antes de correr el SD: <Repositorio+Tutorial JEWtubo: https://github.com/ositoMalvado/sdf https://www.youtube.com/watch?v=TvCMlsbVgC0 Estas tres capturas son de hoy, es fácil de instalar y de conseguir la cuenta de Zrok. Ojo, este notebook no es perfecto (todos los notebok que probé tienen problemas), en lo bueno, te facilitará la instalación de algunas extensiones, loras, TI embeddings y demás, te permite usar tanto checkpoints SD y XL con nuevos samplers y un par más de adetailers y trae una enorme lista de descarga de modelos por defecto. Ahora lo malo, lo malo es que no tiene un indicador de espacio libre, por lo que probablemente tengas que borrar los modelos antes de cerrar, pero sí quieres probar alguno de la lista te lo pone fácil, pero lamentablemente algunos no se descargan bien. Yo recomendaría no activar la opción de "sd_lcm" (dejala en False) te bloqueara en una interfaz especifica para modelos turbo con pocos steps que se traba y tendrás que hacer la instalación otra vez. Y por último pero no menos importante, este notebook no tiene una opción de comprimir todas las imagenes en un archivo .zip así que te tocara descargarlas una por una, ya sean de Tx2Img, Img2Img o Extras (usa las horas de CPU para descargarlas). Yo recomiendo que una vez instalado si hay un checkpoint que realmente te guste, subelo con horas de CPU a la carpeta de modelos correspondiente y déjalo ahí por tiempo indefinido, lo bueno de SD es que hay muchos modelos reducidos que apenas llegan a los 2GB y casi no hay diferencia de calidad con las versiones de tamaño completo. Si vas a usar SDXL olvídate de ControlNet, mucho peso extra y ten cuidado con la cantidad de loras, y en cualquier caso, no te pases con las extensiones de SD tampoco. Yo ya me cansé de Ngrok y sus mierdas, aunque espero que DreamscapeAI lance un nuevo notebook mejorado con Zrok+ForgeUI pero por el momento, el notebook de OsitoMalvado es la mejor opción.
Negros alguien sabe como obtener los prompts de una imagen¿
(134.22 KB 1052x844 Aibooru PNG Info.jpg)

(30.77 KB 175x673 AibooruPNG info Completa.jpg)

(33.99 KB 1024x395 PNG Info SD.png)

(38.12 KB 1024x481 Interrogate Clip.webp)

(28.61 KB 1024x473 CLIP interrogator extension.webp)

>>1451 >Negros alguien sabe como obtener los prompts de una imagen¿ <PNG Info, Interrogate CLIP o Clip Interrogator Hola, te advierto que esta respuesta será un poco decepcionante, a veces algunas paginas guardan la metadata de una imagen al momento de subirla y descargarla, incluyendo el modelo Hash para indentificar el checkpoint que se ha usado, en el caso de sitios como Aibooru o CiviAI algunos usuarios dejan la metadata intacta para compartirla con la comunidad, para tus propias imagenes siempre puedes usar PNG info para recuperar los prompts y en el proceso exacto dónde dejaste la imagen ya que SD A1111 al generarla siempre guarda todo el progreso (pic 2 es una prueba con toda la metadata completa) Ahora bien, para las imagenes de otros, no es tan fácil, muchos borran la metadata a propósito o sino simplemente se pierde en el proceso de edición con otros programas. Sitios como Aibooru o CivitAI tienen una función similar a PNG info de SD A1111 que muestran el workflow de una imagen. Si lo que quieres son prompts de las imagenes de otros. Esta un poco más difícil, como dije, muchos borran la metadata y que la contenga sería como encontrar una aguja en un pajar, para que te des una idea, una vez, para mi sorpresa unos de mis prompters favoritos (EyeAI) dejo la metadata intacta de una sola imagen que subió a Pixiv en más de 300 pics(seguro se le olvidó), pero, la función de Interrogate Clip de Img2Img te deja obtener un aproximado de los prompts que puede contener una imagen en lenguaje natural, básicamente el modelo esta leyendo la imagen, pero no te dará la composición exacta ni el número seed. La extensión de CLIP interrogator funciona de manera similar pero contiene más opciones. Todas las extensiones de SD se pueden instalar facil en la pestaña de "extensions" de SD. También puedes tratar de simplemente pensar los prompts al estilo de los tags de Danbooru al ver una imagen (si estas usando un modelo anime), por ejemplo: >"1girl, long hair, skirt, blue eyes,", etc. Recuerda, no escribas prompts kilométricos. <Enlace a la extensión de clip interrogator y como usar Interrogate Clip: https://stable-diffusion-art.com/prompts-from-images/
>>1450 No se cuanto tiempo dure ngrok pero tengo tres cuentas distintas es suficientes? Also ayer comprobé que era mi navegador. Uso Opera en la PC y no me cargaba, pero entre con el mismo enlace desde mi celular usando otro navegador y me funcionó. Trataré de actualizar Opera a ver si soluciono ese inconveniente.
>>1453 >No se cuanto tiempo dure ngrok <30 GB de transferencia en plan gratuito > es suficientes? <No Se acaban rápido, puedes revisar lo consumido en la cuenta, después te hacen esperar un mes para tenerlo de vuelta, Zrok en cambio es open source con un límite de transferencia de 10 gb por 24 horas. A veces me da mini desconexiones, pero puedo seguirlo usando, de todas formas tengo dos cuentas en Zrok y a diferencia de Ngrok no me dieron problemas de abrirme dos cuentas con la misma IP y diferente correo electrónico, con Ngrok directamente tuve que usar 4 cuentas (3 con VPN) y ni así era suficiente, justamente estoy mudando mis dos cuentas de Sagemaker a Zrok, si reinicias el token de Zrok directamente reiniciara todos los entornos vinculados que tengas. >Tres cuentas en Sagemaker Kek, yo también pensé igual, pero lamentablemente no tengo a nadie que me preste un tercer número de teléfono. Ya lo del navegador depende de cada quién, pero recuerdo que para usar sagemaker recomendaban activar un script, pero no sirve de mucho la verdad.
>>1454 No negro no me captas. Me refiero a que tengo 3 cuentas de Ngrok , me da pereza hacer otra cuenta de SageMaker.
>>1455 Vale, disculpa, en ese caso, sigo sin recomendar Ngrok por como se ha vuelto de restrictivo. Aunque yo trataba de usarlos en dos cuentas de Sagemaker, a lo mejor con tres cuentas de Ngrok y una sola de sagemaker te dure la experiencia un poco más que a mí, pero no te aseguro que sea mucho. De todas formas has como te sientas cómodo.
Bueno, dije que subiría algunos procesos de Inpaint, y aquí están, para pic 1 con CetusWhaleFall debo decir que es el tipo de resultados por los que dejé SD 1.5 pero al mismo tiempo no me hubiera metido a Inpaint de no ser este tipo de errores, les recomiendo reiniciar la interfaz de SD cuando algo así suceda. Lamentablemente el Colab de SD Fooocus esta cada vez peor, creo que me duró apenas 21 minutos la última vez pero al menos logré hacerle inpaint al rostro y terminar. Para pic 3 le tocó a AnimagineXL, creí que iba a ser un Inpaint sencillo al inicio, pero pensé más en que otros cambios podía hacerle aparte de arreglar los típicos errores y una cosa llevo a la otra, quizás algún otro día traiga más procesos de Inpaint. Y cómo nota secundaria, aunque hace tres días que no abro sagemaker, debo decir que me gustó bastante de SDXL_Niji_Special Edition, recuerden, lo importante es divertirse.
(559.69 KB 648x648 ComfyUI_00003_.png)

(976.74 KB 640x896 ComfyUI_00098_.png)

(911.80 KB 640x896 ComfyUI_00147_.png)

(945.77 KB 640x896 ComfyUI_00150_.png)

(840.08 KB 640x896 ComfyUI_00176_.png)

Volví, con algunas monitas albinas en traje de monja y orejas de conejo? kek Ya por fin di con el modelo que estuve buscando en el hilo anterior. y debo decir que está genial, es muy versátil y para las posiciones sexuales, casi no necesita LoRas ni nada. postearé de lo que estoy hablando en el sgte post.
(1.40 MB 960x1088 ComfyUI_00356_.png)

(1.49 MB 960x1088 ComfyUI_00365_.png)

(1.46 MB 960x1088 ComfyUI_00371_.png)

(1.47 MB 960x1088 ComfyUI_00374_.png)

(1.43 MB 960x1088 ComfyUI_00375_.png)

algunas imágenes rápidas con este modelo basado en Pony, que segun entiendo, está dedicado casi al hentai. Este es el estilo de coloreado que estaba buscando, no usé ningún LoRa, aún no ahondo en todo lo que podría lograr con este modelo, que si les interesa, se llama "T-ponynaiV3"
Parece que hay un montón de noticias buenas en el mundo de la IA, vamos por partes: <Actualización A1111 1.9 Aparte de arreglos menores, para los usuarios de esta interfaz a ha habido un pequeño cambio en cuanto método de uso de samplers y sceduler type, pero quizás lo más interesante sea el añadido de Sgm uniform scheduler para los modelos SDXL Lightnining. Personalmente no voy a usarlo porque estoy muy cómodo con ForgeUI. <Samplers para mejores manos en SD 1.5 Buenas noticias para usuarios de SD y es que un chino acaba de crear dos nuevos samplers llamados Euler Dy y Euler SMEA Dy básicamente les permitirá generar mejores manos en SD 1.5 personalmente esto es como colarle una bandita a una pierna rota, pero debería darles un segundo respiro a los usuarios de modelos anime de SD ya que estos samplers no funcionan muy bien para modelos realistas ni para modelos XL, pic 2 y 3 son comparaciones de los nuevos samplers: >Sampler para Automatic A1111 1.9 https://github.com/Koishi-Star/Euler-Smea-Dyn-Sampler >Para versiones anteriores: https://github.com/licyk/advanced_euler_sampler_extension Se instalan en la pestaña de extensiones. <Stable Diffusion 3 ha salido al fin Tenemos un nuevo miembro en la familia, pese a que no le hemos sacado todo el jugo a XL y pese a a el fracaso de SD 2.1 debo decir que SD3 luce muy prometedor, se han alejado del fotorealismo aburrido, puede generar frases de textos legibles, mejores texturas, más estilos y lo mejor, los usuarios serán capaces de refinarlo al gusto. <Stable Audio, SUNO V3 y Udio Parece que la IA generativa de música al fin esta teniendo su boom al más puro estilo de ChatGPT 3, pero no puedo decir mucho al respecto, dejo un par de enlaces: >StableRadio música con IA 24/7 https://stableaudio.com/live >Suno has una canción de todo: https://suno.com/ >Udio supongo que es parecida https://www.udio.com/
>>1416 Negros que specs se necesitan ya no solo para correr SD de manera local sino para entrenar checkpoints y Loras?. No creo que vaya a conseguir una PC decente dentro de poco pero creo que más vale tener una idea del costo que tiene ser autosuficiente con la IA.
>>1461 yo que tú, trtaría de conseguir lo mejor que pueda, pero para estar cubierto creo con imagenes y videos por IA, diría que minimo 32GB de RAM, un proce del al menos 10ma gen por parte de intel y una GPU de Nvidia no menor a 12GB de VRAM... almacenamiento, diría que un SSD de al menos 500GB exclusivamente para esto de la IA, para tu sistema ya lo decidirás tú!
(1.38 MB 1024x1024 Reisen erronea.png)

(964.66 KB 1024x1024 Reisen correcta.png)

>>1461 >SD de manera local sino para entrenar checkpoints y Loras? >No creo que vaya a conseguir una PC decente dentro de poco Yo no creo conseguir una PC ni medio decente en lo absoluto, pero bueno, solo puedo responder con un aproximado. Dicen que SD necesita al menos 6 gb de VRAM (no RAM) para entrenar en Stable Diffusion 1.5, pero creo que ni siquiera es el minimo recomendado, creo que serían 8GB VRAM; ahora para entrenamiento de LORA en SDXL espera un minimo de 12 GB de VRAM. Podrías tardarte 30 minutos usando 20 imágenes, con 1500 steps en total para un lora. Para entrenar modelos o checkpoints, es otra historia, puede tomar horas o incluso días y más si es para XL. Para que te des una idea, el mejor modelo anime de XL, AnimagineV3.0 se necesito una 2x A100 80GB GPU por más de 500 horas (21 días en total según Cagliostro) para el dataset de AnimagineXL 3.1 en total fue entrenado con 2.1 millones de imagenes, y el mismo Cagliostro admite que esto es poco para ser considerado el "mejor modelo anime" (creo que NAI-LVL fueron 2.5 millones de imagenes) Pero debería ser posible hacer un checkpoint con 10.000 imagenes, también podrías fusionar modelos que te gusten. Así que selecciona una tarjeta basado más que nada en la mayor capacidad de VRAM posible, literalmente la VRAM es lo más importante, así que para entrenar un modelo querrás una de 3090 or 4090 con 24 GB de VRAM y que no sea AMD, y cómo mencionó el otro mago negro, el resto de las especificaciones de la PC dependerán de ti. Kek, como nota curiosa, me equivoqué con el prompt de la corbata de Reisen pese a que el texto había salido bien a la primera, es gracioso pero la palabra "black" (negro) me la censuro Bing así que tuve que escribir "Dark Blazer" para la ropa.
(1.96 MB 1536x1024 00001-3049027349.png)

(2.10 MB 1536x1024 00003-3949862648.png)

(1.88 MB 1024x1536 00007-752328636.png)

(1.86 MB 1024x1536 00002-10013597.png)

(424.13 KB 1664x2432 00013-1462003847.jpg)

>>1459 Me alegra que hayas conseguido un modelo que se ajuste a tus necesidades o que al menos se parezca a lo que buscabas, ¡suerte!
Hola a todos, todavía probando modelos diferentes, había visto una buena reseña de Starlight XL V3 y debo decir que me ha gustado, supuestamente es un modelo "todo terreno" para XL, pero desde el 14 de octubre que no actualizan una nueva versión así que no puedo recomendarlo mucho ya que en ese lapso de tiempo es suficiente para que un modelo se quedé obsoleto, pero, sí les gustó RevAnimated de SD 1.5 creo que este modelo les va a gustar también, abajo unos ejemplos. me tome la libertad de hacerle Outpaint+Inpaint a la diabla peliblanco y solamente Inpaint directo a la diabla negra, dejo las comparaciones, también salió JuggernautXL X (10) hace relativamente poco y me encantaría probarlo ya que el Juggernaut V8 de Rundifussion es calidad (básicamente lo uso casi siempre que necesito hacer Inpaint), en fin, les deseo suerte en sus generaciones de imagenes, he estado ocupado.
Hoy tenía planeado usar Sage Maker después de rato de no usarlo, quería probar Loras de charlas pero ahora resulta que el Civitai Browser no funciona?. Por lo menos a mí me manda error . Por alguna razón la página de Civitai me relentiza todo así que evito usarla a la vez que tengo abierto el SageMaker. Si alguien es tan amable de convertir está mona en Etna de Disgaea no estaría mal.
(1.57 MB 1024x1536 ControlNet.png)

(2.06 MB 1032x1536 Inpainted.png)

(1.10 MB 832x1152 00000-3834799039.png)

(2.36 MB 1248x1728 00004-732931744.png)

>>1466 >está mona en Etna de Disgaea no estaría mal. Bueno, lo intenté, al final lo más fácil fue aplicarle control net y usar el lora para SD 1.5, lamentablemente por alguna razón, nadie creó un notebook para Sagemaker que pudiera descargar modelos con simplemente pegar un enlace como hacíamos con Colab (extraño esos días) >Civitai Browser no funciona? A mí el CivitAI helper no me funciona, pero no sé si hablamos de la misma extensión. Tampoco el batchlinks downloader, tengo que subir los modelos con horas de CPU a su carpeta, maldigo cada vez que se recarga la pestaña. >Por alguna razón la página de Civitai me relentiza todo Porque el sitio es una puta mierda, lo he hablado con otras personas en grupos de IA que son más experimentados y desarrolladores de modelos, ojo, sí es un sitio útil en cuanto a cantidad y variedad de recursos, pero su rendimiento deja mucho que desear. Pic 3 y 4 fueron intentos probando el lora de Etna para SDXL con NijiSpecial,
(1.38 MB 832x1152 2024-04-30_21-26-01_1818.png)

(1.35 MB 832x1152 2024-04-30_21-20-40_2965.png)

(1.44 MB 832x1152 2024-04-30_21-21-34_2209.png)

Hola a todos, he estado algo ocupado, veo que últimamente el canal de Stable Diffusion en español ha estado sacando tutoriales de como generar mejor porno en SD con modelos basados en PonyDiffusion, a lo mejor no es nada que ya no sepan algunos, pero quizás les sirvan estos tutoriales, sobre todo si no quieren pagar por un servicio como NAIV3: >¿Qué es PonyDiffusion? https://www.youtube.com/watch?v=7yljtKJ6Brk >Cómo hacer NSFW con IA: https://www.youtube.com/watch?v=TVT5EIBqEWc >Tags y extensiones: https://www.youtube.com/watch?v=5Whya99bjfI >Poses: https://www.youtube.com/watch?v=selJzNR3RbY >Palabras a usar: https://www.youtube.com/watch?v=YisCo42NdDM >Cientos de personajes sin loras: https://www.youtube.com/watch?v=qrB6QI6bubQ
Hay un notebook para Sage Maker de SD XL o es muy pesado? Quiero probarlo pero ni idea.
(2.43 MB 2016x1152 00003-2150065387.png)

>>1470 >Hay un notebook para Sage Maker de SD XL o es muy pesado? Quiero probarlo pero ni idea. Si hay notebooks para usar SDXL, DreamscapeAI tiene uno que usa Ngrok con A1111 y Osito Malvado tiene uno con Zrok y ForgeUI. Pero el problema de XL es cada checkpoint suele pesar como 6.46 GB cada uno, parece que a diferencia de SD no vale la pena reducirlos de peso, o sea es lo normal, por lo tanto te vas a quedar corto de algunos recursos esenciales de SD como Control Net, recomiendo probar SDXL con el Notebook de Osito Malvado (también tiene opción para descargar varios modelos incluyendo de SD antes de iniciar pero no dice cuanto espacio toma) el notebook de DreamscapeAI me daba muchos errores al generar con XL incluso pese a no pasarme de las resoluciones base ni refinar más allá de x1.5, ten en mente que XL trabaja con resoluciones más altas y no necesitas mucho refinamiento, ni los Loras y ni siquiera los TI embeddings de SD son compatibles con XL pero la transición en sí no debería costarte mucho, ya con ForgeUI puedes refinar hasta x2, pero la decisión ya depende de ti, otra cosa y te lo digo por experiencia, es un infierno esperar a que los checkpoint de 6.GB se suban a su respectiva carpeta de modelos, tardan mucho y ya AnimagineXL me ha dado error tres veces por corrupción, lo cual es raro porque antes no me pasaba con el mismo Notebook. >Tutorial Notebook de Zrok Osito Malvado https://youtu.be/TvCMlsbVgC0 >Repositorio Notebook ForgeUI: https://github.com/ositoMalvado/sdf >SDXL Base 1.0 DreamscapeAI tutorial Zrok: https://www.youtube.com/watch?v=KyxuxIfhON8 (aunque este no sé si siga funcionando ya ha pasado un tiempo) En fin le deseo suerte, creo que el que hizo el notebook de Zrok tratará de seguir actualizando, aunque ya han pasado dos meses.
>>1461 Gracias negro por hacer esa pregunta, justamente volví a esto de la creación de imágenes pero queriendo hacerlo de forma local. >>1462 >>1463 Que bueno que encontré sus respuestas, negritos, ya que estaba pensando comprarme una nueva pc y parte de los componentes es un procesador i5 de 12, una rtx 3060 12 GB y 16 de ram pero por sus respuestas parece que me quedo corto, ni que se diga para experimentar haciendo videos ;_;.
(189.35 KB 1027x895 2024-05-05_15-04-13.png)

(1.50 MB 768x1280 2024-05-05_18-21-46_4748.png)

(1.51 MB 768x1280 2024-05-05_18-22-40_4833.png)

(1.78 MB 1024x1024 2024-05-05_18-17-36_5327.png)

(1.56 MB 1024x1024 2024-05-05_18-18-32_8529.png)

OP aquí, encontré otra alternativa a Google Colab y Sagemaker de Amazon, se llama Kaggle. Pero desde aquí les digo que no les va a gustar: >Lo bueno: Hacerse cuenta aquí es mucho más fácil que Sagemaker, tienen al menos 20 GB de almacenamiento gratuito y el espacio se reinicia fácil después de usar otro notebook. Iniciar sesión también es fácil a diferencia de Sagemaker que requiere suerte. 30 horas gratuitas de GPU por semana. <Lo Malo No permiten generar NSFW, ya solamente eso es motivo de baneo, si no bajaron las imagenes al generarlas, descargar las imagenes una por una en la carpeta de outputs es un poco peor debido a la interfaz, no puedes subir modelos/directos a la carpeta a diferencia de Sagemaker, necesitan un túnel igual que Sagemaker, y el túnel de Pinggy les desconectará después de una hora más o menos, aunque en teoría el reiniciar la celda debería darles otra hora, pero no me funciono. Bueno, al menos pude probar JuggernautXL X, aunque ahora que me doy cuenta nunca use el Inpaint de Juggernaut en lo absoluto, todo este tiempo usaba el Inpaint de SDXL, kek. Bueno, no voy a renombrar todas mis imagenes por eso. En fin así sea para probar los diferentes entornos de SD les puede servir, pero que te puedan banear por porno hace que la experiencia en Kaggle se sienta muy limitada. <Notebooks (ComfyUI, Invoke, ForgeUI, Fooocus, A1111) de Kaggle: https://github.com/zachysaur/Notebooks-for-kaggle <Como usar Kaggle (en inglés) https://youtu.be/fHWbxcG96ZY <Kaggle sitio: https://www.kaggle.com
>>1472 De nada, espero al menos haber puesto algunas cosas en perspectiva para algunos. Me fascina tanto ver lo que se puede hacer con estos modelos y al mismo tiempo decepcionado porque solamente tengo acceso a migajas de ese poder, ya casi ni estoy usando Sagemaker. <aldo Vid related es uno de los mejores ejemplos de AnimateDiff que he visto actualmente, aunque el fondo sigue siendo inconsistente.
https://civitai.com/models/397995/kousaka-kirino-oreimo Quiero probar este modelo de Lora(además de otros) pero dicen que están hechos para SDXL significa que no me funcionarán con SD 1.5 ? Quisiera despejar esa duda antes de intentarlo.
(1.45 MB 896x1152 2024-05-07_15-00-55_5515.png)

>>1476 >Chekeados esos triples tres masonicos >pero dicen que están hechos para SDXL significa que no me funcionarán con SD 1.5 No solamente no funcionará con modelos de SD 1.5 (ni siquiera los TI embeddigns de SD funcionan con XL) sino que encima es un LoRA para modelos basados en PonyDiffusion, por lo tanto tampoco los LoRAs de Pony funcionaran bien en modelos XL y viceversa. Para ser breve, Pony ha sido entrenado tanto que se "separó" de otros modelos SDXL y por eso tienen su propia sección en CivitAI, he leído de usuarios que han tenido suerte tratando de hacer funcionar LoRAs de XL de conceptos más simples como estilos en Pony, pero no de personajes, así que no creo que sea buena idea usarlo sin tener el modelo adecuado, supongo que podrías probar los siguientes modelos: <AutismMix Pony/Confetti <ArtisticPony <PonyDiffusion V6 (la base de todo) <VividPDXL (solo si quieres realismo) <Smoothcuts SDXL Classic/Lightning (basado en pony) <T-ponynai3 <Matrix-Hentai-Pony Etc, hay como +500 modelos basados en Pony y nadie tiene tiempo de probarlos todos.
>>1477 Mierda quería probar un Lora de Asanagi con Kirino, mierda. Tengo el recuerdo de haber visto una imagen de Kirino en la galería de Pixiv de Asanagi pero desde entonces nunca la volvi a encontrar y desde entonces la idea de ver fanart de la pendejada esa con el estilo de Asanagi no abandona mi cabeza.
Anons necesito de su ayuda... Quiero crear el LoRa de un personaje (ya cuento con el dataset y las posibles palabras de activación), pero tengo una duda de novato. Supongamos que el personaje tiene de ropa característica una chaqueta negra abierta... ¿Tengo que dejar en las palabras de activación "chaqueta negra"? Pregunta más que nada por qué en algunos LoRas meramente están en las palabras de activación los rasgos del personaje (ojos azules, cabello corto, etc), pero en otros si dejan las etiquetas del traje característico del personaje...
>>1476 >>1477 >>1478 Logre probar los Loras con el propio Civitai, aunque se ve como como una mierda porque las opciones de la página son limitadas puedo ver que ambos funcionan muy bien(primeras dos imágenes de ejemplo.) Así que pensé sacar un par de imágenes para luego darle impaint con SD 1.5 pero los Loras de Asanagi y Kirino para esta versión son muy inestables y peor juntos. (Tercera imagen de mi mejor intentó.)
(732.50 KB 1178x727 2024-05-10_19-03-13.png)

(119.64 KB 1015x744 2024-05-10_19-07-22.png)

(77.95 KB 1051x593 2024-05-10_19-08-07.png)

(8.14 KB 349x165 2024-05-10_19-10-43.png)

>>1466 >Civitai Browser Opé aquí. Puede que haya encontrado una solución, verás puedes pedir una API en tu cuenta de CivitAI, luego te vas a settings, colocas la API, luego instalas CivitAIBrowser+ en la pestaña de extensiones con GitHub (no puedes subir carpetas a Sagemaker), luego que la tengas instalas y hayas reiniciado la webUI te vas a settings de nuevo y por último apagas la opción de "descargar con Aria2" que lo hace es dar errores. Ahora lo malo es que sigue descargando muy lento para mí gusto, pero eso ya es culpa de CivitAI, recuerdo que Huggingface descarga mucho más rápido.
>>1482 Pero negro yo ya tengo agragado el Civitai Browser pero marca error cuando le doy a hacer una búsqueda. Hoy lo probaré de nuevo a ver cómo me va.
>>1479 Como no estoy en la creación de loRAs, trate de buscar información y lo único que encontré fue que aconsejaban que para que tu personaje pueda cambiar más fácil de ropa al momento de generarla es que entrenes al lora con el mismo personaje pero con diferentes atuendos del mismo personaje. Mi única recomendación es que no te compliques mucho la vida con la trigger words si no vas a entrenar a tu personaje con un montón de atuendos distintos como: https://civitai.com/models/95978/zeta-or-granblue-fantasy También es posible que puedas comisionar un lora a alguien que sepa más como Takagi u otros, aunque no es la idea si lo puedes hacer tú mismo y aprender. El usuario justTNP es un excelente creador de loRAs tiene una guía: https://civitai.com/articles/680/characters-clothing-poses-among-other-things-a-guide >>1480 Quise hacer pruebas yo mismo con Sagemaker pero aparte de ocupado, el token de Zrok ahora me esta dando problemas lo reinicie el token ayer y nada. >>1481 Se agradece, me encantan las negras albinas. >>1483 >pero marca error cuando le doy a hacer una búsqueda. A mi no me da error al buscar y encima puedo usar el Animagine sin problemas (las veces anteriores que lo subí manual me decía archivo corrupto), lo uso de ejemplo porque Cagliostro bloqueó su descarga a los que no tienen cuenta en CivitAI (algunos modelos necesitan cuenta para descargarlos quizás por eso no incluyen un descargador en los notebooks) pero descargar 6 GB a 2MB de velocidad (en serio Huggingface descarga más rápido) es un poco tedioso, pero no es infernal cómo esperar horas a que suba directo. Ayer tube que cerrar el negocio y se me olvidó aclarar que si bien existe el CivitAI Browser de Vetchems, yo estoy usando el CivitAI Browser+ de BlafKing y darte el enlace, como puedes ver funciona para buscar modelos y LORAS, pero no me funciono con TI embeddings (aunque a lo mejor lo escribí mal) en fin instalarlo y usarlo es fácil, solo pesa 7MB: <sd-civitai-browser-plus https://github.com/BlafKing/sd-civitai-browser-plus
(1.63 MB 1248x1824 EstiloBase.png)

(1.60 MB 1248x1824 00002-3126345865.png)

(1000.22 KB 832x1216 00004-1437856762.png)

(1.89 MB 1248x1824 00007-2729754516.png)

(1.34 MB 1248x1824 00012-1849839248.png)

>>1478 Hola, acabo de probar pero en Sagemaker(Zrok me desconectó como 4 veces), afortunadamente AnimagineXL reconoce tanto a Kousaka Kirino (incluso me atrevería a decir que la reconoce mejor que algunas Tohas) y al estilo de Asanagi también sin necesidad de loras, tú me dirás que te pareció el resultado, fue tan sencillo como escribir by ([artist tag]:1.2) pero sin los corchetes, y variando la fuerza de los prompts, para pic 2 y 3 use fuerza de ":1.2" para pic 4 de ":1.3" y para pic 5 de ":1", lo primero que note es que las manos literalmente empeoraron al primer intento (tuve que refinarlo en ambos casos igual), salen expresiones como de gato, y gotas de sudor, las otras versiones de pic 3 quedaban peor, use prompts simples excepto para la última que fui más especifico con los tags del personaje, pero el resultado es casi igual que escribiendo su nombre y serie. En total fueron 13 variaciones de estas 4 imagenes sin contar las cuatro variaciones para la base. Menos mal que Cagliostro a diferencia de el creador de PonyDiffusion (PurpleSmartAI) no decidió ofuscar los nombres de artistas de su modelo para el público, facilita las cosas. >>1480 >inpaint con SD 1.5 Si bien soy fanático de XL, tengo que admitir que el Inpaint de SD sigue siendo superior sobre todo cuando me toca hacer Inpaint extenso, y el de XL me lo guardo para cosas más simples como rostros y divertirme haciendo Outpaint.
>>1479 Depende si quieres que siempre salga con esa chaqueta le quitas la palabra para que lora lo aprenda y haya más posibilidades de que salga en la imagen con trigger word sino quieres pues lo dejas colocado.
>>1485 No se ven mal pero no se parecen mucho al estilo de Asanagi. El otro día hice mi propio Lora de Kirino. Por si solo no está mal (aunque se quemó un poco) pero luego de varias pruebas me queda claro que el Lora de Asanagi para SD 1.5 que encuentras en Civitai no está quemado sino la siguiente, carajo logre hacer algunas imágenes interesantes que luego compartiré(estoy escribiendo desde el celular) pero se deforma muy fácilmente y mezclarlo con otros Loras es tarea imposible. Algo tan sencillo como un retrato de rostro lo arroja con muchos artefactos. Demasiados para una tarea tan sencilla. Asi que estoy pensando en hacer mi propio Lora de Asanagi para 1.5 pero no tengo mucha seguridad de como lograrlo. Hasta ahora solo he intentado "cocinar" a dos artistas ambos con un estilo simple y con un dataset inferior a 30 imágenes. El primero fue un desastre y el segundo, que probé apenas ayer, está regular pero hasta cierto punto funcional. Me preguntaba si algún negro de acá a intentado hacer Loras de este tipo y si podrian darme consejos al respecto como las notaciones de las imagenes o el tamaño del dataset o si es más importante colocar imágenes enteras o si es mejor recortar para que se enfoque en memorizar ciertas áreas de la ilustración como por ejemplo el rostro o las proporciones del cuerpo, tipo de trazo etc. Lo que me lleva a la siguiente pregunta? Hay alguna diferencia si uso imagenes de distintos tamaños en comparación a imagenes de 512 x 512??
>>1487 Lo prometido es deuda, aquí algunos resultados del Lora de Kirino que hice, quizás no es el mejor pero al menos arroja resultados, en cuando a Asanagi como mencioné antes no es muy bueno y es casi como si Kirino se negara a aparecer con esa forma kek, la tercera imagen la cuarta imagen fue hecha únicamente con el lora de Asanagi tratando de ver si podía hacer Lolis.
(1.02 MB 832x1216 Base.png)

(1.10 MB 832x1216 00003-188988953.png)

(1.09 MB 832x1216 00004-188988953.png)

(1.78 MB 1248x1824 00012-4248153298.png)

(1010.25 KB 832x1216 00017-4248153298.png)

>>1488 >no se parecen mucho al estilo de Asanagi. Bueno, no lo conocía de antes (aunque ahora veo que hace unas tetonas excelentes), pero me dio curiosidad así que empecé a experiementar más pero ahora con el loRA de Asanagi (no use el lora de Kirino tampoco), note que el cambio de estilo mediante prompts es más bien sutil, y lo digo en serio porque al momento de activar el loRA con el mismo seed de pic 1 este cambió por completo la composición e ignoro el prompt de cielo azul que tenía puesto. Aunque en ambos casos, empeora las manos. Empecé con la fuerza recomendada de "0.6" para pic 2, y para pic 3 lo subí al máximo recomendado de "1.2"(un poco quemado para mi gusto) pero se nota mejor la diferencia, después lo bajé a "0.8" (pic 4) con un nuevo seed, que es mi resultado favorito y para pic 5 le subí la fuerza a "1"; casi no se nota la diferencia entre 0.8 a .1 pero si te fijas, tanto pic 3 y 5 al subirle la fuerza a parametros positivos, el lora empieza a añadirle más pechos al personaje hasta el punto de llegar a sostener el cabello flotante, kek. Y ya después de eso Zrok me desconecto así que no pude probar más. >>1488 Me recuerdan a pic 3, yo imagino que sí le subo aún más la fuerza al prompt de Asagani en AnimagineXL (lo máximo que probé fue 1.3), probablemente pueda obtener un resultado similar a pic 3 con el lora en XL, pero es simplemente mi suposición, veo que sigue siendo importante la creación de loras para SD en general para tener un mejor control del resultado.
>>1487 Sobre los tags solo probé para personajes y me vasta que salga correctamente no me importa el traje así que un tag y todo lo que son rasgos físicos lo elimino del data set. Después de los recortes solo he utilizado una vez y si sirve cuando hay pocas imágenes en tu dataset Por último del tamaño mientras no sea menor de 512 y si tienes el bucket activado no importa el tamaño. El bucket viene por defecto en los colaba si usas kohya antes de entrenar te sale para activar. Podrías usar resolución 512 par XL, de poder se puede, pero para que te des una idea en XL la resolución minima debería ser de 768x768 y una resolución de 1024x1024 sería lo recomendado.
>>1491 >>1490 La tercera y la quinta imagen son las que han quedado mejor , la tercera en especial no solo imitó bien el estilo rostro sino la mano igualmente. Muchas veces no suelo usar tags pero está vez me he visto obligado a hacerlo ya que no hay otra forma para hacerlo aprender un estilo. Sobre la resolución en algunos Loras anteriores use imágenes más pequeñas que el recomendado y funcionaron (más o menos) entonces hace alguna diferencia si uso imagenes más grandes. Aclaro que uso Sd 1.5
(2.52 MB 1248x1824 00003-2011507732.png)

>>1492 Ya veo, en ese caso es mejor usar los parametros positivos del loRA para una influencia real en la imagen, aunque el propio Bluvoll (creador del LoRa de Asanagi) dice que su versión de PonyDiffusion es mejor, aunque no me acostumbro bien a usar PonyXL con su sistema de tags de calidad, pero casi siempre me va mal el primer día que pruebo un modelo. Pero de todas formas, me alegra saber que pude acertar en la fuerza de el lora de Asanagi. >>1489 >>1492 >>1493 Te deseo suerte en la creación de estos loRAs, solamente pude transferir algo de información que recopile de otros sitios, pero de todas espero que te haya dado algo de perspectiva, y si no, ya lo descubrirás tu solo experimentando, sigue así.
>>1479 Encontré algo de información que podría ayudar, no sé si será muy tarde: "Eso depende de lo que quieras que haga el lora. Si no etiquetas la chaqueta, siempre tendrá una chaqueta, no podrás ponerle una armadura, siempre tendrá una chaqueta. Si etiquetas la chaqueta, entonces se convierte en un concepto separado, vinculado, pero removible. Espero que te sirva de ayuda."
>>1494 Mis tres cuenta de Ngrok se quedaron sin bandwidth a esperar otro mes. Mientras tanto hire mejorando los datasets y creando otros para probarlos después. De todos las imágenes que genere está sin dudas es mi favorita. Un poco de impaint en la mano y recolor en su camisa y quedaría perfecta.
(2.36 MB 1432x1497 2024-05-18_19-52-42_4032.png)

>>1496 >>1496 A mí Zrok ya ni me deja disfrutar bien de Sagemaker, antes podía usar las cuatro horas completas, ahora ni eso y lo peor es que tengo que volver a reiniciar la GPU de nuevo para volver a entrar para poder iniciar la celda de SD otra vez y ya sabemos que Sagemaker agarra una GPU cuando le da la regalada gana, por ahora me he estado refugiando en Kaggle (censurado) y el Colab de Fooocus, así que no tengo muchas alternativas la verdad, pero bueno, trataré de seguir al tanto como sea posible. Aunque me alegra que hayas logrado un avance en tus proyectos.
>>1497 Gracias negro por ahora estoy probando Tensor art mientras espero el mes. Tiene bastantes opciones pero están limitadas detrás del PayWall. Aunque me sirve para ir testeando Loras.
>>1498 >>1497 Para saltarme el límite de Negrok lo que hago es deshabilitar las imágenes de la galería de SD y abrirlas directamente desde el explorador de archivos de Sagemaker, así básicamente no hay limite porque las imágenes no pasan por Negrok. Y si quieres reiniciar SD no es necesario reiniciar todo Sagemaker, solo selecciona la casilla que hayas ejecutado, pulsa el cuadrado para parar y vuelve la a iniciar, aunque recuerdo que el primer notebook que pasaron por aquí estaba escrito como el culo y se hacia un desastre con las direcciones, termine reescribiéndolo por lo mismo.
>>1499 Ya no uso Ngrok así no creo probar ese método, pero bueno, me alegra que te funcione. >pulsa el cuadrado para parar y vuelve la a iniciar No me funciona, literalmente se queda colgado y por eso tengo que reiniciar Sagemaker siempre, aunque quizás sea problema del notebook que estoy usando.
>>1500 Si a alguien le interesa dejo aqui el notebook que uso, es basicamente el mismo pero usando direcciones completas para todo que evita los errores que te da y cambiando el SD y sus extensiones a los originales y no los forks que puso el tipo que lo escribio.
>>1501 bro, solo eliminen el .txt
(2.42 MB 1248x1824 00004-1790074753.png)

>>1501 Veré si lo pruebo pero la verdad ya casi ni uso Sagemaker y estaba empezando a buscar más alternativas, por ahora Kaggle es muy cómodo con Pinggy de túnel y sus 20 GB de espacio, excepto que te pueden banear por NSFW. >>1502 Esto me recuerda, me di cuenta que dejé los notebooks de Kaggle sin dejar la contraseña, kek, de todas formas parece que el tipo que los subió solamente robó los notebooks de otras personas y lo subió, solo probé el de Fooocus. En el vídeo están las contraseñas: https://github.com/zachysaur/Notebooks-for-kaggle https://www.youtube.com/watch?v=kTas5hfgK_I <Aldo Disculpen si no he estado activo, pero ya explique lo de Sagemaker y encima lo que genero con Juggernaut casi no encaja con nada de acá. El pasado sabado intente hacer algo similar a las proporciones del furro anon pero sin lo furry, kek. Pensé en una diabla, pero terminó siendo más una ninfa/elfa del bosque negrita. Me gustó como quedó la enredadera alrededor del cuerpo (tomo dos intentos apenas), AnimagineXL se adhiere bien a los prompts de proporcionesy si bien es un un error, me gusta lo del brazo/planta porque me hace pensar más en una ninfa del bosque.
(5.45 MB 1792x2304 2024-05-08_22-04-27_6770.png)

(5.91 MB 1792x2304 2024-05-08_22-09-59_5691.png)

(4.65 MB 1792x2304 2024-05-07_15-08-09_2339.png)

(4.39 MB 1792x2304 2024-05-07_15-14-14_3880.png)

Bueno, sin duda JuggernautXL X es mucho mejor entendiendo los prompts que la V8. Como no existe un HiresFix en Fooocus este tiene en cambio un re-escalador que va a agregando nueva información a la imagen y los prompts o presets pueden alterarla también, como no se guarda la metadata y por cuestiones de tiempo (el colab de este tiene una duración variable) yo simplemente le doy a re-escalar sin presets ni prompts adicionales. En este caso me gustó el resultado.
(1.80 MB 1024x1024 2024-05-22_22-19-02_4890.png)

(1.76 MB 1024x1024 2024-05-22_22-20-07_9974.png)

(2.00 MB 1024x1024 2024-05-22_22-22-22_5676.png)

(1.91 MB 1024x1024 2024-05-22_22-23-20_3134.png)

(1.44 MB 1024x1024 2024-05-19_22-10-16_5293.png)

Disculpen sino son estilo anime, pero estos fueron algunos resultados que obtuve con JuggernautXL X
>>1506 Ese peinado, color de piel y bandas blancas me recuerda un poco a Bloodberry de Saber Marionette J, ya que ni siquiera tener la seguridad de un servicio como sagemaker desmotiva bastante.
>>1507 Me alegra porque con esa segunda imagen eso intenté hacer, como no hay Lora de ella y armar un dataset decente me llevaría tiempo, trate de recrearla a punta de Prompts.
(2.62 MB 1248x1824 00002-1474551290.png)

(1.81 MB 1248x1824 00008-1855128825.png)

(2.07 MB 1536x1536 00014-2262735227.png)

(2.15 MB 1248x1824 00018-454139466.png)

>>1508 Si, Saber Marionette J era uno de esos animes de mi infancia que en teoría no debí ver debido a las escenas ecchi (aunque de la misma forma a esa edad veía duro de Matar y Rambo así que meh), aunque tengo vagos recuerdos, pero creo que logré seguir la mayoría de la trama hasta el final, pero aparte de atraerme los personajes femeninos me gustaba y me parecía divertido, la tomboy de Blooberry era mi favorita, me sorprende que no haya un lora de ella y de Marine sí que tiene menos contenido, kek, aunque quizás lo hicieron con capturas de pantalla del anime. <Aldo Dejo un par de imagenes que traté de generar a duras penas, si digo que tuve como 10 desconexiones, sería poco. Veo que a AnimagineXL si bien es preciso, todavía le falta para ser el mítico NovelAI gratuito de SD, la más problemática fue pic 2, la androide, probé HiResFix entre 1.5 y x2 pero este último daba muchas deformidades, pero entre tanta desconexión no me moleste a probar más de 10 intentos. Pic 3 me arrepentí de escribir "button gap", pero no es nada que el Inpaint no pueda resolver,
>>1509 El problema es que casi no hay fanart tan solo scans de arte oficial y el problema es que no es de buena calidad para un dataset a eso súmale que los diseños tienen un estilo muy especial que para algunas cosas la IA no te las reconoce incluso. Trate de tomar un par de imágenes de algunos doujins y del manga oficial para colorearlas con ControlNet pero solo algunas salieron medio decentes. Planeo editarlas para hacer un dataset más consistente. Aunque eso se quedará para después ahorita mismo continuo experimentando con estilos, está vez trate de replicar el arte de Kazue Kato(la autora de de Ao no Exorcist) dataset de 40 imágenes, fue un jodido fracaso. Es muy difícil encontrar arte de ella, en gelbooru no hay nada y su Twitter no es muy activo. Podría intentar usar paneles de su manga pero que pereza. Dejo un par de imagenes que es la que más me gustaron. Yo por mi lado no he tenido problemas con Sage Maker eso si, Open Pose no me está sirviendo.
(2.11 MB 1208x1920 00005-930524123 THIS.png)

(2.12 MB 1216x1920 00003-349950120.png)

(2.17 MB 1208x1920 00006-930524123.png)

>>1510 Por eso me parece más extraño que exista un loRA de Marine antes que Bloodberry, pero bueno de la misma forma ya había un lora de Kamen Rider Gotchard (al final dropee la serie después del capítulo uno) con el que incluso se puede generar porno mucho antes de su estreno y que hubiera una cantidad decente de fan arts del personaje. Algún truco debe haber que no sepamos. >en gelbooru no hay nada y su Twitter no es muy activo Esto me recuerda a un dibujante H que me encanta, y pese a seguir activo desde 2007 apenas tiene 91 piezas en gelbooru >Podría intentar usar paneles de su manga pero que pereza Me parece una buena idea, o mejor dicho me gustaría hacer algo así, aunque no sé si afectaría la calidad del lora el usar imagenes en blanco y negro. >Yo por mi lado no he tenido problemas con Sage Maker Yo sí, justamente me desconectaron a apenas al generar dos imagenes hoy, kek. Mañana probaré un nuevo notebook con otro túnel, existen otros métodos de GPU aparte de Kaggle, Amazon, Sagemaker y Colab, pero veo que pocos tienen ofrecen una calidad y funciones decentes como estos, de no ser por los malditos tuneles sagemaker sería perfecto, aunque voy a extrañar ForgeUI su velocidad era muy buena. >Control Net Open Pose Recuerdo un notebook que descargaba los sistemas de control net en una tmp folder o algo así por lo que nunca realmente se guardaba en el espacio de sagemaker y permitía usar control net, claro cada vez iniciado se tenía que descargar de nuevo, similar a Colab, pero tampoco lo pude hacer funcionar. <Aldo Dejo un par de pruebas entre AnimagineXL 3.1 y PonyXL v6, veo que Pony entiende mucho mejor la piel oscura ( aunque puede resolverse aumentando la fuerza de "dark skin:1.2") y el prompt de "Mature female", aunque su estilo base es mucho más occidental y veo que le añadió musculos a la espalda por sí solo, también noté que es peor con los fondos al momento de hacer variaciones, y me di cuenta tarde que había una opción para saltarse el Img2Img al momento de usar adetailer, eso hubiera sido más rápido, aunque el adetailer person agregó por si solo una buena capa de sudor a pic3 (junto con otros errores), así que lo tacho como accidente feliz, aunque me había equivocado con la resolución base de la versión de Animagine.
Negros alguno acá sabe cómo se llama ese estilo de cabello en dónde dos flequillos suben y luego bajan sobre la frente del personaje?, el mejor ejemplo que tengo a la mano es esta imagen de Sephiroth que tiene un peinado similar. Quiero hacer un Lora de un personaje pero me gustaría saber el nombre de esa cosa en particular (estoy seguro que debe tenerlo) para promptearlo en caso de que el Lora falle en el peinado. (Tengo pocas imágenes en m dataset.)
>>1513 Por alguna puta razón no me deja subir la imagen menudo FAIL
(1.22 MB 896x1152 00000-2500216092.png)

(1.27 MB 896x1152 00007-4183894669.png)

(1.25 MB 896x1152 00015-600170936.png)

(1.21 MB 864x1152 00030-2336138160.png)

(188.54 KB 1223x894 2024-06-02_12-27-01.png)

Buenas y malas noticias, la buena logré encontrar un notebook que me permite usar tanto los túneles de Zrok y Pinggy con el reciente A1111 1.9 como pueden notar por el ligero cambio de interfaz (pic5) entre las opciones de "sampling method" y "Schedule Type" (aparte de estar un poco vacío por estar recién instalado), la velocidad es buena. Las malas son que no me permite re-escalar las imagenes a 1.5x en absoluto por "out of memory CUDA", joder, ya extraño ForgeUI, había otros notebooks con A1111 que permitían re-escalar con XL a 1.5 a veces me daban errores pero era raro que sucedieran, este simplemente no lo permite y ya (lo cual es curioso ya que el notebook venía con un modelo XL por defecto) supongo que podría volver a usar checkpoints SD 1.5 y e instalar el nuevo sampler de mejores manos de Euler Dy/Smea que mencione más arriba. Así que no sé si hice algo mal en la instalación del notebook de ForgeUI que ahora sí me permite usar bien Zrok, kek. <aldo Pic 5 se supone que fuera Reisen pero todas las variaciones salieron mal o les faltaba algún detalle que quería aparte de que obviamente no les pude pasar por el proceso de refinamiento correcto ni usar adetailer (lo puedo instalar pero sin HiResFix me parece inútil) >>1513 >>1514 Traté de buscar tags en Danbooru, pero a lo mucho encontré que Sephiroth tiene "parted bangs", "sidelocks", "long hair", "very long hair"y ya... lo sé, la respuesta es decepcionante, ironicamente no apareció etiquetado con "long sidelocks", así que simplemente podrías poner esos elementos como trigger words para que se vuelvan elementos seleccionables. También supongo que podrías crear un lora del cabello de Sephirot para todos los personajes, kek. Revise en CivtiAI y noté que de 6 loras de Sephiroth solamente hay disponibles 2 y fueron removidos por sus propios autores, curioso.
Buenas, negros sabios... Quisiera iniciarme en esto de las IA's ya que son el futuro y todo eso. También porque quiero material para una historia que quiero hacer y me da hueva aprender a dibujar Quisiera leer los primeros hilos, pero ahora que veo están en lost media, ¿Eran importantes? ¿Alguien los tiene guardados? ¿Qué debería hacer primero y con cuál programa/página? Mi tostadora no es que sea lo más potente del mundo pero se defiende... Es que cuando veo muchísimo texto sin un comienzo claro me pierdo y no vuelvo kek. En caso estén interesados en ayudar a este noob compartiré todo, desde los errores más estúpidos hasta los mejores resultado. Incluso los PJ que cree desde """0""".en caso gusten. >inb4: Tienes experiencias? Sólo con el GPT4o y fue la razón de que me interesase en estos hilos ya que el NSFW está prohibido al menos en imágenes.
(1.32 MB 896x1152 00009-2376018681.png)

(1.25 MB 896x1152 00011-1871163734.png)

(1.13 MB 896x1152 00013-600170936.png)

(1.16 MB 896x1152 00023-841498446.png)

(322.96 KB 1175x863 2024-06-03_09-43-17.png)

>>1516 Bienvenidos a los hilos de Inteligencia Aeoroespacial. >pero ahora que veo están en lost media, Kek, no son Lost Media, los primeros hilos fueron movidos al tablón >>>/sexy/ como puede ver en pic 5 y yo mismo los archive todos aquí: >>1439 El hilo ocho en adelante deben seguir en este tablón y sé que los primeros cuatro hilos están archivados en zzzchan.xyz Pero mi versión archivada del hilo cuatro no se guardaron bien las imagenes. >Eran importantes Supongo que los recuerdos pueden ser importantes, a mi me dan mucha nostalgia ya que estoy desde el quinto, podrá ver más de un consejo y que tan rápido progresó esta tecnología. >¿Qué debería hacer primero y con cuál programa/página? Esta pregunta es interesante, ya que esto se esta volviendo más difícil el generar imagenes de forma cómoda a diferencia de antes (maldito JEWgle), como programa usamos Stable Diffusion de StabilityAI, es 100 % gratuito y encima Open Source, así que hay un ecosistema de modelos muy parecido a los SO de GNU/Linux, la comunidad se encargó de hacer grande a SD, hay para todo, pero, se necesita una GPU NVIDIA que (de preferencia) sea de la más alta VRAM posible para poder generar, ahora bien sino tiene para correrlo en físico (que sería lo ideal) existen servicios en línea que te permiten correrlo en GPU potentes gratis con sus limitantes ya sea de espacio/tiempo y/o dinero, Sagemaker, LigthningAI, Kaggle y el propio Google Colab (se volvió la más limitada) son opciones que sé, si es un novato en esto, una de las mejores paginas para generar imagenes sería TensorArt lo digo porque tiene lo más básico de la interfaz como HiResFix, Adetailer, VAE, etc lo ayudará a familiarizarse con algunos conceptos y no tiene tanta censura como lo que se ha vuelto PixAI o LeonardoAI. Otro servicio a considerar, pero que es de paga sería NovelAI su modelo NAI V3 (basado en SDXL) se ha vuelto el meta de los modelos anime y no esta censurado, pero es judío así que así que no lo liberaran al público para que la comunidad pueda entrenarlo y/o modificarlo/fusionarlo. Pero le digo, una vez que pruebas el poder de SD a través de una GPU potente no hay vuelta atrás. >a este noob compartiré todo Puede compartir lo que guste que haya generado usted mismo, aunque obviamente es un tablón de anime y por eso trato que mis imagenes sean de ese estilo y la temática de los hilos es meramente simbólica. >Incluso los PJ que cree desde En teoría puede crear OC's entrenando un LoRA. >GPT4o Tengo que admitir que OpenAI me sorprende cada día más, pero su servicio de Dall E-3 para generar imagenes más que un modelo es una pipeline y lo han ido censurando cada vez más (aunque he visto casos de gente haciendo Jailbrake para generar imagenes sin censura pero corres el riesgo de ser baneado), dicho esto, sigue siendo el mejor en cuanto adherencia de prompts y precisión, pero SD con las extensiones correctas siempre lo llevará más lejos que Dall E. Básicamente sería potencia (Dall E) vs Versatilidad (SD)
(1.14 MB 3037x4096 20240120_023040.jpg)

(163.73 KB 1024x1792 file-72S2iON1wijyhaG9pqV5JUNp.webp)

(176.34 KB 1024x1792 file-8dVhDIdqz8G5MXJRdS71ssly.webp)

(178.85 KB 1024x1792 file-iZZT1XBn5f1KtiwxC0DV9dCY.webp)

>>1517 >no son los media Sublime. Me daba la corazonada de que no lo eran, pero al no encontrarlos por mi cuenta, tocó preguntar... Aunque según parece no es que sean muy útiles comparados a los actuales por cuestiones de actualización. Aún así los leeré para saber el progreso de esto... >el mucho texto Lo leeré cuando tenga más tiempo y pueda responderlo bien kek >puedes compartir Y eso haré, el animú es superior a la estética "comic". >puedes crear OC's con Loras Bien, eso es lo que busco. Ojalá pueda crear algo más o menos decente con el tiempo >pipeline ¿Qué es eso? No es que ande muy familiarizado con los términos tampoco, pero sí que doy fe que, aunque útil, la versión del GPT tiene problemas en cuanto a la generación y que después de cierta cantidad de imágenes 4-5 a más en un mismo chat, se bloquea o "reinicia" por decirlo de alguna forma. >riesgo de ser baneado Mejor no hacer Jailbreak hasta que sea el último recurso, que el GPT me sirve para más que hacer imágenes animu. Por ahora, si alguien tiene alguna petición, imagen o prueba que quiera hacer con el GPT4o (el más reciente) de pago me lo puede decir y posteo los resultados aquí en lo que practico. >calidad vs cantidad Prefiero la calidad como buen chanero que soy. Punto aparte, esto fue una de las primeras pruebas que hice y probando si podía imitar el estilo de los artistas de Twitter. Y sí que pudo... >esc: Tu trabajo será reemplazado por una máquina en al menos 5 años más >aldo >yo cuando me hablan de usted
>>1517 >>1518 Es completamente posible crear un lora de un personaje original, pero tendrás que reentrenar varios modelos hasta refinarlo y ademas es aconsejable saber usar programas de edición como Photoshop para hacer photobashing.
>>1518 Bueno, cuando respondo me gusta dar una respuesta completa, ya que este mundo de la generación de imagenes es un tanto complejo, pero lo que más se requiere es paciencia e intuición. >no es que sean muy útiles comparados a los actuales por cuestiones de actualización Exacto, esto avanza rápido y la palabra "obsoleto" flota bastante, nada más recuerdo que cada vez que el antiguo OP hacía una guía para generar en SD A1111 en colab surgía una actualización y la guía quedaba medio obsoleta, pero era amena de leer por lo menos. Por ahora le digo que los modelos SD 1.5 ya no tienen más nada que dar, mientras que los modelos SDXL y PonyXL aún no se han explorado todavía todas sus capacidades. >¿Qué es eso? Una pipeline se refiere a una arquitectura de software que organiza y automatiza un conjunto de procesos.el servicio de Dall-E 3 se puede considerar una pipeline en el sentido de que es una serie de etapas o pasos que se ejecutan en secuencia para generar una imagen a partir de una descripción de texto. Pero a lo que me refiero, es que no tenemos un Dall E para entrenarlo y/o modificarlo como se puede hacer con SD, aunque aparte de que debe estar corriendo en servidores nivel NASA, al mismo tiempo que lo van censurando, se nota que también lo van mejorando con el tiempo y tampoco tenemos los changelosg bien definidos para saber que version de Dall E 3 estamos usando en cada caso. Estas las generé yo hace un tiempo con Dall E 3 a través de bing (en tu caso le pides algo a ChatGPT para generé a través de Dall E que al final ambos son de OpenAI), este tipo de imagenes serían aún difíciles de hacer con SD sin extensiones o loras (o inpaint) aunque con el próximo a salir SD 3 esta por verse. >>1519 O con Gimp si son pobretones como yo.
(2.35 MB 1248x1872 00003-1784241732.png)

(2.84 MB 1248x1824 00005-1264543747.png)

(3.15 MB 1248x1824 00007-911263025.png)

(2.96 MB 1248x1824 00001-1691825940.png)

(2.25 MB 1248x1824 00001-2087977214.png)

Algunos resultados que obtuve experimentando con PonyDiffusion XL v6, me recordó un poco a EasyFluff de SD 1.5 más orientado a un estilo western, y me fue mucho más difícil hallarme con los prompts. Ya que esto usa un sistema de "Score_9, Score_8_up, etc" para los prompts positivos de calidad y "Score_3, Score_2, Score_1", para los negativos pero quizás estos últimos no les ayuden mucho, creo que es un poco viable contrarrestar el estilo western colocando "source_furry, source comic, source_pony" en los negativos y "source_anime" en los positivos pero no demasiado, he de decir que no estoy demasiado complacido con mis propios resultados, aunque los he visto muy buenos de parte de otros prompters usando PonyXL y siempre noté que tenían uno o varios loras (de nuevo parecido a EasyFluff) súmenle que Zrok me desconectaba cada dos por tres, así que no pude experimentar mucho tampoco. Dicho no es un mal modelo, de hecho responde bien y si fuera malo no sería el meta del porno actual en SD, pero quizás quieran probar algún modelo merge/fusionado de Pony más basado en anime como Smoothcuts, AutismMix_confetti (AutismMix_pony para loras o entrenamiento de loras), o T-ponynai3 que ya lanzaron la versión 5.1 el pasado 27 de mayo con VAE incluido. O quizás quieran esperar a PonyXL v7 a saber cuanto tiempo tardaran, pero al menos ya esta anunciado.
(2.35 MB 1248x1824 00003-2344403099.png)

(1.11 MB 832x1216 00004-1488815168.png)

(2.00 MB 1248x1824 00005-1488815168.png)

(1.75 MB 1248x1824 00006-1488815168 (2).png)

(2.25 MB 1248x1824 00001-1139695915.png)

Solamente tienen el refinamiento base nada de inpaint, pic 2 a la 4 fue posible devolverle el sudor con adetailer person, otra cosa que noté fue de los pocos modelos que le pude pedir una teta afuera de una sin necesidad de loras.
(2.06 MB 1440x1904 00009-641011971.png)

(2.17 MB 1248x1824 00011-2928823819.png)

(2.36 MB 1248x1824 00015-1089583157.png)

(2.36 MB 1248x1824 00016-1089583157.png)

Creo que pic 2 fue el resultado que más me gustó y que más intenté lograr aunque el resultado de manos fue un poco deforme, y para finalizar ya que estaba cansado de las desconexiones pic 3 y 4 le hice una pequeña variación con el adetailer con el mismo seed.
>>1521 >>1522 Me encanta el tipo de acado que tiene la piel, que modelo usaste?.
(713.24 KB 1166x888 2024-06-05_16-34-27.png)

>>1524 Hola, me alegro que le gustaran, estuve usando PonyXL V6 sin loras, esta disponible en CivitAI, lo único que estuve variando fueron los prompts positivos y negativos entre las imagenes, ni te molestes en escribir "masterpiece, best quality" ni "worst quality, low quality" en estos si vas a usar modelos Pony, me hubiera gustado experimentar más, pero de nuevo, las desconexiones me tienen loco.
>>1520 Entiendo la mayoría de lo que dices y me estoy familiarizando con las palabras y los controles. Ya hasta entré en la Matrix... Y descargué algunos Model Browser del SD y tal, pero al tener que usar el inference para generar una imagen me pide que instale el ComfyUI, y al intentar hacerlo me dice que la instalación falló por detalles que me parecen alienígenas... Lo mismo con el Stable Diffusion UI... No sé muy bien qué hacer, ¿Hay alguna forma alternativa de descargar alguno? Intenté con uno en JEWtube pero tal vez seguí mal los pasos kekcito doloroso ;_; Cabe mencionar que la computadora que uso ahora es potente pero potente de verdad, pocas veces me voy a acercar a una máquina como esta porque es de la universidad kek y el Internet es rapidísimo. No tengo problemas técnicos o al menos no creo tenerlos.
(2.47 MB 1344x1728 00010-2222062915.png)

>>1526 >¿Hay alguna forma alternativa de descargar alguno? Recuerdo un negro una vez que dijo que usaba EasyDiffusion y me fije que usaba el modelo AutismMix_Confetti de XL, la interfaz que usaba era muy sencilla y se veía muy fácil de usar, lamentablemente nunca volvió. La verdad yo solamente he llegado a instalar SD a través de notebooks en línea como Sagemaker y Kaggle que son muy automatizados por más que sea una interfaz de texto. <El enlace de EasyDiffusion es este: https://easydiffusion.github.io/ >ComfyUI ComfyUI es una interfaz demasiado avanzada para usuarios novatos pero usualmente se recomienda para aquellos que no tienen una buena gráfica, fíjate si esa PC potente que estas usando tiene una tarjeta NVIDIA, aunque sea un minimo 8GB de VRAM. Las guías dicen que necesitas instalar Python 3.10.6 porque versiones más modernas no soportan Torch, si bien muchos recomiendan StabilityMatrix para una instalación fácil, la guía oficial de instalar SD esta en github: https://github.com/AUTOMATIC1111/stable-diffusion-webui
(521.88 KB 1024x1024 file-jRLHPtQsalqR2PHThBvvm1yD.webp)

(214.95 KB 1024x1024 file-e5yM0y2WOyMc855XHt3lmn2V.webp)

(704.01 KB 4624x677 20240606_165653.jpg)

>>1527 Sí que tiene mínimo 8GB... Aunque no hay Nvidia :( Yep, entiendo, ya me vi un tutorial en Jewtube para entender cómo se instala y tanta cosa, y confirmó que si no sabes nada de este mundo todo te parecerá alíen, literal estuve cómo 1 hora intentando hacer lo que podría haber hecho en cómo 20 minutos. Pero ahora tengo un nuevo error... El de la pic, ni idea de qué hacer kek...

(7.40 KB 979x266 Comando.png)

>>1528 Ese mensaje me ha parecido un par de veces en entornos de Sagemaker. Lo que estás viendo aquí no es en realidad un error, es un mensaje diciéndote que 'pip' tiene una actualización disponible (SI quieres). Es un poco gracioso porque pip es normalmente lo que hace los trabajos de actualización, pero no tiene la capacidad de actualizarse a sí mismo, porque tendría que eliminarse a sí mismo y luego instalar la nueva versión, pero ¿cómo va a eliminarse a sí mismo si se está ejecutando actualmente? Podrías abrir el comando ejecutar con tecla windows + R y luego teclear cmd y luego copiar y pegar esto: "C:\Program Files\ai\stable-diffusion-webui\venv\Scripts\python.exe" -m pip install --upgrade pip Debería lucir algo parecido a pic related 2 (cuidado con los espacios) y asumiendo que todo salga bien, Phtyhon debería automatizar el resto e instalar la nueva versión de Pip. También pudieras aplicar por una cuenta en Sagemaker e instalarlo mediante un notebook, pero por lo general tardan un par de días en aceptarte la cuenta, pero al menos no hay censura como en Kaggle.
(1003.51 KB 832x1216 00012-130873564 repass.png)

(1.06 MB 832x1216 00016-1931566741.png)

(1.00 MB 832x1216 00020-1931566741.png)

Y malas noticias (de nuevo), de repente el notebook no me deja hacer HiResFix a las imagenes otra vez y lo digo porque la sesión pasada funcionó y lo iba a notificar pero ahora volvió a estar igual, aún así, siento que las imagenes generadas a resolución base en XL no estan tan mal. Y técnicamente es más rápido hacerles un refinamiento ligero de ir directamente a adetailer, el cual por cierto es mucho más cómodo en la interfaz de Miku ya que puedo seleccionar hasta cuatro adetailer seguidos en orden, que es lo que fui experimentando con Asuna, también es mucho más rápido si te vas directo a Img2Img y activas la opción de "Skip img2img", pero sin HiResFix se siente incompleto este proceso, me arrepiento de haber desinstalado y re instalado tanto los notebooks de ForgeUI, si no esta roto no lo arregles, bueno, será así hasta que consiga solucionar este problema.
(926.52 KB 800x1200 00003-897952035.png)

(864.07 KB 800x1200 00006-897952035.png)

(1.12 MB 800x1200 00007-2405858240.png)

(1.12 MB 800x1200 00008-2405858240.png)

(1.15 MB 832x1216 00013-1609256375.png)

Al fin un día en el que pude generar tranquilo, pese a que no tengo todas las herramientas disponibles hoy fue un buen día y pude experimentar a gusto, AnimagineXL es bastante bueno. Dejo algunas muestras de que genere hoy.
(1.16 MB 832x1216 00000-3450387551.png)

(1.16 MB 832x1216 00002-3450387551.png)

(1.12 MB 832x1216 00004-1971153971.png)

(1.01 MB 832x1216 00014-249877051.png)

(1.04 MB 832x1216 00019-2149621894.png)

Quise hacerle más variables a pic 4 pero tuve una ligera desconexión y tuve que reiniciar sagemaker, afortudamente no me tocó reiniciar la sesión pero entonces a otros personajes.
(905.48 KB 768x1152 00020-1439825994.png)

(862.70 KB 768x1152 00000-1680619365.png)

(1.05 MB 832x1216 00004-3603169349.png)

(1.02 MB 832x1216 00005-3603169349.png)

Y algo random para llenar la cuota de inclusión, no recomiendo escribir prompts como "earrings" si no tienen como refinar, así que lo quite para la siguiente, además la mano salió mal en la primera. Pic 3 y 4 solamente hay un ligero cambio en el fondo (que sigue estando mal pero no peor) pero si escriben "gyaru" vi que agrega un montón joyería, piercings e incluso adornos a la ropa como un pin así que de nuevo, preferí dejarlos fuera. Note AnimagineXL me funciona mucho mejor con clip skip a 2, otra cosa quizás quieran actualizar las extensiones, después de instalar el autocompletador noté que había varios prompts que no me agarraba pero después de actualizarlo empezó a mostrar más, pero sin mostrar todos los prompts/tags que existen, lo cual me hace extrañar un poco el colab de Nocrypt porque tenía incluso sus propios tags, así que quizás quieran seguir revisando los Booru para seguir viendo que prompts pueden ser validos para sus imagenes (aplicable solo a modelos de anime) >>1532 Veo que el Lora de Bloodberry esta tomando forma, sigue así.
>>1533 Negro que buenas imágenes lograste, me llevo las de Ganyu, están muy lindas. >aldo ¿Quien es la monita de la pic 1?
(1.57 MB 1024x1536 00000-1106424976.png)

(1.58 MB 1024x1536 00001-1106424976.png)

(1.07 MB 832x1216 00012-2725583138.png)

(1017.81 KB 832x1216 00007-725580598.png)

(973.97 KB 832x1216 00008-546414284.png)

>>1536 Me sorprende aún más que haya un LoRA del diseñador de la serie y no uno de Blooodberry, kek, bueno, supongo que será cuestión de tiempo. Aún así me gustó mucho la pic 1, me pone nostálgico. >>1537 ¡Gracias! la verdad había perdido un poco la costumbre, ya sea entre problemas personales o problemas del notebook, había olvidado que generar es divertido pese a las limitaciones, aún así me hubiera gustado haber podido refinarlas a gusto, tendré que guardar todo para más tarde. >¿Quien es la monita de la pic 1? Es una vtuber, Anya Melfissa, asociada con Hololive: https://virtualyoutuber.fandom.com/wiki/Anya_Melfissa Mis primeros dos intentos no quedé muy conforme, una vez logrado lo que quería traté de darle un efecto de "breast expansion" manteniendo el número seed por los kekes. Todas fueron generadas sin necesidad de loras, pero me parece curioso que AnimagineXL reconozca más a una Vtuber de apenas +600 pics antes que poképutas como Rosa que tiene más de +6000 pics o la mamá de Lana (pic 4 y 5) que ni nombre tiene con +2.000 pics, supongo que lo solucionaran para la próxima actualización. Dejo algunos restos de ayer, la de Miku fue la más costosa por la pose ya que algo siempre salía mal y dos intentos fallidos de la mamá de Lana.
>>1538 Yo también me sorprendi de ver un Lora suyo pero tampoco es que sea un desconocido. Kotobuki Tsukasa fue un artista bastante popular en los 90s además de Saber J trabajo en otros animes como Cyber Team in Akihabara, las ovas de Fatal Fury y Gundam, también se encargo del diseño de personajes de Battle Arena Toshinden. Si ves sus trabajos el tipo es conocido por su estilo super estilizado (que ni siquiera Stable Diffusion logra replicar del todo) pero el tipo es súper versátil, si revisas los trabajos que hizo para Gundam son más convencionales y realistas.
>>1539 Aquí algo que me tomo por sorpresa. Hace meses hice un Lora de Lima. Fue imposible hacerlo funcionar siempre mandaba cosas deformes. Ni el ADitailer ni Control Net lo salvaba. Ayer lo probé de nuevo junto al Lora de estilo y me mandó Pic related. KEK
(550.40 KB 512x1024 00003-1747675474.png)

(972.42 KB 768x1152 00007-987949533.png)

(945.43 KB 768x1152 00008-4176277311.png)

(1.06 MB 832x1216 00003-123579598.png)

(945.17 KB 768x1152 00007-539295527.png)

>>1539 >Gundam Viendo su curriculum entonces veo que trabajó en joyitas como Gundam The Origin o la maravillosa Gundam: Cucuruz Doan Island entre otras, me gusta su estilo y me alegra saber que ha participado en una de mis franquicias favoritas, aunque no sé pueda llegar a leer sus mangas de Gundam, que según veo al menos son dos ya que el personaje de Kai Ishiden me gusta mucho. >>1540 Imagino que la información de un dataset cumplió por las falencias del otro o simplemente combinan. Aunque me hace preguntarme si NovelAI (con todo y lo poderoso que es) reconocerá a los personajes de Saber Marionette J, pero no lo sabremos a no ser que alguien lo intente, y es que literalmente la serie cayo en el olvido y no hay mucho fan art de esta y las pocas imagenes IA que logré encontrar fuera de CivitAI son de la propia Lime (su diseño es muy emblemático por cierto) >>1541 >Creo que viene siendo hora de armar el dataset de Blooeberry Te deseo suerte, muy bonita la segunda Lime. <Aldo Dejo algunas que logré generar ayer no pude hacer mucho por el horario, no use ningún lora pero tuve que buscar los tags de Yae Miko porque quería darle ese mismo efecto en el pelo a pic 2 y eso resultó en pic 3 y al final me dí cuenta que son orejas de zorra, kek. Hice varias de illustrious pero me di cuenta de qué si añaden el prompt "race queen" aparte de cambiar el diseño del leotardo (que es lo que quería) encima añade una especie de estadio de fondo, el lunar tiende a salir doble, fue lo único problematico.
(1.05 MB 1024x1024 00000-2677563608.png)

(1.18 MB 1024x1024 00002-2575404812.png)

(986.75 KB 1024x1024 00001-4055267125.png)

(1.14 MB 832x1216 00003-3722611489.png)

(1012.99 KB 832x1216 00009-3207492805.png)

Generaciones de ayer, las primeras dos fueron intentos fallidos de una zorra fennec humanizada, pic 3 se parece mucho más a lo que que quería. Pic 4 es la yegua de Umamusume, Daiwa Scarlet, pero, se me olvidó escribir prompts positivos de calidad, igual con la mera descripción más los prompts negativos da un resultado decente, pero, me habían salido seis dedos y tuve que pasarla por adetailer person, lo cual da un look un tanto saturado para mi gusto, no sé si exista un adetailer feet al igual que adetailer breats (al menos en el colab de forge existe) pero lamentablemente no los tengo, pic 5 es como quería que quedara.
(1.32 MB 1024x1024 00006-3686628996.png)

(1.26 MB 1024x1024 00000-288811565.png)

(1.27 MB 1024x1024 00001-288811565.png)

(1.10 MB 832x1216 00012-2264643049.png)

(1.14 MB 832x1216 00013-174970263.png)

Promptear al personaje de Artoria fue un poco molesto, literalmente hay que escribir "artoria pendragon \(fate\), artoria pendragon \(lancer\) \(fate\)" lo cual de por sí ya gasta mucho espacio pero si no lo hacía, no reconocía bien la corona/headpiece/tiara lo que sea, también escribí "armor" en los prompts negativos para que se viera mejor la cadera, me hubiera gustado que tuviera el fondo similar a pic 1 con la expresión y corona de pic 3 pero sin el error en la oreja (repito que no tengo HiResFix y solo adetailer) pero quizás vuelva a esta imagen, y para cerrar con rubias le toco Lumine, fue mucho más fácil, dejo tanto la versión con la mano errada como la versión corregida.
Y malas noticias para Stability AI (SAI) y la comunidad de SD en general, había decidido mantenerme silente desde que salió la API de SD3 y es que parece que todo lo malo que podía suceder, sucedió, los resultados de SD3 medium (que en teoría sería similar en requisitos a SD XL) son horribles, los únicos resultados buenos que he visto son cuando humanos no estan presentes en la imagen, de resto es un retroceso al nivel de SD 1.4 y con la censura de SD 2.1 para variar. Lo más curioso es que los resultados de la API (pese a la censura) son bastante buenos, los cual nos deja ver un par de cosas: >Lanzaron la peor version a propósito >La versión de la API es la de 8 billones de parametros >SD3 esta camino a ser un fracaso como lo fue SD 2 Súmenle eso que el creador de PonyDiffusion, PurpleSmartAI que pudo haberle dado una base solida temprana a SD3 y alentar la mudanza de usuarios, miembros de SAI se le rieron en la cara y no están respondiendo a si le darán la licencia comercial de empresa, la cual es un tanto ambigua y lo cual nos lleva a que más gente se lo pensará dos veces antes de mudarse a este nuevo sistema y con miembros del staff de SAI insultando a la comunidad, pues tampoco ayuda. Sin contar la API, parece que la única versión decente de SD3 al momento es la que sacaron los chinos de Tencent (esta compañía tiene todos tus datos), mucho antes que decidieran lanzar el modelo base. Al menos seguimos teniendo los modelos SDXL, no sé si esto se solucione lanzando la versión 8b, pero el daño ya esta hecho y la confianza con la comunidad esta quebrada.
>>1545 Negro yo solo uso SD porque es la opción mas cómoda y libre. Que acaso no era un software Opensource?. Cómo puede tener censura? Si he visto que hasta Lolis hyperralistas que razón lo ilegal hechas con SD, sin mencionar que cualquier particular puede entrenar su propio modelo de manera local (siempre que tenga suficiente capacidad obviamente.)
(167.53 KB 842x595 SD3.jpg)

>>1546 >Que acaso no era un software Opensource? No del todo para la nueva versión, poco a poco se están volviendo más y judíos, en parte entiendo que estan al borde de la quiebra, si de por sí los retrasos de SD3 y el silencio ya era una mala señal, lo que hicieron me hace pensar que podrían tomar decisiones peores. Lo del CEO chino y el SD 3 de Tencent no es casualidad. >Cómo puede tener censura? >Si he visto que hasta Lolis hyperralistas Te acabas de responder a ti mismo, kek. A lo mejor no has estado muy pendiente de esto, pero SD 1.5 fue el último modelo sin censura de parte de Stability AI, SD 2.1, SDXL, Stable Cascade y ahora SD3 todos tienen censura, la diferencia es que la comunidad logró sobrepasar la censura de XL y volverlo el modelo usable que es ahora, pero ya vamos con eso. >que cualquier particular puede entrenar su propio modelo de manera local Esta es la parte difícil, si SDXL le costó a la comunidad hacerlo bueno y era más difícil de trabajar, ahora imagínate una arquitectura nueva y al nivel de censura de SD 2.1 (que nadie usa), si no puedes pedirle a SD3 medium una imagen de una mujer recostada en el pasto sin que te salga una deformidad lovecraftiana pues entonce el dataset tendría que ser retrabajado con nuevas capciones que fácilmente podrían ser millones. Todo eso requerirá tiempo y dinero dependiendo del entorno de computación, pero llegamos a la peor parte, la licencia de SD3 desalienta a que se los usuarios hagan refinamientos del modelo, el modelo es gratuito, sí, pero con una licencia de fines no comerciales, si quieres hacer refinamiento y/o recuperar el tiempo y dinero invertido de haber trabajado en base a dicho modelo, vas a tener que pagar primero a StabilityAI con unos términos muy ambiguos, si bien es cierto que no rechazaron del todo al creador de PonyXL (que al menos hizo un producto exitoso y es el meta actual del porno en SD), el cómo lo trataron probablemente eche para atrás a otros creadores de modelos con talento. En resumen, significa que quizás no tendremos un modelo a futuro al cual mudarnos y que el futuro de Stability AI es oscuro, de nuevo no afecta a los usuarios de SD 1.5 y XL pero se nota que es un mal augurio.
>>1547 >de nuevo no afecta a los usuarios de SD 1.5 y XL pero se nota que es un mal augurio. A ver si entiendo, si quiero crear obras sin censura ¿debo de usar la versión SD1.5 o XL? Disculpa si es una pregunta tonta, apenas estoy entrando en esto.
Hola negritos, he vuelto! tuve unos meses un poco problemáticos la verdá! y para colmo el comfyui se me estropeó, quise entrar luego de meses y me tiraba error para todo, tuve que volver a descargar todo desde cero, se me perdieron modelos que incluso me gustaban y no recuerdo los nombres, kek... en fin, dejo algunas monitas que hice hace un par de minutos
(1.92 MB 1016x1504 ComfyUI_00394_1.png)

(1.94 MB 1016x1504 ComfyUI_00414_2.png)

(1.64 MB 1016x1504 ComfyUI_00391_3.png)

(746.28 KB 512x512 ComfyUI_00001_.png)

(1.03 MB 848x848 ComfyUI_00002_.png)

>>1549 ay pero que baboso, me olvidé de adjuntar las picosas >also dejo unas cosas que me salieron medio aberrantes de paso porque vaya a saber que cojones se me desconfiguró al inicio. por cierto, me acabo de enterar que ya salió el SD3 pero que por ahora solo es compatible con el ComfyUI,
>>1547 Escuche que habían grupos saboteando los datasets de las IA, puede que SD tenga el enemigo adentro y por eso van de mas a menos.
(1.08 MB 832x1216 00004-2815277472.png)

(742.40 KB 768x1152 00020-3092784193.png)

(753.33 KB 768x1152 00019-3092784193.png)

(1.20 MB 832x1216 00010-839196329.png)

(1.22 MB 832x1216 00028-2326459974.png)

>>1548 >si quiero crear obras sin censura ¿debo de usar la versión SD1.5 o XL? Puedes usar cualquiera de las dos dependiendo de tu gráfica y/o necesidades, los modelos XL trabajan en resoluciones más grandes y por lo tanto requieren un poco más de VRAM. Yo me mude a XL hace un par de hilos, y no quiero volver atrás, pero SD 1.5 sigue siendo superior en cuestiones de inpaint o animaciones. También considera los modelos PonyXL que como ya he dicho son el meta del contenido NSFW actual en SD. >>1549 >>1550 Me alegra que hayas vuelto, yo también he tenido un tiempo problemático pero aquí sigo, al final encontré un notebook que si bien funciona solo me deja hacer HiResFix cuando le da la gana, así que no me arriesgo. ¡Por cierto excelentes primeras tres imagenes!, veo que sigues usando T-ponynai3, que de hecho el pasado 27 de mayo salió la versión 5.1 optimizada con VAE incluido, lo digo por sino les has echado un ojo ya. >que ya salió el SD3 Si, lo estuve comentando más arriba, lamentablemente SD3 empezó de la peor manera posible y tengo miedo que no haya una base solida a futuro para SD en general, pero bueno, por el momento no nos afecta directamente, así que a generar monas chinas. >>1551 >puede que SD tenga el enemigo adentro y por eso van de mas a menos. Solo sé que desde la partida de Emad como CEO (que no estaba de acuerdo con estos métodos de financiamiento judíos) y pusieron a un chino en su lugar todo de repente parece ir cuesta abajo para StabilityAI, y no sería la primera vez que los chinos sabotean una empresa que me gusta.
(1.18 MB 832x1216 00038-3462086438.png)

(938.79 KB 832x1216 00060-1956258964.png)

(1.01 MB 832x1216 00069-2813845341.png)

(1.22 MB 832x1216 00003-2482948241.png)

(2.12 MB 960x2304 00013-698152782.png)

Unas cuantas más de la sesión de hoy, sigo sin usar loras, la de Lumine quedó casi exactamente como quería, pero supongo que es un poco difícil para Animagine darle ese efecto de estar sentada en el agua de la piscina. No me acordaba el color de cabello de Furude Rika así que hice una mera prueba a ver si el modelo la reconocía, y es que en el anime su pelo es purpura, pero los tags de danbooru la describen con cabello azul, pic 5 fue cuando me di cuenta que de repente podía re-escalar de nuevo (casi siempre me da error), pero me di cuenta muy tarde y encima A1111 no es tan cómodo como ForgeUI al momento de usar checkpoints de SDXL, tengo más de Hu Tao pero la mayoría salieron con las manos muy mal, y creo que en parte es por la perspectiva aunque quería probar una resolución distinta.
>>1547 Kek se ve como el culo. Personalmente no tengo prisas en SD3 aun me falta mucho por aprender de la versión que uso y no he probado XL. Las posibilidades que te abre tan solo entrenar un Lora simple son enormes.
(2.12 MB 1344x1728 00001-3043356018.png)

(2.05 MB 1152x2016 00004-133587507.png)

(2.22 MB 1248x1824 00013-2418067240.png)

Maldita sea, en un domingo y encima día festivo estuvo lleno de interrupciones, no pude generar nada tranquilo. Al principio podía volver a re-escalar pero después de parar el sagemaker y volver de repente no me quería volver a dar la opción de HiResFix de vuelta así que meh, quería traer más, pero veré si a la próxima me va mejor. >>1554 Según la información que leí al parecer lanzaron la beta de SD3 medium y no la versión completa, normalmente tomaría esta información con pinzas, pero es que con tantas mentiras, medias verdades, engaños, sospechas, desastre y falta de profesionalidad de parte de StabilityAI, estoy dispuesto a creerle a cualquiera antes que ellos. Es como si se estuvieran esforzando tanto en cagarla que ya no es divertido.
(1.39 MB 1016x1504 ComfyUI_00425_.png)

(1.50 MB 1016x1504 ComfyUI_00434_.png)

(1.49 MB 1016x1504 ComfyUI_00436_.png)

(1.29 MB 1456x1016 ComfyUI_00446_.png)

(1.55 MB 1112x1584 ComfyUI_00451_.png)

>>1552 Gracias negrito, no es postura cuando yo digo más bien, que me alegra haber regresado y ver que tú aún sigas por estos hilos, aportando lo tuyo, ya sean picosasno noticias. Generalmente no soy mucho de ponerme al corriente con las noticias, pero por lo poco que sé es que si, la están cagando con el SD3 en cierta manera, además que ocupa un espacio bastante considerable, ya me he topado con algunos canales de memetubers diciendo que lo mejor será esperar a que pulan más esta nuevas version del SD. >Also No me había fijado antes pero... >>1544 >>1552 >>1553 >>1556 <Lumine, Hutao y Xinyan Coño negro, has dado con mi debilidad, adoro a las monitas de genshin, son material para mis infinitas pajas!! >>1557 Estas también me encantan, en especial las 2 primeras! ¿Que modelo son respectivamente? >Also Dejó algunas picosas que hice hace unos minutos de mona, una de mis favoritas.
(156.54 KB 1024x1024 OIG3.jpeg)

>>1558 AnyLora es el único modelo que uso, antes tenía un modelo para hacer imágenes un poco más realistas pero no lo usaba tanto y necesitaba espacio para instalar modelos de ControlNet. Para alterar el estilo uso Lora, las 3 imágenes usan el mismo pero con diferentes grados de influencia, Primera imágen: fuerza del lora normal sik alterar, Segunda imagen: 0.6 + otro lora de estilo que mejora mas la anatomía pero le quita tetas lol, Tercera imagen en realidad es un img2img de hoy primera: 0.3 de fuerza. El Lora lo entrené con imágenes que genere en Bing(pic related) en Tensor Ai.
(2.19 MB 1024x1536 00018-954194985.png)


(1.03 MB 640x1536 00011-3327988010.png)

(1.02 MB 640x1536 00043-3113896144.png)

(1.10 MB 640x1536 00044-666349577.png)

>>1558 Trataré de seguir lo más que pueda. Recientemente logré re-instalar ForgeUI y la verdad que extrañaba la velocidad de esa interfaz, pero perdí las tres horas de sagemaker en los errores que me salían. Lo más triste es que probablemente jamás le saquen nuevo soporte, es lo malo del open source, a veces sacan algo muy bueno y después lo abandonan. También perdí el acceso a la herramienta de Inpaint que usaba, así que no se sí vuelva a subir más procesos como antes, este logré salvarlo antes se me bloqueara, pero supongo que al menos arreglé lo esencial. >adoro a las monitas de genshin Genial, yo soy más de Touhou (aunque lo dejé en la demo del juego 17 y no volví más) pero supuse que algunos les gustaría y ya veo que así fue, además también quería variar un poco. Dejo algunas más de Hu Tao que me sobraron de la vez de la vez pasada sin refinar, pic 5 casi le arreglo una mano con adetailer, pero empeoró la otra. Por ahora me gustan bastante el diseño de Ganyu y Xinyan. >>1557 Esto me recuerda, hace tiempo que no generó nada de Ilulu, me gusta mucho como quedaron los pezones y areolas en pic 2.
>>1547 Justo ayer entre a Civitai y me fijé en el mensaje que dejaron, están prohibidos los modelos basados en SD3 hasta que se aclare la licencia. De verdad la cagaron lol >>1558 >>1560 Gracias el Lora de Ilulu lo hice yo mismo pero es algo defectuoso y no siempre funciona bien, supongo que tiene que ver con que el dataset se enfocaba mucho en la forma de sus tetas KEK, definitivamente tengo que hacer otro. El de Civitai no me funciona. Adjuntó otras imágenes que hice ayer de Bache.
(1.16 MB 1024x1536 00002-2603281772.png)

(1.55 MB 1024x1536 00009-1434149322.png)

(1.06 MB 1024x1536 00014-395473325.png)

(1.12 MB 1024x1536 00019-395473325.png)

(1.17 MB 1024x1536 00029-417265688.png)

Probando nuevo notebook con A1111 1.9.4 como estoy usando la interfaz "Padre" en su más nueva versión se me ocurrió al fin probar al fin los nuevos samplers de Euler Dy/Euler Dy Smea que tratan de mejorar el resultado de manos en SD 1.5 para modelos anime, en su momento salida estaba la interfaz 1.9.0 y en ambas es tan fácil de instalar como ir a la pestaña de extensiones. Por si acaso les digo no se molesten en intentar usarlos en SDXL. Ahora bien, probé un poco con GhostMix (pic 2) pero me decidí con Anything V5 Ink base con Blessed2Vae como principal debido a su estilo más 2D, y llegué a la misma conclusión que había llegado antes de probarlo, es tratar de curar una pierna rota con una bandita, pero es bueno, al principio noté que tiende a poner más borroso el área de las manos lo cual no es exactamente una solución, y es que sin entrar a los aspectos más técnicos, los modelos Euler si bien brillan en velocidad siempre suelen ser lo más suaves, así que medio entiendo porque sucede esto. También noté que pese a mantener el mismo núm. seed la composición siempre cambia bastante entre ambos samplers, como pueden ver con pic 3 a 4 y en los siguiente ejemplos.
(1.10 MB 1024x1536 00025-417265688.png)

(1.01 MB 1024x1536 00035-1461672201.png)

(1.08 MB 1024x1536 00039-1461672201.png)

(1.08 MB 1024x1536 00044-3443712925.png)

(1.06 MB 1024x1536 00046-3443712925.png)

>>1562 Para Reisen cambie el set de prompts un poco, noté que tanto como la última pic de post anterior y esta pic 1 fallaron en darme el símbolo de "V" o paz (o casi lo logró en este caso) también es posible sobrepasar un poco la borrosidad con los adetailer, ahora bien, creo que es bueno porque si bien no esta al nivel de lo que he visto y probado en SDXL, son manos que son mucho más fáciles de trabajar en Inpaint que lo que recuerdo en SD 1.5 y creo que si se usa en conjunto con Control Net OpenPose (que muchos usuarios de Sagemaker como yo no podrán usarlo por falta de almacenamiento) hará que estos nuevos samplers sean mucho más útiles y por lo que veo tuvieron una actualización, así que si están usando modelos anime en SD 1.5 por cualquier razón lo recomiendo. No probé los samplers de Euler Negative por falta de tiempo ya que de por sí me costó mucho instalar el nuevo notebook, pero creo que Euler Dy (pic 3 y 4) suele ser un poquito mejor en mi opinión, ustedes pueden probarlo a su gusto. También me gustó el modelo Anything v5 Ink Base, me da bastante nostalgia, pero, igual me siguen dando unas ganas tremendas de seguir usando XL.
(1.49 MB 768x1280 image (2).png)

(995.17 KB 768x1280 image (3).png)

(1.37 MB 768x1280 image (4).png)

(1.26 MB 1024x1024 image (5).png)

(961.45 KB 768x1280 image (6).png)

>>1561 Para colmo estuve probando el modelo chino basado en la arquitectura de SD3 y los resultados fueron bastante malos, lo único medio decente fue pic 1. Aunque bueno, ya veo que la comunidad empezó a darle soporte a SD3 pese a todo, ya veo que puede usarse mediante A1111 y creo va a tener control net. Ojala y me equivoque y así el futuro no sea tan malo para este modelo.
(1.66 MB 1248x1824 00005-2095608118.png)

(1.79 MB 1536x1536 00010-4258758938.png)

(1.55 MB 1536x1536 00003-2890447774.png)

(2.20 MB 1248x1824 00008-945152782.png)

(1.12 MB 832x1216 00021-1017976251.png)

Trate de ver si era un problema del navegador, y en parte lo era, lo cambie por otro y Sagemaker ya no me desconectaba (me daba un error raro) pero Zrok me sigue desconectando bastante, literalmente como 10 veces hoy y tuve reiniciar el entorno un par de veces, ahora bien en parte se puede simplemente relanzar la celda de inicio de SD (lo cual no es aplicable siempre ya que a veces se traba y hay que reiniciar el entorno desde cero) pero sigue siendo cansino estar en un proceso de refinamiento y que se corte el resultado al estar cerca de terminar y eso sin contar las interrupciones exteriores, ni siquiera sirvió hacerme una nueva cuenta para el token, ya no sé que hacer, me gustaría continuar estos hilos, pero ni el propio servicio me deja usarlo tranquilo. Dejo algunas que medio logré generar hoy.
(2.37 MB 1536x1536 00000-611667437.png)

(1.18 MB 832x1216 00003-1391152420.png)

(1.10 MB 832x1216 00012-3022060207.png)

(996.68 KB 832x1216 00027-3312483885.png)

La chica zorro que debería ser fennec que intenté aquí >>1543 en pic 1, al fin salió como quería, fue de ayer. Las otras me sobraron de distintas sesiones, excepto Mona de hoy, lamentablemente no les pude dar el refinamiento correcto.
Día ocupado en el trabajo, como ya saben hay muchas noticias en el mundo de la IA que o si bien son mierda miscelanea que no nos afecta y no podremos usar, pero estas me parecieron interesantes y son relacionadas a SD . La primera es BitsFusion, quitando toda la mierda técnica, es una forma de reducir el peso de los modelos de SD 1.5 aún más, por lo que un modelo de 1.72 GB pasara a unos módicos 219 MB y supuestamente (aquí es dónde hay que ser escépticos) tendrá incluso una mejora de rendimiento mientras que antes se esperaba que al reducir un modelo este no perdiera mucha calidad. No han liberado el código aún pero se teoriza que puede ser posible aplicarlo a SDXL, sería muy cómodo en servicios como Sagemaker dónde apenas da unos 25 GB de almacenamiento, pero parece que no podrá ser posible con SD3 por la falta de UNET. También no sé se sabe si los loras seguirán siendo compatibles o si habrá que entrenarlos de cero (probablemente sea esto último) Mis temores eran ciertos, ForgeUI esta muerto, sé que es de hace dos semanas, pero es una lastima ya que es la mejor UI para modelos SDXL, el SD Fooocus sirve pero su interfaz deja mucho que desear, en cambio A1111 pese a todas las actualizaciones del mundo siempre me da alguna especie de error en XL. Esperemos que alguien más retome el proyecto y/o recapaciten en continuarlo. Los que tengan una GPU poco potente tendrán que resignarse a usar ComfyUI. Y de la familia de LoRA, LoCon, LyCORIS, LoHa, LoKr, (IA)^3, Dylora, ahora existe DoRA, de hecho me había dado cuenta de su existencia antes cuando estaba discutiendo el estilo de Asanagi en el personaje de Kirino, pero no le di importancia, kek, lleva un par de meses, pero es básicamente lo mismo, se usan igual que los loras y ciertas mejoras en estabilidad y calidad. Pueden encontrarlos en CivitAI, pude ver al menos 58 de estos y se siguen haciendo más. Pueden entrenarlos con Kohya si alguien quiere aventurarse a ello pero no me pidan consejos. Fuentes: https://snap-research.github.io/BitsFusion/ https://github.com/lllyasviel/stable-diffusion-webui-forge/discussions/801 https://arxiv.org/abs/2402.09353
>>1567 Eso me recuerda negro, hay algún Collab para entrenar Loras para SDXL?.
(1.76 MB 1248x1824 00007-4121799663.png)


>>1568 >hay algún Collab para entrenar Loras para SDXL?. Cy, hay varios de hecho, disculpa por la tardanza, día ocupado. Ten en mente que para XL necesitaras imagenes de 768x768 como minimo y 1024x1024 cómo máximo, y cómo todo en XL es más grande, con Colab gratuito puede tardar unas dos horas o dos horas y media un lora con 70 imagenes de 11 epochs y alrededor de 1000 steps para que te des una idea. Le dejo una guía que encontré esta en inglés y los recursos. Le recomiendo los dos primeros. <XL Lora Trainer by Hollowstrawberry https://colab.research.google.com/github/hollowstrawberry/kohya-colab/blob/main/Lora_Trainer_XL.ipynb <Dataset Maker (taguea las imagenes automáticamente) https://colab.research.google.com/github/hollowstrawberry/kohya-colab/blob/main/Spanish_Dataset_Maker.ipynb <Tutorial LoRA para PonyDiffusion (Jewtubo) https://www.youtube.com/watch?v=fF5CDySZw3o <AutoTrain DreamBooth https://colab.research.google.com/github/huggingface/autotrain-advanced/blob/main/colabs/AutoTrain_Dreambooth.ipynb <Kohya LoRA Trainer XL https://github.com/Linaqruf/kohya-trainer/blob/main/kohya-LoRA-trainer-XL.ipynb
(2.05 MB 1536x1536 00009-3578664749.png)

(1.98 MB 1248x1824 00002-3290209074.png)

(2.88 MB 1536x1536 00005-2651549096.png)

(2.07 MB 1248x1824 00010-1125678243.png)

(2.05 MB 1536x1536 00031-361550909.png)

Más que un día ocupado fue un día con interrupciones y problemas, difícil saber cuando es Sagemaker quién me desconecta y cuando Zrok. Encima quería probar el nuevo Blue_Pencil XL v7 y de repente CivitAIBrowser+ volvió a fallar. En fin no puedo hacer nada cómodamente. Dejo algunas que generé en dos sesiones, no es mucho, pero espero volver con más.
(1.86 MB 1248x1824 00007-2338202998.png)

(2.08 MB 1248x1824 00009-44644392.png)

(1.95 MB 1248x1824 00017-1762950292.png)

(2.05 MB 1248x1824 00024-1850109202.png)

(1.83 MB 1248x1824 00026-2380248356.png)

Algo de la sesión de hoy, pude usar la versión Dev de ForgeUI, le faltan un par de cosas pero sigue siendo buena.
(2.04 MB 1248x1824 00003-2809720629.png)

(2.06 MB 1248x1824 00045-3555973702.png)

(2.04 MB 1248x1824 00047-3958632227.png)

(2.00 MB 1728x1344 00017-3576826246.png)

(2.01 MB 1728x1344 00022-3455141060.png)

Iba a generar una sola, y de repente me volví loco generando imagenes de Sanae, a diferencia de todas las imagenes que subí antes, tuve que un usar un LoRa debido a que AnimagineXL no la reconoce del todo bien por sí solo como el adorno de rana en la cabeza y el adorno de serpiente en el pelo (el cual cuesta que salgan los ojos), también recomiendo el prompt "single sidelock" para generar a Sanae, pero aún con el LoRA no siempre lo agarra. Recomiendo la fuerza a "0.8" en vez de "1".
(2.30 MB 1248x1824 00036-1355201376.png)

(1.07 MB 832x1216 00037-3211312521.png)

(2.23 MB 1248x1824 00042-2778271249.png)

(2.15 MB 1248x1824 00062-1137847728.png)

(2.14 MB 1248x1824 00075-1647525627.png)

Pic 1 tuve que hacerle Denoise Strenght hasta 0.6 para que saliera un número aceptable de dedos. Pic 2 (se me olvidó HiResFix) llevo a pic 3, el prompt "breast rest" es bueno para estos casos pero si no especifican el objeto (ejemplo: "school_desk") les va a dar un objeto random. Creo que una de las cosas más difíciles es que la serpiente salga con el número correcto de ojos como en pic 4 (algo que sería muy fácil de arreglar en inpaint) así que no quise seguir variando pero al menos agarró el prompt de "single sidelock". La de la cama costó porque no conseguía hacer que luciera realmente acostada, tuve que usar prompts como "on bed", "sleeping", head on pillow", etc no sé si exista un lora para monas chinas dormidas en una cama, pero fue lo más cercano que pude lograr. Ya después de hice un Denoise Strenght a 0.6 hasta que la mano saliera medio adecuada.
Alguno de ustedes puede usar aún SageMaker? No me funciona bien en ningún navegador ni siquiera después de actualizar ya que pensé que ese podría ser el problema (El entorno de Stable Diffusion lo cargaba mal y no generaba nada) pero ya ni siquiera me carga la pasteña del cuaderno. Me logueo y todo pero al botón de Open Proyecto no carga una mierda.
(47.00 KB 1217x364 2024-06-30_12-07-08.png)

(77.92 KB 559x900 2024-06-30_12-15-59.png)

(50.52 KB 667x775 2024-06-30_13-12-19.png)

(281.39 KB 1166x796 2024-06-30_12-47-31.png)

(2.24 MB 1344x1728 00007-2013578961.png)

>>1574 >Alguno de ustedes puede usar aún SageMaker? Creo que muy pocos acá siguen usando Sagemaker, pero sí, las Sanae fueron de ante ayer y las publique temprano ya que estaba probando un notebook de Kaggle, pero vi tu mensaje y me dispuse a probarlo hoy. Tiene sus problemas de siempre, desconexiones porque sí, antes podía descargar un modelo XL a +300 MB de velocidad (+30 MB sin aria2) gracias a CivitAIBrowser+ y ahora se corta al 90 % etc, algo siempre sale mal, pero he aprendido a vivir con estos errores y reinstalar notebooks se ha vuelto un habito. >Open Proyect no carga ¿O sea que no te funciona el botón purpura? Esto es raro, usualmente solo me pasa cuando le doy a limpiar y remover todos los env, cache y archivos para una instalación limpia y cuando trato de regresar me aparece una página en blanco pero es de esperar, después de reiniciar el entorno ya sea de CPU a GPU o viceversa todo vuelva a la normalidad. Puedes tratar de agregar el script de [*.]awswaf.com pero no creo que ayude mucho, revisa si con la CPU puedes entrar y ver la pagina de Launcher y después podrías tratar de reinstalar el entorno con la GPU. Estas son de hoy.
(2.22 MB 1248x1824 00008-19420560.png)

(2.06 MB 1248x1824 00035-658645481.png)

(2.21 MB 1248x1824 00006-3450443624.png)

(2.51 MB 1248x1824 00013-2719539310.png)

(2.39 MB 1536x1536 00005-3450443624.png)

>>1576 Me alegra, es muy raro que sagemaker te quite una cuenta, a pesar del mensaje de advertencia de las contraseñas, yo he fallado más del limite y nunca me canceló la cuenta, kek. >civitai Browser He notado que esta extensión solo me funciona después de una instalación limpia, la última vez hubo una actualización del entorno de Jupyter lab y de repente me volvió a fallar para descargar modelos SDXL pese a tener espacio suficiente lo cual es malo porque hay muchos modelos que han salido y he querido probar como SDXL_Niji_v6 o Blue Pencil XL v7, etc, pero para loras sigue sirviendo, como la imagen de Flandre, pero estos apenas pesan como 20 MB. La sesión de ayer fue bastante mala así que no pude traer mucho.
(2.33 MB 1728x1344 00000-3191205872.png)

(2.22 MB 1248x1824 00008-1371558593.png)

(2.11 MB 1248x1824 00015-1236155837.png)

(2.10 MB 1248x1824 00014-1794379296.png)

(2.28 MB 1152x2016 00024-975763498.png)

Algunas de la sesión de ayer, fue buena, apenas tres desconexiones. Afortunadamente Animagine reconoce a Samus, pero pic 4 tuve un problema con el prompt/tag de "breasts squeezed together" (quizás "breast press" hubiera sido más correcto) y lo leyó como Samus agarrando sus propios pechos ignorando el prompt de "hands on knees", pero ahora que lo pienso debí haber escrito "hands on own knees" o hasta "v arms" para lograr ese efecto. Y pic 5 por alguna razón me dio problemas con el lunar y tuve que bajar el denoise strength a 0.2
La verdad esto lo vi hace un seis días, y estaba pensando como presentar esta noticia, así que para ser breve, después de la cagada y la traición de Stability AI, la comunidad Open Source decidió unirse para crear un nuevo modelo gratuito y con una licencia abierta que permitirá que los usuarios puedan refinarlo a gusto a diferencia de SD3. No llegará pronto y no será fácil, estas cosas toman tiempo, pero todo apunta a que tendremos un sucesor espiritual de Stable Diffusion,entre sus más de 100 colaboradores se encuentra el propio creador de PonyXL y plataformas como la propia CivitAI o Comfy.org están involucradas también, lo cual le da solidez al asunto. Son muchas promesas, sí, pero final puede que haya una luz al final del camino para la IA generativa de software libre. <Fuentes: https://civitai.com/articles/5884/civitai-joins-the-open-model-initiative https://civitai.com/articles/5914
(2.13 MB 1248x1824 00000-81330489.png)

(1.99 MB 1248x1824 00004-1122896497.png)

(2.05 MB 1248x1824 00001-2731673506.png)

(2.38 MB 1248x1824 00003-2172846942.png)

(2.07 MB 1248x1824 00006-1781427734.png)

Y más problemas con el notebook, la versión DEV de ForgeUI no es tan buena, tendré que conformarme con A1111, dejo algunas de las que pude terminar ayer.
Pude recuperar el acceso a la herramienta de Inpaint, nada más tuve que cambiar el navegador, dejo un par de Inpaints ligeros aunque sea para recordar como se usaba, la de Eishin Flash me dio bastantes problemas por la cola en Txt2Img, así pusiera "two_tails" en los prompts negativos el modelo estaba empeñado en mantener la cola de la derecha o en darme un objeto raro, lamentablemente no todo se puede arreglar a base de prompts, bueno, Inpaint usa prompts, pero ya me entienden, fueron 21 variaciones; la peli taladro genérica no hay mucho que decir, excepto que por alguna razón se enfocaba en mostrar la mano detrás de los muslos, pero sí les soy honesto ni siquiera obtuve la expresión que quería realmente, solo la pose. Y la última no hice Inpaint, pero quería ver si animagine podía hacer furras, como nota curiosa si le subo demasiado el Denoise Strenght el pelaje se empieza a fusionar con la ropa.
(2.16 MB 1248x1824 00004-2395990886.png)

(2.23 MB 1248x1824 00008-1994842349.png)

(2.02 MB 1248x1824 00010-2411641743.png)

(2.05 MB 1248x1824 00012-3330217964.png)

(2.25 MB 1536x1536 00008-3723739112.png)

Y disculpen por no haber actualizado, al final me mude de vuelta a A1111 1.9.4 y puedo volver a re-escalar a 1.5 otra vez, dejo algunas que generé ayer tarde en la noche, un par de accidentes felices, la pic de Taihou no iba a ser un "nipple slip" sino solamente iba a llegar hasta al área de la areola (areola slip) y tengo una versión así pero con la mano deforme, por alguna razón arreglar el dedo afectó el área del pecho, kek. La pic 3 de Karin fue un accidente feliz dónde se me olvidó dejar el número seed intacto. En una nota aparte, Stability AI (SAI) después de pegarse numerosos tiros en el pie, parece haber recapacitado y actualizaron su licencia de SD 3, por una menos mierda, se nota que ellos necesitan los finetunes y apoyo de la comunidad, quizás al final si podamos ver a PonyV7, también dijeron que lanzarían un nuevo modelo (quizás la versión Large de 8b) pero, prefiero que no apresuren las cosas, esperemos que SAI entre en su arco de redención. <Fuentes https://x.com/StabilityAI/status/1809274908641489160 https://stability.ai/news/license-update
(612.91 KB 1121x887 2024-07-08_11-17-47.png)

(2.22 MB 1024x1536 00042-2066352601.png)

(2.30 MB 1024x1536 00045-3133676680.png)

>>1583 >es de algún juego anon? Hola, pues no, si bien genero varias monas de videojuegos por conveniencia ya que Animagine las reconoce, en este caso simplemente quería probar prompts simples, así que solo hice tres variaciones, como puedes ver el modelo siguió bien los prompts, solamente me hubiera gustado un look más egipcio en la parte superior con unas orejas tipo Anubis (me doy cuenta ahora que debí haber pedido "jackals ears" en su lugar mi error) aunque creo que de haber jugado más con el denoise strenght la mano hubiera salido un poco mejor, lo único que le puedo decir es que si quiere un efecto más "suave" el bajar el guidance scale + Euler A como sampler es buena idea. Como Sagemaker es un dolor en los huevos y no pude generar nada para hoy, le digo que hace un tiempo generé estas monas nativas con GhostXL para un pedido acá y un amigo me dijo al verlas que hubieran quedado bien para un juego.
(2.23 MB 1248x1824 00003-1040741667.png)

(320.02 KB 1664x2432 00004-1040741667.jpg)

(3.90 MB 1664x2432 00006-1040741667.png)

(17.98 KB 588x260 TiledVAE.png)

Bueno, supongo que hemos llegado a lo último de los hilos de IA generativa, fue divertido mientras duro, dejaré un poco de mi sesión de ayer y un par de consejos habituales. Si estan usando la interfaz de A1111 y quieren hacer un HiResFix un poco mayor, les recomiendo que vean si tienen la extensión de TiledVAE. Ponen los parametros a "1536 y 96" después desactivan los fast encoder/decoder, ahora bien, mientras este activado, van a notar un ligero bajón de velocidad al momento de hacer HiResFix pero no perderan calidad al momento de hacer esto. En teoría deberían poder re-escalar hasta x4 pero creo que con HiResFix x2 ya es mucho, si notan la segunda imagen ya da muchos resultados incongruentes con un Denoise Strenght a 0.55, en pic 3 decidí bajarlo a 0.35 y me agradó el resultado. En ForgeUI pueden usar la extensión de Never OOM. Si van a usar Sagemaker en el entorno de JupyterLab, en la terminal pueden ver que tanto espacio disponible tienen con el comando: cd /home/studio-lab-user du -sh Y para limpiar el cache pueden usar el comando en la terminal: rm -r /home/studio-lab-user/.cache
(1.10 MB 832x1216 00008-3155295451.png)

(1.89 MB 1248x1824 00017-74154682.png)

(1.96 MB 1248x1824 00019-74154682.png)

(2.33 MB 1248x1824 00029-4067811000.png)

(2.62 MB 1728x1344 00044-1383178640.png)

Se me ocurrió probar un loRA de Cirno, comencé con fuerza a 0.8 y luego a 1, una de las cosas que más me costó fue hacer que sacará las alas de hielo en la espalda, que apropósito, si le dan a la opción "nearest" a re-escalar en Img2Img les dará un efecto más difuminado como en pic 2, pero no me termina de gustar.
(2.20 MB 1248x1824 00034-2806988739.png)

(2.35 MB 1248x1824 00038-2353913232.png)

(2.46 MB 1248x1824 00039-3301413983.png)

(1.34 MB 1248x1824 00050-65056187.png)

(2.11 MB 1248x1824 00059-3148091747.png)

Quise probar otros personajes, el modelo reconoce por sí solo a Orihime pero me da un símbolo raro en el área del pecho aunque al menos entiende que debe haber un símbolo ahí en el uniforme, después probé el LoRA de Yakumo Ran, funciona bien a 0.8 pero reconoce todos los símbolos que hay en su traje y si bien generé 15 de estas no logre sacara las nueve colas, kek tengo un par pero me centré demasiado en Cirno.
>>1585 Como que hemos llegado a lo último? Te refieres al hilo o a la falta de actividad?.
(1.59 MB 1248x1824 00048-907726079.png)

(1.59 MB 1248x1824 00049-907726079.png)

(1.66 MB 1248x1824 00054-907726079.png)

(5.96 KB 848x74 2024-07-10_19-21-17.png)

>>1586 Un par de aclaraciones las alas de hielo de Cirno solamente me costó sacarlas estando ella de espalda, de frente salen fácil, el LoRa es bueno. >>1587 Si bien es uno de los rasgos característicos del personaje, no me pareció buena idea idea dejarle el gorro a Yakumo Ran en la playa. De todas formas, no se que prompt se puede usar para sacar las nueve colas pero si me pongo quisquilloso, pudiera contar 8 colas en la última pic. >>1588 >Te refieres al hilo o a la falta de actividad?. Lo segundo pero viéndolo ahora, de todas formas ya estábamos acercándonos al limite de bumps, solamente somos como dos usuarios aquí en el tablón (pic 4), y siendo honesto no puedo continuar estos hilos yo solo, me encanta generar imagenes y creo que seguiré haciéndolo así Sagemaker sea un dolor en las bolas, pero hay que admitir cuando algo ha terminado, si te hace sentir mejor, llegamos bastante lejos con estos hilos, y aún siente como si hubiera sido ayer, fue un placer promptear con ustedes. Dejo algunas Yakumo que me sobraron probando expresiones.
negros, una consulta... si por ejemplo estoy usando un checkpoint basado en pony, ya saben, para hacer mejores escenas porno... pero si quiero descargar LoRAs, en las etiquetas de esos LoRas? que debo buscar? que diga "pony"? porque estoy viewndo que algunos dicen 1.5 o sino XL... y asi. pregunto esto más que nada porque tengo entendido que existe incompatibilidad en modelos, y no quiero estar descargando toneladas de loras al pedo sino me van a funcionar.. ayudaaaaaaaaaaa!!! >>1585 >Bueno, supongo que hemos llegado a lo último de los hilos de IA generativa negro nooooo,no se vayan la ptm!
(2.10 MB 1248x1824 00020-532566836.png)

(1.39 MB 1034x799 Pony LoRas y Modelos.png)


(1.17 MB 1208x1527 LoRA Pony y SD1.5.png)

(73.25 KB 577x697 Filtros de modelos.png)

>>1590 Bueno, supongo que puedo responder esta última pregunta. >en las etiquetas de esos LoRas? que debo buscar? <El símbolo del caballito en CivitAI Fíjese más que nada en el símbolo en la esquina superior izquierda después del nombre del modelo antes de cliquear, notará que PonyDiffusion se distingue entre las etiquetas de texto de SD1.5 y XL, ahora, hay modelos que son Pony que no lo indican directamente en el nombre (aunque son minoría), por ejemplo el nueve de junio salió Hassaku XL (Hentai) v1.3 a lo que yo pensé que era SDXL y no, esta basado en Pony, AutismMix SDXL confetti es Pony pese a el nombre, Real Dream y SXZ Luma también, etc. Simplemente con ver el símbolo del caballito le ahorrara confusiones y tiempo, le hice algunas marcas, como puede ver en Pic 4 la pagina de CivitAI da el aviso de que puede haber problemas compatibilidad, o sea que si bien PDXL parte de la misma arquitectura, puede que no de el resultado deseado con modelos SDXL, por lo tanto es mejor jugar a los seguro y no llevarse una mala pasada. También puede poner filtros para que le salgan los modelos que quiere ver de equis arquitectura, aunque le advierto que CivitAI esta tomando un giro a peor hacia la censura, así que lo mejor es guarde todo lo que le interese, yo me arrepentí de no salvar unos TI embeddings útiles para XL que no pesaban nada y los borraron por alguna razón.
>>1589 Somos exactamente 3 negro. Éramos más pero si algo he aprendido es que el tráfico en esta página no es para nada constante. Por eso unoa veces deja de publicar por un tiempo esperando que se acumulen un poco las respuestas. >>1590 Seguiré publicando y no creo que OP se vaya aunque capaz reduce su actividad acá. Dejo algunas cosas que hice ayer. La tercera imagen fue el resultado de un Lora de estilo que no resultó exactamente como quería, pero la imagen se me hizo graciosa y por eso la guarde.
(2.10 MB 1248x1824 00006-2860159247.png)

(1.74 MB 1248x1824 00012-3186535747.png)

(1.74 MB 1248x1824 00023-3605752372.png)

(2.13 MB 1248x1824 00032-1381429232.png)

(2.21 MB 1248x1824 00040-315023182.png)

Bueno mis negros, después de reflexionarlo un poco y ser desconectado más de 12 veces en mi sesión de JuggernautXL X (buen modelo pero no puedo usarlo a gusto) generando unas miseras 8 imagenes, decidí que sería muy hijo de puta de mi parte abandonarlos sabiendo que apenas es mi primer hilo como nuevo OP, hemos tenido dificultades antes como el cierre del Colab gratuito que fue duro para todos y si los dejo no sería correcto, si me dan un nuevo tema les haré un nuevo hilo lo más pronto posible, ya gaste mi sesión de hoy, fue larga pero para colmo hoy tuve muchas interrupciones exteriores, pero al menos ya cumplí mi capricho de tener un hilo de negritas/piel oscura (ya hubo un hilo gyaru bronceadas así que no me centré en estas) A propósito noté que las manos salen un poco mejor si le especificas no solo la posición sino la forma, por ejemplo "hands up+clenched hands" en pic 4, al menos sirve en el modelo que estoy usando. Haré lo mismo, consejos, imagenes generadas, sesiones de Inpaint y tratar de mantenerlos informados de todo lo relevante del mundo de Stable Diffusion. >>1590 Vale, seguiré aquí, si no es usuario de SD local pues le recomiendo Sagemaker para empezar a generar imagenes y acostumbrarse a usarlo, no hay nada como una GPU potente, así sean apenas 4 horas al día, se pueden tardar tres días en darle la cuenta. >>1592 De hecho sí los iba a dejar, kek, pero haré un nuevo hilo si me dan un nuevo tema que no hayamos hecho antes. Si no me dan uno tendré que inventarlo. Iba a responder más temprano pero tuve que atender un par de cosas en el negocio, creo que ya sé que problema tengo con sagemaker que algunas sesiones me va bien y otras mal. Por ahora dejo esto de la sesión de hoy antes de archivar el hilo, a partir de la imagen núm. 16 y algo me empezó a ir mejor.
(2.99 MB 1728x1344 00003-146525059.png)

Y más malas noticias, parece que logré terminar de cagarla y ahora los dos notebooks de Sagemaker que usaba no me funcionan bien, la suerte no esta de mi lado. Pudiera hacer un hilo 16 pero creo que sí se siente como que hemos llegado al final.
Hola mis negros o negro que aún estén vivos en este hilo. He vuelto a interesarme por la generación de imágenes después de un largo tiempo ¿Cómo está el panorama? pudiera leerme las casi 200 respuestas del hilo, pero creo que es más productivo pedir un resumen a algún buen samaritano que quiera responderme. ¿Aún hay algún método existente para hacer esto por medio de la nube?
(131.50 KB 1024x1024 OIG2.jpg)

(143.56 KB 1024x1024 OIG1.hpVW5NH0z1yv.jpg)

(150.73 KB 1024x1024 OIG1.jpg)

>>1595 >Chequeados esos triples infernales Soy el OP de estos hilos (o lo que queda). >¿Cómo está el panorama? Diría que la comunidad Open Source es cada vez más fuerte y unida, nuevos programas, modelos variados, extensiones, uniones de comunidades open source, bajo ese aspecto las posibilidades son infinitas, aunque hubieron un par de por menores con StabilityAI queriéndose volver judío, y yo mismo temo que todo vaya a ser más censura en el futuro, pero por el momento aún le queda mucho a los modelos SDXL para dar. >¿Aún hay algún método existente para hacer esto por medio de la nube? Esto lo mencionó el antiguo OP de estos hilos, el generar mediante notebooks de GPU en línea se ha vuelto tierra de nadie, el único método de confianza, se ha vuelto generar mediante studiolab sagemaker aws, tardan como tres días en activarte la cuenta y brinda 4 horas de GPU gratuita por día con apenas 25 GB de espacio permamente, aunque en lo personal he tenido bastantes problemas con este servicio, pero parece que soy el único, kek. Luego existen Kaggle pero tiene censura y ya sabemos para que usamos SD, y luego LightningAI da apenas 22 horas gratuitas al mes, muy poco. No sé si algún día saldrá un mejor servicio que sagemaker, pero por el momento es lo mejor que hay. generar mediante notebook es lo que le permitirá tener más control sobre sus imagenes y podrá aprender bien a usar SD.
(2.76 MB 1224x2048 20240719225720.png)

Un pequeño aporte para mantener algo vivo el hilo, una imagen de la subdirectora Luna. >Also Es increíble lo mucho que esto de la IA a avanzado en par de años, aún recuerdo cuando en los primeros hilos son emocionaba por generar imágenes que con el estándar actual son pésimas, como LoRas y modelos antiguos que en su día eran lo mejor a la hora de generar, pero ahora sean sumamente obsoletos... ¿Cómo han vivido este cambio los negros que aún siguen por este hilo? >¿Tienen algún modelo/LoRa al que le guarden cierto cariño/aprecio a pesar de ser sumamente obsoleto hoy día?
(1.58 MB 1024x1536 00005-4085004805.png)

(1.21 MB 864x1152 00030-2336138160.png)

>>1597 Gracias por pasar. >esto de la IA a avanzado en par de años Si, es gracioso porque siempre la expectativa humana es "la IA tardará cinco años en..." y la IA usualmente tarda mucho menos, kek, ya la IA puede generar texto, imagenes, música, 3D y ahora estamos en el boom de los vídeos con IA. Por supuesto no es perfecto en ninguna de esas áreas, pero se sigue superando así misma cada vez más. >con el estándar actual son pésimas Concuerdo, aunque todavía guardo con cariño mis viejas imagenes de Colab, hace poco estaba probando el viejo GhostMix de SD 1.5 (pic 1) y si bien no envejeció tan mal, no tiene nada que hacer contra modelos XL actuales como pic 2 (y sin refinamiento) >¿Cómo han vivido este cambio los negros que aún siguen por este hilo? Con dificultad de estar al día, salen tantas cosas que desearía probar y sé que no podré, todo es cada vez más rápido y los nuevos modelos son cada vez más pesados, los 25 GB de sagemaker no dan para mucho, y si bien la comunidad de SD es open source y gratuito, los servicios se están volviendo cada vez más judíos o con censura. >Modelo/Lora más cariño Tendrían que ser AbyssOrangeMix y creo que el lora que más llegué a usar fue Add More Details - Detail Enhancer de Lykon y me sigue pareciendo altamente necesario en modelos SD 1.5, Cetus Mix sería fácilmente mi segundo favorito, quizás DarkSushi en un tercer puesto. En un punto aparte, decidí hacer un nuevo hilo, ya seleccione el tema, solamente espero poder arreglar mi problema con Sagemaker, sino no podré subir imagenes propias al hilo, y no quiero tener que rellenar esto solamente con post de CivitAI o Aibooru.


Forms
Delete
Report
Quick Reply