/pruebas/ - Hisporno

Tablón porno de habla hispana

Index Catalog Archive Bottom Refresh
Options
Subject
Message

Max message length: 12000

files

Max file size: 32.00 MB

Total max file size: 50.00 MB

Max files: 5

Supported file types: GIF, JPG, PNG, WebM, OGG, and more

E-mail
Password

(used to delete files and posts)

Misc

Remember to follow the Rules

The backup domains are located at 8chan.se and 8chan.cc. TOR access can be found here, or you can access the TOR portal from the clearnet at Redchannit 3.0.

Uncommon Time Winter Stream

Interboard /christmas/ Event has Begun!
Come celebrate Christmas with us here


8chan.moe is a hobby project with no affiliation whatsoever to the administration of any other "8chan" site, past or present.

Hentai Diffusion General #14: Pajas Rusas + Mona Furra Wizard 12/22/2023 (Fri) 08:58:01 No. 794
Catorceavo Hilo Sin saber como, estos hilos siguen bastante activos! Muchas gracias negros, espero que este espacio ayuda a todos a tener un lugar donde aprender y poder seguir explorando este mundo! Hilo Anterior >>32041 >Instala Stable Difussion WebUI Local y cualquier otra UI con un Click! (ir a Releases y descargar el archivo .exe) https://github.com/LykosAI/StabilityMatrix >Stable diffusion con Sagemaker con 4 Horas de GPU diarias https://youtu.be/pVy_Ff8lQ7w?si=r-W87zNVw4pvWsv1[Embed] >Guía de Instalación Colab (muerto), pero les srive para aprender cosas básicas de como hacer imágenes y usar LoRas https://rentry.org/instalacion-sd >Recursos: Modelos, LoRas, Hypernetworks y Embeddigs/Textual Inversion https://civitai.com >Guía: Entrena tus propios LoRa para hacer personajes, estilos, ropa y muchos más conceptos! https://civitai.com/models/22530 >Guía: Como crear Datasets especialmente cuando tienes pocas imágenes https://spainias.notion.site/Como-hacer-LORAs-con-muy-pocas-imagenes-Consejos-y-Tips-1d65bea1379047ccad243c35eb3980f0 >Colab: Entrenamiento de LoRa https://colab.research.google.com/github/hollowstrawberry/kohya-colab/blob/main/Spanish_Lora_Trainer.ipynb >Colab: Creación de Datasets https://colab.research.google.com/github/hollowstrawberry/kohya-colab/blob/main/Spanish_Dataset_Maker.ipynb >Recuerso: Modelos ControlNet 1.1 https://github.com/lllyasviel/ControlNet-v1-1-nightly >Prompt Generator https://huggingface.co/spaces/Gustavosta/MagicPrompt-Stable-Diffusion >Guía para cambiar estilos con Img2img https://medium.com/@alickwong/transfer-your-image-to-cartoon-style-in-stable-diffusion-d466565ae18a >AI para Furros https://e6ai.net/ >Pagina Web: Crea Imágenes online sin instalar nada <NovelAI (NAIV3) https://novelai.net <PixAI https://pixai.art <TensorArt https://tensor.art/ <Yodayo: https://yodayo.com/ <Nemusona https://waifus.nemusona.com/ <Holara.ai: https://holara.ai/ <Leonardo.AI https://app.leonardo.ai/ >AIbooru: tablon de imágenes especializado en ilustraciones generadas por IA (Puedes aprender mucho aquí gracias a los Prompts y tambien compartir tus obras maestras) https://aibooru.online
>>943 Me alegra que hayas visto las bondades del Inpaint, cuando siento que la IA le gusta burlarse de mi dándome imagenes que podrían ser buenas de no ser por una completa deformidad como pic 1 o pequeños errores como pic 3, se que el 80 % de las veces seré capaz de arreglarlos. O bien, a veces simplemente me gusta divertirme con el outpaint y recibir una imagen más larga o con más cuerpo, y a veces me da una imagen más interesante. Me ha servido mucho también. >no solo corrige el color, Hablando de eso, hay una herramienta/extensión para SD llamada CFG Rescale la he usado un poco, pero básicamente es un rescalador alternativo que te permite hacer aún más variables a la imagen, y tiene un corrector de color también, me ha servido un poco cuando la imagen sale con colores muertos (de hecho ahora que lo pienso me sirvió para la imagen de Alien X)
>>944 ¿porque Alien X tiene vagina?
>>945 Bueno negro, primero que nada no hubiera pensado en una vagina. Yo hubiera pensado en luz, pero, respondiendo a tú pregunta. Me sucedió algo similar antes con unas imágenes que generé de Kamen Rider cuándo Colab seguía vivo, la IA de repente me empezó a dar Kamen Rider femeninas sin que yo las pidiera e ignorando mis prompts, esto nos dice una simple cosa, los checkpoints están más entrenados para generar personajes femeninos que masculinos.Y considerando que no especifique el género en los prompts positivos y esa área de la pelvis la IA entiende que debe haber algo en esa area, Entonces agrego lo que parece una "vagina". Sumale el hecho de que saqué cómo más de 10 versiones y encima aún más jugando con el CGF rescale que multiplica las variaciones y que el creador del LoRA de Alien X dijo que era un novato en esto, y se nota, me costó sacar una imágen que no tuviera texto falso así que no todos los loras son igual de buenos. Con esto espero haber respondido tú pregunta
>>944 >cuando siento que la IA le gusta burlarse de mi dándome imagenes que podrían ser buenas de no ser por una completa deformidad Ay, anon... Conozco ese sufrimiento, no sabes la gran cantidad de imágenes que le dedico a la monita china de makoto, pero como la gran mayoría siempre tenía un algo que no me gustaba (aún y con el reescalar) y no usaba el inpaint, botaba las imágenes... Tsk, de haberme animado a usar inpaint antes cuántas imágenes abría salvado kek >Aldo Anon, ¿Cuál es el modelo/LoRa que usa la última imagen?, Me gusta como se ve >>945 Kek, mucho porno está comenzando a afectarte, anon... Más que una vagina yo veo luz.
(2.79 MB 1024x1536 00004-957992818.png)

(2.30 MB 1024x1536 GhostXL+DreamshaperV7.png)

(1.92 MB 1024x1536 00022-3114314695.png)


(1.79 MB 1024x1536 image (adetailer face).png)

>>947 >y no usaba el inpaint, botaba las imágenes... Ufff, es una pena oír eso, a veces unos inpaints rápidos realmente ayudan a recuperar una imagen, incluso hacerla más interesante, o mejor, hacerla más propia de uno. Yo mismo le he dedicado horas arreglando imagenes propias de Alice (curioso antes no me gustaba kek), o bien, tengo un amigo que le gustan los furros y no le gustan los piercings (igual que a mí) y a veces me pide quitarlos, yo lo ayudo en eso. A veces incluso me gusta recuperar imagenes simplemente por usar Img2Img. Desde que me abrí la cuenta en sagemaker me dispuse a guardarlas todas ya que así puedo revisarlas y recuperaras más tarde siempre gracias a PNG Info, si es que me acuerdo, claro. Aunque me alegra que tengas una waifu dedicada, a mi solo hay una que me gusta mucho de un anime de los 70's pero siento que me gustaría tener un equipo potente propio con SD antes de empezar, pero, sé que ese día nunca llegará por mi quintomundismo, por lo tanto hago más que nada imagenes por diversión y algunas tohas con las que me siento afin pese a que dejé Touhou en la entrega 16 (solo jugué la demo). >¿Cuál es el modelo/LoRa que usa la última imagen? Fue ChamMix FixedVae 1.0 con anythingvae sino mal recuerdo, más el Inpaint de SD Fooocus con JuggernautXL(tengo otra variación más sin medias), pero, en lo personal no me gustó mucho este checkpoint, no me pareció nada que no pudiera hacer ya Anylora excepto que pesaba dos gigas menos, y a veces quedaba descolorido (depende del vae) pero es posible generar imagenes bonitas como pic 5. Aunque siendo justos, no use sus parametros recomendados y ni me fije que ya incluía un VAE cuando lo instale. >Más que una vagina yo veo luz. Mira que me faltó quitar el cuerno extra por la rápides, pero me es difícil ver una vagina ahí, kek. Aunque al menos no salió con un bulto en la entrepierna.
Probando comando BREAK con resultados mixtos. Pic 1 no pude hacer que salieran bien los dientes tipo colmillo, pic 2 simetrical docking ok, no al nivel de animagine, se supone que la de la izquierda debería tener un sweater. 3 y 4 deberían ser Reimu y Marisa, kek, debí haber usado un LoRA. Pic 5 me gustó que adetailer face le agregará más saliva, pero me tomó como 10 variaciones incluyendo CFG Rescale.
>>794 Ya decía yo que LimboMix v2 tenía algo que me gustaba, y es que resulta que esta 40 % basado en AbyssOrange Mix 3, mi checkpoint favorito del boom de las IA (ahora bien obsoleto), lastima que la cuestión de limite de espacio en Sagemaker y que el batchlinks downloader es una mierda para descargar modelos hace que sea un poco más difícil probarlos, por lo general lo que yo hago es abrir las horas gratuitas de CPU (que son ocho) y luego subir el checkpoint para abrirlo después con la GPU, lo malo es lo mucho que se tarda Sagemaker en subirlos, sobre todo si son checkpoints XL
Ai-sis, tengo una duda... he estado usando el SD1.6 de manera local (instalandolo desde el link que dejó OPecito) pero ahora quiero probar el comfyUI (porque me dicen que es el más completo) la cosa es que he estado descargando un montononon de LoRas, modelos y todo eso, mis preguntas son: <_1 ¿los loras que he estado usando para el SD1.6, son compatibles con el comfyUI? <_2 de ser si ¿tengo que volver a descargar todos los loras y checkpoints otra vuelta pero esta vez en la carpeta del comfyUI? esta segunda pregunta es muy importante porque consumiría el doble de espacio en mi disco <_3 ¿voy a necesitar ambos? me refiero a si el comfyUI reemplaza en su totalidad al sd 1.6 o será que se complementan? ¡gracias desde ya!
>>951 <Actualizo el caso Bueno, installé el comfy y algunos. Checkpoints ruteando manualmente la carpeta en el comfy, solo para darme cuenta que NO es necesario, el mismo programa al parecer detecta todos los modelos, Loras y demás que descargaste con otras interfaces, el SD 1.6 en mi caso... El problema ahora que me surge es ¿Como aplicó los textual inversión? Solo atiné a escribirlo en el prompt negativo pero no funciona de esa manera ¿Alguna idea?
>>952 Ya te iba a tratar de responder las anteriores preguntas, pero bueno, iba decir que el problema de compatibilidad aplicaba más modelos base como por ejemplo SDXL 0.9 y 1.0 sus loras son compatibles entre sí, pero son totalmente incompatibles con SD. (Abrá que ser como será para Stable Diffusion Cascade y Lightning o cómo será SD 3) La interfaz es otra cosa, ya sea A1111, Forge, Fooocus, Invoke, etc. Últimamente dicen que la más rápida actualmente es ForgeUI, pero siempre dicen que la más completa es ComfyUI. >¿Como aplicó los textual inversión? ¿Trataste de de escribirlo así?: ///embedding:EasyNegative\\\ O si no escribe algo así: ///(embedding:EasyNegativeV2:1.1)\\\ ,<embedding:easynegative:1>,<embedding:ng_deepnegative_v1_75t:1>, Aquí hay un ejemplo gráfico, los paréntesis funcionan igual, asegúrate de tenerlos en la carpeta correcta. https://comfyanonymous.github.io/ComfyUI_examples/textual_inversion_embeddings/ Aldo, ya que este es un hilo de turcas (pajas rusas, cubanas, paizuris, etc), dejo algunas que me anime a generar a generar ayer, tuve que instalar mucha mierda rara y solo me quedan 4 GB de espacio libre en Sagemaker, pero EasyFluff (si un modelo furro) responde muy bien para el NSFW. Tengo más pero están sin HiResFix ni adetailer.
>>953 A ver si entendí bien.. Entonces debo llamar el TI pero en el prompt positivo? Porque en el SD 1.6 lo usaba en el prompt negativo. >la más completa es ComfyUI. Pues no sé, me acostumbré al SD y su interfaz más amigable o "intuitiva" literal tenías las previews de los checkpoints, Loras, etc que podrías aplicar al momento de trabajar, en el ComfyUI en cambio todo eso se esfuma y solo queda texto o tal vez a mi me falta saber cómo hacerlo más "visual" solo me he visto 3 Tutos en la madrugada de cómo instalarlo y al final me lo pasé por las bolas yy terminé instalandolo del mismo "matrixnosequechuchas" kek >asegúrate de tenerlos en la carpeta correcta. Eso estoy notando, si he visto que las carpetas destino varían en un punto (ruta) en cuanto instalarlo de forma manual y usando el Matrix.. >O si no escribe algo así No creo que sea eso, mi problema al parecer fue que lo estaba usando en el prompt negativo, asumí que serías igual que con el SD. Voy a volver a probar en un momento, gracias Negrin!
>>954 >Entonces debo llamar el TI pero en el prompt positivo? No, pero ahora que lo pienso, gracias a XL descubrí que existen TI positivos, pero casi nunca los uso, kek. Debería aparecerte una caja así, notaras que es similar a los ejemplos que dí. >se esfuma y solo queda texto Justamente también dicen que ComfyUI es de las que mejor rendimiento ofrecen para PC menos potentes, así que si tu PC es menos potente, quizás si te conviene la curva de aprendizaje, también dicen que los "pro" usan ComfyUI, pero ese es otro tema que no me voy a meter, porque yo solo me divierto con esto, Aunque ahora con el surgimiento de SD ForgeUI dicen que Forge es 75 % más rápido que A1111 (la interfaz es muy similar en ambos), pero aparte de A1111, solo he probado Fooocus e Invoke (y en mi autismo se me olvidó instalar los modelos kek) Las dos primeras capturas las saqué de este vídeo, justamente enseña como usar los Ti Embeddings, pero esta en inglés: https://www.youtube.com/watch?v=PrHST5kGAFo
>>955 >descubrí que existen TI positivos y yo gracias a ti ahora, recién me entero de esto, kek entonces lo otro que se me ocurre, es que lo tengo ruteado en la carpeta incorrecta, pasa que con el stabily matrix, había estado reconociendo varias de las cosas que usaba con el SD, pero ya va, lo voy a instalar manual (copiar pegar) >así que si tu PC es menos potente tengo una rtx 4070, es una gpu de gama media, pero creo que suficiente para esto de las IA pasa que lo que quiero es hacer imagenes con más de solo una mona en escena, con SD es casi imposible hacer esto sin que se fusionen y me queden abominaciones bien bizarras, además que con comfyUI quiero hacer animaciones, creo que con el sd esto es muy limitado. solo por eso es que estoy probando el comfy pero repito, su interfaz es una mierda. es horrible... gracias por el video mi negro, en un rato lo creko que llegue a casa más cómodo >aLso rica mona nalgona te quedó!
>>956 Si, me gusta usar uno llamado Style-Winter-SDXL para las imagenes con nieve en XL, lo malo, es que creo que los TI embeddings de XL tampoco son retrocompatibles, y encima son pocos los positivos en comparación, pero están el equivalente a la mayoría de los negativos que usamos, Ya sea bad-hands-5-SDXL o EasyNegativeV2-SDXL y un largo etc, a parte de nuevos. De todas formas no me recargan el bandwith con XL hasta el primero de abril, creo que ya me queda poco uso del SD normal también. >sin que se fusionen y me queden abominaciones bien bizarras Kek, te entiendo, para poner dos monas juntas o uniendo las tetas, no me cuesta mucho como demostré más arriba, pero cuando traté de hacer que la negrita y la peliblanco se besaran: >>949 me costó como 15 intentos para obtener algo semi decente. Pero LimboMix no es un modelo entrenado específicamente para el NSFW, en cambio EasyFluff sí, es fácil, le pedía una escena anal, lo hacía, le pedía una turca lo hace, personajes como Krystal de Star Fox los reconoce sin lora, aunque si te fijas la otra negrita >>953 tiene un error y es que le pedí que fueran las manos de hombre encima de los pechos de ella, y en cambio parece que ella tuviera manos de hombre con vitiligo, KEK. Pero pudo haber salido peor. >rica mona nalgona Gracias, es Haydee de la franquicia indie del mismo nombre, para que te des una idea es el Portal para público horny, kek. Pero haber si pasan de la maldición de no poder contar más allá del núm. 2. Use EasyFluff más el lora de estilo hll6.3-fluff-a9 y el LoRA de Haydee, aunque hubiera deseado que EasyFluff irónicamente hubiera sido más fácil de usar, hay que instalarle mucha mierda rara, pero funciona muy bien y con muchos estilos como pic 1, el resto de mis imagenes son LimboMix.
(285.19 KB 512x512 ComfyUI_00006_.png)

(294.18 KB 512x512 ComfyUI_00016_.png)

>>957 >bad-hands-5-SDXL ese también me falta, y justo me di cuenta viendo unos cuantos tutos más, (incluído el video que dejaste más arriba) >y en cambio parece que ella tuviera manos de hombre con vitiligo keeeeeeeeeek si me fijé, poner a más de un personaje para mi era ir como a aguas profundas >en cambio "EasyFluff" negro, eso es un checkpoint, verdad? porque al rato me confundo entre UI's o simplemente modelos, he visto que han salido más incluso, me refiero a UI's, o no se como llamarlo correctamente, pero me refiero a interfaces de uso y eso. por cierto... ¿tú cual estás usando? >also bueno, actualizo, al final logré aplicar los textual inversion, nunca supe si mi problema fue, por estar en la ubicación incorrecta o estaban usando mal al llamar el TI, porque no le estaba colocando los "()" ni lo de "embedding" <primera pic de mi primer intento usando el comfy <segunda pic justo ahora aplicándolo correctamente pero ahora me surgen un par de dudas más que necesito investigar y son: <¿Qué pasa si quiero usar más de 1 LoRA?? se me ocurre agregar un nodo más de "Load LORA" y eso pero la manera en que se van uniendo nodo a nodo es lo que me da diarrea cerebral, kek <Cuando usaba el SD, había una opcion llamado algo de hirex o hiref o algo asi, que basicamente era para aplicarlo, una vez hayamos tenido un resultado lo más preciso a lo que deseamos, ¿como aplico esto en el ComfyUI? en fin, voy a seguir investigando pero eso si... mentengo lo dicho desde el inicio, la interfaz del comfyUI es una completa cagada visualmente hablando.
>>958 Si, cuando uno esta horny deja pasar ligeramente esos errores al primer vistazo, pero creo que puedo añadirle el color correcto de piel en Inpaint, ahora, hacer que las manos parezcan de mujer, sería un poco más difícil, los dedos de Urumi en las turcas son un poco más fáciles de arreglar. Creo que hay más TI embeddings de manos negativos en SD yo casi siempre uso badhandsv4, negative_hand-neg, bad-hands-5, aunque también existe un locon de mejores manos llamado EnvyBetterHands, para hacerla corta sin entrar en mierda técnica, un locon es una variación del LoRA pero funciona igual. De todas formas todavía es una beta y nunca sentí una mejora real al probarlo. Prefiero usar los TI embeddings y luego ver si puedo arreglar las manos en Inpaint, también la calidad de manos puede depender del checkpoint en sí. >eso es un checkpoint, verdad? Sí, bajé la versión 10-prerelease (la más nueva) de EasyFluff, el problema fue todo lo demás, hay que instalar la extensión CFG Rescale(útil para más variaciones y arreglar color), descargar el Yaml.file en la misma carpeta que vas a instalar el checkpoint(un archivo que no pesa nada la verdad), poner el clip skip a 1, instalar los tags de e621 para contenido furry, otro lora que adapta los tags de e621 para funcionar como los tags de anime tipo "masterpiece, best quality"(opcional pero útil), y negativos también, instalé el lora de hll que pesa como 800 MB (esto es opcional pero pesa casi lo mismo que un checkpoint), al final quede con 4 GB libres en Sagemaker. Solo me faltó instalar el autocompletador de tags de e621 (también opcional). En fin un poco engorroso sobre todo si usas Sagemaker, en ese aspecto los checkpoint tipo anime dan menos problemas. Pero insisto, el resultado es bueno, tiene un estilo un tanto más cartoon que me gusta, aunque la vaquita si tuve que hacerle algo de Inpaint en el area de la nariz. >porque al rato me confundo entre UI's Web-UI es un software para trabajar con modelos (la versión web-UI es la versión del programa, pero no la versión de los modelos). Stable Diffusion (SD) son los modelos en sí mismos, como SD básico 1.5 o SDXL por ejemplo. Un checkpoint es una mezcla de modelos (CLIP, UNET, VAE) que están entrenados hacia un punto en especifico, un punto de guardado (un checkpoint), espero que se entienda. >¿tú cual estás usando? Tengo dos cuentas en Sagemaker, uso tanto A1111 para SD 1.5 y SDXL en sus respectivas cuentas. Luego existen un par de Colabs con SD Fooocus, pero su interfaz peca de ser muy básica, y si bien tiene opciones de hasta cinco loras y vae, no me deja cambiarlos en absoluto, 90 % de las veces solo lo uso para el Impaint y outpaint, aunque recientemente note que si es divertido para generar imagenes tipo Midjourney con JuggernautXl pero dura como 30 minutos antes que te desconecten a veces un poco más o un poco menos. Me gustaría probar ForgeUI pero hay que ver si sacan un notebook para eso primero. >si quiero usar más de 1 LoRA Yo muy pocas veces uso 3 loras al mismo tiempo, he visto prompters que usan hasta 6 (lo cual me parece exagerado) >HiResFix en ComfyUI Encontré un par de tutoriales al respecto, aunque si se soy honesto apenas entendí que dicen, creo que el segundo es más completo: https://comfyanonymous.github.io/ComfyUI_examples/ https://promptingpixels.com/hires-fix-comfyui/ Lo único que puedo recomendar es usar RealESRGAN_x4Plus Anime 6B y 4x-AnimeSharp al momento de hacerle HiResFix una imagen tipo anime, aunque creo que en Img2Img no podía elegir de todas formas. https://openmodeldb.info/models/4x-AnimeSharp https://openmodeldb.info/models/4x-realesrgan-x4plus-anime-6b
(1.51 MB 1024x1536 00031-3132404381.png)


(1.87 MB 1024x1536 00005-652466463.png)

(2.30 MB 1024x1536 00041-4036418812.png)

(1.65 MB 1024x1536 00024-2217725598.png)

No pude esperar y directamente me hice otra cuenta en NGROK con una IP distinta, me dio un par de problemas al inicio, pero pude usarlo 4 horas continuas, y si me llega el limite de bandwith espero que no interfiera con la otra cuenta para el primero de abril. Dejo algunas que genere hoy, salvo la tomboy que recuperé de una sesión anterior con PNG info.
(362.10 KB 1901x935 interfaz.jpg)

(355.30 KB 512x512 ComfyUI_00152_.png)

(1.32 MB 1024x1024 ComfyUI_00153_.png)

(601.01 KB 512x752 ComfyUI_00111_.png)

(2.17 MB 1024x1504 ComfyUI_00112_.png)

>>959 perdón negrito, tuve unos días bastante ocupado, pero ya estoy de vuelta. >Creo que hay más TI embeddings de manos negativos en SD yo casi siempre uso badhandsv4 encontré uno en la misma interfaz de descarga del SMatrix, pero conel comfyUI parece no funcar, tal vez solo me va bien con el SDWebUI, no alcancé a probar con ese. >locon es una variación del LoRA ay negro, más vainas para que me explote la cabeza, recuerdo que habían otros llamados "Lyracoirs" o algo así, que eran como LoRas, es más los tengo instalados porque en el SDWebUI si me aparecia, pero como ya imaginarás en el ComfyUI todo es un poco más confuso, con decirte que apenas he logado instalar y usar lo de Hires FIX, y recien ahora me doy cuenta que es un escalador nomás con ciertos "plus", y lo pongo entre comillas porque el resultado termina por alterar ciertas cosillas o detalles de la imagen original. Por cierto, gracias por el enlace que me dejaste, gracias a eso de hecho entendí qu habían dos maneras de escalar una picosa. >pero pesa casi lo mismo que un checkpoint), al final quede con 4 GB libres en Sagemaker y no se negrito, sigo pensando que deberías monetizar, sabes bastante y se te es practico también dar con sitios para tratar de resolver tus inconvenientes. Monetizando te harías de algunos horos para poder costear una buena GPU, así como hizo el OPecito de los primeros hilos (porque dudo que sea el mismo OP al de ahora). Así no tendrías problemas de espacio tampoco, ni de tiempo de uso para usar las IA. >Web-UI es un software para trabajar con modelos ~ (un checkpoint), espero que se entienda. mas o menos... ¿Como denonimar exactamente entonces al que usaba antes? me refiero al que el OP compartía en modo de collab y usabamos todos el automaticA1111?? luego mostró que se podía instalar, y ahora mismo yo ando probando el ComfyUI ¿Cómo los puedo denominar exactamente? yo pensaba que eran interezaces de usuario, osea el nombre, seguido del "UI" >muy pocas veces uso 3 loras al mismo tiempo creo que ese es el escenario en el que me imagino quiero estar, usar como máximo 3 LoRas sin problemas, pero sigo con ese inconveniente de saber donde coños conectarlos ya que al tirar del nodo para vincularlos al KSAMPLER, el primer LoRA se suelta... kek en fin... >also como había mencionado ya logré armar un workflow algo básico, al menos logré usar un escalador y que sea funcional y todo! "(1era pic)" sé que es bastante simple ahora lo que hago, pero dejo algunas picosas que hice usando el escalador (2da pic y 4 pic, las imagenes normales en baja, 3ra pic y 5ta pic con el escalador activado) tengo que averiguar como coños usar más de 1 LoRa >also x2 me he dado cuenta que el seed funciona un poco raro, porque al igual que cuando usaba el SDwebUI 1.5 local, el "hires fix" solo lo activaba cuando estaba seguro de que una imagen me gustaba, pues bien, acá en el ComfyUI no funciona así, porque el seed si le pico en "fixed" ya simplemente no me genera ninguna imagen, pero si lo dejo en randomize, pues me crea otra imagen y mi primera imagen se pierde, kek, ya probé incluso copiando todo el digito del seed, y pegarlo en el segundo KSAmpler, o sea en el escalador, pero nada, aun siempre así lo terminar cambiando. en fin... ya veré como lo soluciono aún tengo un monton de cosas por implementar como: <controlnet y todo lo que llevaba dentro en si <adtailer (ese que era para corregir manos y ojos) etc...
(2.40 MB 1024x1536 00016-478445036.png)

(2.12 MB 1024x1536 00014-367596730.png)

(1.89 MB 1024x1536 00009-3091648643.png)

(2.29 MB 1024x1536 00030-2245624998.png)

(1.89 MB 1024x1536 00019-2539211993.png)

>>961 >tuve unos días bastante ocupado Tranquilo, no hay problema. >ay negro, más vainas para que me explote la cabeza Según entendí, existen al menos LoRA, LoCon, LyCORIS, LoHa, LoKr, IA3 [se escribe (IA)^3 sin corchetes] variantes que yo sepa. >por alterar ciertas cosillas o detalles de la imagen original. Si, manteniendo el seed tratará de apegarse a lo máximo el HiResFix a la imagen original, lo minimo que he usado de Denoise Strength es 0,35 si quieres mira mi ejemplo de las imagenes de Reisen con animaginev3XL >>908 si usaba Nearest-Exact (recomendado por el creador Cagliostro) con Denoise Strenght bajo el resultado a 1.5 x de la resolución original era muy malo pero mantenía la mano intacta. En cambio si usaba R-ESRGAN 4X+anime el resultado era mejor y mantenía la mano también, no sé si este en el PNGinfo pero creo que use un Denoise Strength a 0.4 al final. Hable con un desarrollador de checkpoints y me dijo que sí te gustaba mucho la imagen original, pues simplemente re-escalaras sin usar el denoise strength (probablemente se refería sin especificar la potencia) o con un denoise strength minimo (ambos acordamos esta suele ser la mejor opción), lastima que cuando estaba generando las imagenes de Reisen no sabía como instalar el adetailer, me hubiera servido mucho, ahora tengo un montón de imagenes que arreglarle el rostro. Kek. En lo personal si no me gusta el resultado original le hago un Denoise Strenght hasta 0.7 y a veces hasta 0.75. >y no se negrito, sigo pensando que deberías monetizar Ya son varios quienes me dicen eso, pero de nuevo, solamente es un pasatiempo para mí. Solo quiero hacer imagenes bonitas, además aparte que la falta de espacio de Sagemaker no da para mucho y sumarle eso al limite de bandwith de Ngrok (aunque recientemente sacaron un tutorial para usar Zrok ya veré como me sale), y si bien es competente, mientras más uso Sagemaker más extraño al Colab Nocrypt que solíamos usar, malditos de Jewgle, lo tenía todo, además no quiero explicar la tremenda situación de mierda en la que vivo, un solo apagón puede quitarme las cuatro horas gratuitas de Sagemaker. Supongo que no tengo mente de tiburon ni nada de eso, si lo viera como otra cosa que un pasatiempo, no solamente no me divertiría sino lo hubiera dejado incluso antes que se muriera Colab, algunos amigos me dicen que desperdicio potencial o que mis imagenes son mejores que otros prompters que han visto, y quizás tengan razón, pero personalmente no me preocupo por ello y solo trato de seguir con lo mío. Aunque supongo que tengo que admitir, que sí me han dado ganas de subir las imagenes a CivitAI (mierda de rendimiento de sitio aunque muy útil) y AiBooru el primero para compartir mis prompts sin importar la calidad y el segundo quizás para subir las imagenes arregladas y pegar los prompts en la caja de texto, pero por ahora solo las muestro aquí. >¿Como denonimar exactamente entonces al que usaba antes? >yo pensaba que eran interezaces de usuario Quédate con que son interfaces de usuario(ComfyUI, A1111, Forge, Fooocus, Invoke) para trabajar con el SD instalado de base y los checkpoints para mantenerlo simple. >Quinta pic 5 Me gustó mucho la chica con orejas de osito, me alegra que no te desanimes a explorar terrenos tan pantanosos como ComfyUI (muy irónico el nombre viendo que parece todo menos cómodo kek), la verdad a mí también me gustaría aprenderlo, y eso que para mí usar correctamente EasyFluff ya me parecía un dolor en las bolas con tanta extensión. Por ahora, estoy cómodo con A1111 corriendo SDXL. Dejo algunas pics recientes que generé entre 14 y 15 de marzo: >Control Net y Adetailer en ComfyUI De adetailer para ComfyUI leí que hay algo similar llamado Facedetailer y DDtailer: https://github.com/ltdrdata/ComfyUI-Impact-Pack#how-to-use-ddetailer-feature De control net encontré esta guía te puede servir para meter varios personajes: https://comfyanonymous.github.io/ComfyUI_examples/controlnet/ Lastima que debido al corto espacio de Sagemaker también estoy sin control net en XL, creo que lo había instalado en la otra cuenta con SD 1.5 pero se me olvdió probarlo. Aunque esta tan lleno que me dan ganas de reinstalarlo todo de cero, lo cual puede ser mala idea debido a como se actualiza Sagemaker no vaya ser que quede obsoleto y sin SD, en fin mucha suerte con lo tuyo, negrito.


(2.86 MB 1024x1536 00030-1050570384.png)

(2.93 MB 1024x1536 00032-3829261511.png)

(2.69 MB 1024x1536 00001-1244267941.png)

Estaba pensando en si subir estas imagenes, hasta que encontré la comparación adecuada, y es que quería probar la efectividad del clip skip en GhostXL, el clip skip para quienes no lo sepan es un parámetro que determina que tan "creativa" será la IA al momento de generar una imagen, si el parámetro es muy alto puede que no siga los prompts en absoluto, si bien leí que para modelos XL no era tan importante, y en efecto cuando instale el notebook de DreamscapeAI esta opción estaba oculta y la gran mayoría de imagenes que generé fueron con clip skip a uno tanto de GhostXL y animaginev3 xl y en ambos me dieron buenos resultados, pero, me fije que para pic 1 los detalles de la ropa quedaban algo inconsistentes en comparación a pic 2 con clip skip a 2. Esto para imagenes con prompts simples de cuando estaba empezando a probar GhostXL. Para un prompt más complejo y reciente trate con pic 3 y 4 con clip skip a uno y pic 5 con clip skip a dos. Creo que el resultado habla por sí solo, en resumen: Clip Skip a 2 sigue siendo la mejor opción para generar imagenes, hasta en XL, en SD déjenlo a dos por defecto siempre, aunque las pocas veces que lo probé a 3 ya distaba mucho de lo que le pedía, pero a veces me daba resultados interesantes.
(96.81 KB 543x558 2024-03-18_16-17-09.png)

(49.86 KB 470x297 2024-03-18_16-22-13.png)

(3.45 MB 1536x1536 00043-4036418812.png)

(4.78 MB 3008x2456 2024-03-16_23-00-11_2276.png)

(7.08 MB 3008x2456 2024-03-16_22-59-13_3184.png)

>>918 >Koni @AI Illustrations Negrito, ¿sigues ahí? estuve stalkeando investigando en el "equis" de @r18_koni y di con la solución de su modo de empleo de la IA, aunque te advierto que la respuesta no es del todo satisfactoria, verás el tipo usa un método similar al de OPé (Vyseth) paga por NovelAI v3 (basado en XL pero esta tan editado que bien podría ser su propio modelo ya) el cual es sumamente versátil debo de admitir, para generar la imagen base ya después la pasa por SDXL y modelos derivados de "AnimagineV3 XL" esto es factible, pero traduciéndolo al inglés dice algo más notable, dice usando Animaginev3 XL y mergiendo (o mezclando) modelos derivados. No sé si te acuerdas de Colab Nocrypt había una opción para mezclar dos checkpoints al mismo tiempo y usarlos(yo nunca lo hice), Koni debe hacer algo similar, si bien no use demasiado AnimagineV3 XL (generé como 100 pics más o menos), si puedo confirmar que es un modelo de calidad y sí consideramos también que GhostXL es 70 % animaginev3 pues entonces lo puedo doble confirmar, pero eso ya es otro tema. Ya por último, Koni, después del re-escalado usa Fotoshó para los arreglos finales, la verdad yo también lo recomendaría, si bien yo mismo he comprobado que Inpaint puede hacer un montón para salvar una imagen y hasta hacerla más interesante, y es sumamente amigable para cualquiera, hay ciertos aspectos de consistencia dónde Photoshop sigue siendo superior, ahora bien que prompts exactos o que LoRAs exactos usa, ya es cuestión de él, pero ya sabemos que no es el único con un método similar. Iba a poner imagenes de Koni, pero no es la idea de estos hilos, dejo una muestra prueba propia que hice recien de Outpaint con XL, primera vez que pruebo todos los lados al mismo tiempo, debo decir, no siempre da el resultado correcto (o más adecuado) a la primera, por suerte no costo más de dos intentos. se me olvido arreglarle las manos kek
(760.46 KB 512x1024 IMG_20240319_044947_549.png)

(769.28 KB 512x1024 IMG_20240319_044947_733.png)

(806.64 KB 512x1024 IMG_20240319_044947_122.png)

(760.12 KB 512x1024 IMG_20240319_044947_552.png)

(748.57 KB 512x1024 IMG_20240319_044946_910.png)

>>962 >minimo que he usado de Denoise Strength es 0,35 Es curioso porque, si bajo el ruido (denoise) a menos de 5.0 (osea, 4.9 por ejemplo) el resultado me queda con muchos articfacs, y si no mal recuerdo, eso no me pasaba cuando usaba el automatic11111... Ya ni sé cuántos 1 lleva, kek Mencionas luego que si se lo quitas incluso, esta tratará de no alterar la imagen original, pero como menciono, si lo bajo mucho se me crean muchos articfacs, no tengo idea que está pasando pero trataré de averiguar luego. >de Sagemaker no da para mucho Y justamente por eso negrito, si monetizaras, podrías hacerlo de forma local, no lo veas como que trabajas para alguien o algo, solo sigue haciendo lo que haces, pero usando una plataforma para recibir donativos, no te digo que hagas comisiones como los artistas, solo digo que si tus resultados son bonitos (que lo son) habrán personas que estarán dispuestas a dar algo, alguito, aunque sea poquito, pero ya es algo... Espero haberme dejado entender, pero si incluso así, simplemente no quieres, pues ya ni modo, no te puedo obligar tampoco, kek, pero piénsalo.. yo creo que puede resultar. >un solo apagón puede quitarme~ Memezuela? Comprendo lo jodido que debe ser, el año pasado por mi barrio hubo apagones bastante seguido, solo recuerdo que tuvimos que llamar al servicio de luz y todo porque la comida se malograda y eso.. >algunos amigos me dicen que desperdicio potencial Kek, a mi me dicen lo mismo, pero no por esto de las IA, pero entiendo perfectamente lo que se siente >pero por ahora solo las muestro aquí. Ojalá llegues a compartir tus resultados en CivitAi, ya que como dices, es bastante útil, supongo que lo percibo como un ecosistema bastante complejo, llegas a tomar lo que necesitas y y a la vez también compartir material y conocimiento, pero por favor, no dejes de compartir por acá, me atrevo a decir que ahora mismo solo somos tu y yo posteando en este hilo, no se qué fue de los demás, yo lurkeababa de cuando en cuando este hilo pero sin subir absolutamente nada, si no recien hasta ahora, porque creo que esto puede funcionar y claro, me divierto. Creo que por eso no he tirado la toalla kek >Quédate con que son..~ para trabajar con el SD instalado de base..~ Y el modelo principal sería Stable Diffusion, verdad? Como lo es el NivelAI, cierto? Es que preciso entender, perdona si desde que estoy posteando aquí, no he dejado de preguntar, es que en realidad quiero entender. >me alegra que no te desanimes a explorar terrenos tan pantanosos como ComfyUI Es que quiero hacer loops, y por todos lados me dijeron que los mejores resultados son solo con el ComfyUI, es esa la única razón por la que estoy usando esta UI. Pero antes, creí o aún creo, que debería empezar por manejar de manera más decente el crear imágenes simples. >Also <Esa tercera pic Negrito, que linda colegiala te quedó, supongo que es es un checkpoint aquel, ¿Que modelo usaste? >leí que hay algo similar llamad...~ Muchas gracias negro, le voy a dar una ojeada luego, tuve como prioridad jugar con más de 1 LoRa, como había mencionado anteriormente y tengo que decir que lo he conseguido. Aunque, aún debo aprender a jugar con los valores y eso. Adjuntaré picosa no topic >Pic #1, pic #2 y pic #3 El objetivo era hacer una Bocchi pero con el estilo de Mignon (un artista porno) pasta ello usé obvio 2 LoRas, osea 1 LoRa de Bocchi y 1 LoRa de Mignon para el estilo, el resultado fue decente a las primera (ignorando la ropa que no sé porque mierda las dejaba desnuda si yo solo quería que mostrará las tetas, kek, pero bueno), por eso menciono aquello que aún debo aprender a moverle a loss valores de los settings y eso, porque a esas 3 picosas le faltaba ese especie de adorno en forma de cubos característicos en el pelo de Bocchi, algo que en la picosa #4 pero sobretodo en la picosa #5 por fin conseguí.
(763.96 KB 512x1024 Base A.png)

(2.39 MB 1024x2048 Escalado A.png)

(877.80 KB 832x832 Base B.png)

(12.56 MB 6656x6656 Escalado B.png)

(865.46 KB 512x1024 IMG_20240319_055402_525.png)

>>965 Continuando con el post, como iba diciendo, logré usar 2 LoRas, pero para esto tuve que cambiar el workflow, y hacer algunos cambios también en la manera que vinculé o heredé los nodos (no tengo idea de cómo llamarlo exactamente) así trabajar con un nuevo ksampler y todo eso.. El problema (si porque no todo fue felicidad) fue al momento de escalar, ya que en este último paso, pareciera como que no me reconoce el LoRa de estilo, que en este caso era de Mignon, eso y que además le restaba muchos detalles a la imagen original >Pic #1 el original >Pic #2 al usar el latent uspcale o lo más parecido a lo hacía con Hites FIX. Probé también ya no usar el latent uspcale y solo aplicar un escalador sin más ni mas al doble, pero no me gustó tampoco el resultado (por error borré estás imágenes) porque al hacer zoom quedan muchos desperfectos.. >Pic #3 Usando otros 2 LoRas nuevamente, pero está vez reemplacé el de estilo por una de follada en vaquera. >Pic #4 es el escalado, sin más ni mas, acá el resultado del escalado me gustó más, pero creo que ayuda el que la imagen original no esté tan pequeña y pixelada, a diferencia del que cuando usé el LoRa de Mignon, ya que al escalarlo, habían varias partes que no quedaban bien definidas, sobretodo los ojos (lastima que por error eliminé esas pruebas.. >Also Adjunto también picosa de un VAE que me gustó mucho pero que al parecer no es nada compatible, kek >Also 2 Siento que avanzo 1 paso pero retrocedo 2, kek Al menos conseguí meter más LoRas, aún tengo mucho que aprender, lo siguiente que quiero hacer será, el adetailer, y el controlnet, así como inpaint para corregir errores y todo eso.
>>963 Lindas prietas, negrito, aunque ya en ese color de tez supongo que les hubiera quedado mejor el pelo ensortijado >clip skip Y justo hoy mientras estaba explorando el ComfyUI me pregunté que coño era eso. En el sammpler principal por ejemplo, no me lo dejó cambiará estaba en -1 o algo asi y cuando intenté picarle en 0 o 1, simpleemente el comfyUI me tiraba error. >>964 >¿sigues ahí? Soy yo mismo, el negro de las Bocchis, kek >podría ser su propio modelo ya No creo, incluso ya no recuerdo bien pero me parece que dejé enlaces de otros prompters con el mismo acabado que él, y es más, si hago memoria el LoRa o checkpoint, es de un artista, porque me parece haberlo visto hace mucho, me refiero más que nada al coloreado, es simple si nos fijamos no tiene tantos detalles en volumen y eso, pero es un resultado muy bonito >modelos derivados de "AnimagineV3 XL A ver si estoy entendiendo... Ese "AnimagineV3" es un checkpoint para el SDXL?? >hay ciertos aspectos de consistencia dónde Photoshop sigue siendo superior Te refieres a corregir ciertos detalles como un dedo chueco o inexistente? De hecho esa es mi meta, osea, se dibujar no a nivel profesional obvio pero no soy nulo, pero es un recurso que pienso usar muy muy ya a última instancia. Lo de mezclar modelos si recuerdo haber leído algo al respecto, pero como decía, jamás me había animado a hacer esto antes se veía todo tan complicado que preferí en ese entonces solo limitarme a ver cómo los hilos de IA se llenaban de posts. >ahora bien que prompts exactos o que LoRAs exactos usa, ya es cuestión de él Kek eso es justamente lo que busco, el resultado de sus imágenes que hace. >NovelAIV3 Imagino que este lo usa para las poses, interacción de más de 1 personaje, etc... Si tuviera que ordenar las prioridades, pues diría que ahora mismo no me importa mucho aquello, me refiero a las poses y eso, lo que quiero realmente es dar con ese coloreado y estilo de dibujo y como mencioné, no es el único, ya me topé con otros prompters que tienen un acabado casi idéntico, y si, intenté preguntarles qué modelo usaban, pero todos me ignoraron, kek >dejo una muestra prueba propia Me cuesta un poco apreciar cual fue tu intención con esas picosas, negrito ¿Será quitar ese fondo del primer plano y volver más en modo vegetación?? Por cierto, bonita monita, las pelicortas son las mejores!
Me acabo de acordar que este hilo existía, para resumir tengo una meme RTX 3070 y la estado poniendo hacer imágenes por los Kekes, ¿que modelos me recomienda usar? ¿Que loras son los mejores? ¿Esos parámetros están bien?
(141.69 KB 600x914 1471039537934.jpg)

buenos días, tardes o noches por favor serían amables de usar IA para editar esta imagen por favor. lo que necesite es que conviertan a la chica de pelo blanco con cola (Momiji Inubashirien de touhou project) una versión loba furry de ella por favor (pero mantener al hombre que la está follando como un ser humano) referencias extra en los enlaces https://www.pillowfort.social/Nat-Cha/tagged/inubashiri%20momiji https://furbooru.org/images/38614 https://furbooru.org/images/14406 https://www.furaffinity.net/view/40638731/
(431.43 KB 1112x807 Original de Sagemaker.png)

(402.65 KB 1129x775 Descargada.png)

(1.91 MB 1024x1536 00008-3091648643.png)

(3.09 MB 1024x1536 00036-1095088533.png)

(2.71 MB 1024x1536 00001-2594628640.png)

>>965 >>966 >el resultado me queda con muchos articfacs, Por eso puse el ejemplo de R-ESRGAN 4x+ Anime6B vs Nearest-Exact con Reisen con la mano abierta, si lo subía a 5 o más alto, me daba un montón de manos deformes. AnimagineV3 es medio consistente con dar buenas manos. Instala uno de estos dos escaladores y podrás re-escalar mejor imagenes con un Denoise Strength bajo, pero, si he notado que con diferentes checkpoints me dan diferentes resultados, por ejemplo, LimboMixv2 el propio creador recomienda usar Denoise Strength a 0.4 con AnimeSharp (me ha servido mucho su consejo) Chammix es similar (4x-UltraSharp, Hires steps: 10, Denoising strength ~0.4) pero en cambio EasyFluff fácilmente diría que los mejores resultados son con DenoiseStrenght a 0.7 (y 0.5 si usaba el lora de HLLC), si no mal recuerdo, Cagliostro para Animagine recomienda un Denoise Stength de 0.55 con Nearest pero ya vi que no era siempre la mejor opción. También hay re-escaladores más específicos para imagenes realistas y para furros, etc. Más arriba dejé un sitio dónde descargarlos. >Memezuela Cy, más arriba lo mencione, pero bueno, supongo que prefiero usar Sagemaker que sitios que cada vez se vuelven peores como TensorArt. >llegas a tomar lo que necesitas y y a la vez también compartir material y conocimiento En ese aspecto es bonito como se ha formado una gran comunidad en CivitAI todos compartiendo lo suyo gratuito (o lo que no es suyo como el caso que filtraron Break Domain sin permiso de los creadores pero esa es otra historia), aunque en parte entiendo que haya Prompters que sea más recelosos de sus prompts y no se los "roben" o no quieran revelar todos sus secretos como hacer un lora propio de un OC o un lora de un determinado estilo, etc; en mi caso yo siempre pierdo la metadata original al pasarlos por Inpaint. >no dejes de compartir por acá No lo dejaré, aunque yo extraño al furro anon, aunque ahora puedo subir material por él. Quizás el tablón vuelva a remontar algún día. >Y el modelo principal sería Stable Diffusion, verdad? Cy, y el checkpoint, te permite trabajar con un área entrenada en especifico de SD. >que linda colegiala te quedó, - ¿Que modelo usaste? Gracias, use GhostXL pero, me acabo de fijar que descargué la que ya había subido de aquí para revisar y no tener que buscarla y de repente la metadata ya había desaparecido, kek. Yo creí que se guardaba siempre, ahora me siento como un tonto creyendo que compartía siempre mis prompts, pero en fin, como puedes ver, use prompts simples. Como he dicho antes, lo importante no es escribir prompts kilométricos, pero prompts bien compuestos, la única diferencia que tiene GhostXL de un checkpoint convencional es que tiene sus propias trigger words y puse (anime art style) entre paréntesis, ya para terminar el TI embedding de "unaestheticXL", es muy poderoso por sí solo, me aseguro de usarlo en casi todas mis imagenes con XL, ni siquiera añadí prompts de calidad positivos, solamente el estilo y especifique dónde quería la mano, ya después fue cuestión de usar adetailer Face+Hand (ahora bien con adetailer face puedes cambiar las expresiones y añadir más detalles por ejemplo en mi caso light blush,nose blush o hasta pecas si quieres) fíjate que incluso adetailer quitó los errores de la mano(ojo a veces el adetailer hand empeora las manos y mucho es menos consistente que el del rostro), otro detalle es que el sampler de Restart es bastante bueno para checkpoints XL, por ahí leí que era el mejor, pero es algo lento así que solamente lo pongo a 20 steps, pero si te fijas, la cama esta mal, kek. En lo personal yo escribo el 99.999999 % de las veces flat chest en los prompts negativos pero una tablita de vez en cuando no hace daño. Kek. >ese especie de adorno en forma de cubos característicos Me pasó lo mismo en el hilo de cosplay tratando de hacer una bocchi chica mágica, Opé me dijo lo mismo en ese entonces, deberías poder agregarlos en Inpaint. Veré si algún día me dispongo a rehacer la Bocchi mágica mejor. >>966 Me encanta como luce aquí negrito, aunque eso me recuerda, yo también traté de hacer imagenes de sexo hace poco, que coincidencia, pero las tengo guardadas en sagemaker. >Pic 5 Me paso exactamente lo mismo cuando traté de usar mi VAE favorito (Yozora) con XL en la peliverde disfrazada de momia >>942 totalmente incompatible. Te iba a responder ayer pero se me paso, dejo mis ejemplos de prompts y una imagen que recuperé, noté que era más fácil ir a la sección de Img2Img con a1111 bajarle CGF re-escale a cero y luego con el número seed aplicarle adetailer al rostro que replicarla en txt2IMG.
(2.69 MB 3920x1080 Outpaints IA.png)

(1.94 MB 1024x1996 2024-03-11_23-29-42_5099.png)

(1.90 MB 1024x1996 2024-03-11_23-30-41_1510.png)

(3.21 MB 1024x1996 2024-03-08_16-41-12_7850.png)

(3.12 MB 1024x1996 2024-03-08_16-42-10_1310.png)

>>967 >y cuando intenté picarle en 0 o 1, simpleemente el comfyUI me tiraba error Curioso, aunque se me olvidó mencionar, para modelos furros, la gran mayoría, vi que recomiendan usar Clip Skip a 1 para los mejores resultados, y lo confirmo. >Ese "AnimagineV3" es un checkpoint para el SDXL?? Cy, es de los checkpoint anime para XL mejor valorados en CivitAI y entre los 10 con más alta calificación de XL en general ahora mismo, aunque revisando, ya salió la v3.1, me gustaría probarlo, seguir esto es cada vez más difícil. >Te refieres a corregir ciertos detalles como un dedo chueco o inexistente? Me refería a cosas más complejas aún como por ejemplo reducir el largo de un cuello sin dañar o cambiar la cabeza y la cara o mover un brazo enteramente sin tener que reconstruirlo desde cero, aunque también me fije que por más pequeña que hiciera la capa de un dedo, esta terminaba fastidiando al otro dedo (los dedos de los pies de la negrita tetona me dieron este problema demasiado) además la interfaz de Inpaint esta lejos de ser profesional, yo del uno al diez en utilidad, le pondría al Inpaint un 8 (me ha servido y mucho), pero al no tener un registro o una interfaz dónde guardar cosas se queda hasta detrás de GIMP, a veces por un mal click pierdo para siempre una generación de una capa que me hubiera servido mucho para la imagen. >Me cuesta un poco apreciar cual fue tu intención con esas picosas, negrito Simplemente quería mostrar los resultados que obtuve al experimentar con Outpaint y obtener algo más de escenario a cambio ya que siempre he pensado en como obtener una imagen más interesante, y no estar siempre tan limitado por las resoluciones base de SD y XL, eso y me gustan los cuerpos más largos, como cuando habrías una revista de mujeres en bikini y aparecía un poster de cuerpo completo, noté que para tanto Colab y Sagemaker, al no poder re-escalar más de 1024-1536 (x2) no me gusta tanto como se ven los cuerpos completos en esta resolución, que usualmente prefiero usar el prompt de cowboy shot o upper body y luego alargar el cuerpo, esto suena bien en teoría, pero en la pirática te termina generando muchas imagenes y a veces no lee bien los pies o genera mierda rara porque sí, por lo que suelo expandirla una vez y ya, dejo una serie más de ejemplos, también es posible dirigir el outpaint dependiendo de la interfaz, yo diría que al menos con JuggernautXL el 60 % de los resultados son buenos, pero a veces hay que seguir tratando y tratando. Dejo un par de ejemplos más con >>957 y >>940 e hice una imagen con Gimp de todas las versiones de la mona de pelo azul. Otra cosa, también puedes notar que a veces se forma una especie de "línea" entre la resolución de la imagen original y el comienzo del outpaint, pero también es sencillo de arreglar con Inpaint.
(1.20 MB 896x1152 2024-03-12_23-36-46_1204.png)

(1.15 MB 896x1152 2024-03-12_23-35-49_6853.png)

(2.60 MB 1024x1536 00003-851289597.png)

(2.32 MB 1024x1536 00015-1438722054.png)

(2.35 MB 1024x1536 00039-2923393397.png)

>>968 Hola, te recuerdo del hilo anterior, le hice inpaint a las manos de la loli. >¿que modelos me recomienda usar? Veo que estas usando AutismMix Pony basado en PonyDiffusion, un amigo me mando unos resultados de Loona con AutismMix Confetti, así que quizás quieras probar esa variación o el propio PonyDiffusion v6 (también existe una versión turbo de PonyDiffusion v6 si la velocidad es importante para ti), ahora bien como veo que te gusta producir escenas porno fácilmente, creo que de lo poco que se me ocurre que he probado yo mismo sería EasyFluff 10 pre release para SD 1.5 da resultados porno muy fáciles como escenas de sexo o turcas, creo que Meina Hentai también debería dar resultados así de fácil. JuggernautXL también me parece muy bueno, pero no es un modelo enfocado al NSFW (y no todos los son), entre otros que he usado. >¿Que loras son los mejores? Pregunta difícil, en SD me encantaba usar "Add More Details - Detail Enhancer / Tweaker (细节调整) LoRA" con fuerza a 0.5 a 0.8, pero no sé si hay un equivalente a XL, y es que lamentablemente los loras no son compatible entre SD y XL (aunque una vez vi de reojo que estaban intentando hacerlos compatibles pero perdí la información) ya después de eso me ponía a buscar loras de personajes o posiciones o vestimentas especificas, en CivitAI esta casi todo. >¿Esos parámetros están bien? Te recomendaría usar más prompts negativos, por ejemplo (deformed, distorted, disfigured:1.3) me ha funcionado en la mayoría de checkpoints dentro y fuera del anime (como las primeras dos pic relateds), para modelos anime están los clásicos "worst quality, low quality" aunque no es aplicable a todos los modelos, y "text, title, logo, signature, username, watermark, url" para evitar que te salgan textos falsos y deformes (aunque los puedes quitar fácil con Inpaint), pero tampoco te pases escribiendo prompts kilométricos (aunque los modelos XL sin duda entienden mejor una mayor cantidad de prompts) y no escribas cosas contradictorias por ejemplo no escribas "portrait, big hips" o "sagging breasts, perky tits", trata de añadir prompts positivos de calidad, veo que AutimsMix tiene un sistema diferente al clásico "Masterpiece, Hight Quality" de los modelos anime, intenta escribir con "score_9, score_8_up, score_7_up," etc para los prompts positivos y usa TI embeddings que son poderosos como NegativeXL y unaestheticXL, no né si tienes el autocompletador de prompts o si tienes los prompts añadidos del sistema. https://civitai.com/models/300103/embeddings-for-sdxl https://civitai.com/models/119032/unaestheticxl-or-negative-ti?modelVersionId=363593 También si es por velocidad sigue con Euler A (Ancestral), yo personalmente no veo mejores más allá de 30 steps, yo a veces lo bajo hasta 18 pero el rango 20-30 es lo ideal (a no ser que uses modelos turbo), si quieres que la IA se apegue más a tus prompts puedes subir el Guidance Scale a 8,9,10 (aquí ya puede empezar a quemar un poco la imagen, o puedes bajarlo un poco hasta 6 ó 5 si quieres una imagen más suave y con más libertad, pero puede que no siga tantos tus prompts. La interfaz es un poco simple para mi gusto, recomendaría usar más el A1111 y e instalar la extensión de adetailer (más que nada para los ojos, rostro y expresiones), el adetailer de manos tiende a fallar pero a veces es bueno. Por último si te da la gráfica, trata de re-escalar a 1.5 las imagenes, muchas veces el resultado termina siendo mejor.
>>972 Excelente negro gracias mañana le doy una probada a ver qué tal con eso y pondré resultados por aquí.
>>973 De naga negro, estas las iba a subir de todas formas pero aprovecho para responder igual, son unos ejemplos que hice hace poco con EasyFluff, ahora voy a contradecirme un poco, pero me tocó escribir prompts muy largos de todas formas, pero lo importante aquí es el lora de HLLC, si lo desactivas te salen resultados como pic 2 y 3 (irónicamente pic 3 se supone que era una escena de sexo y la IA me dio una escena de turca al final) aunque a un amigo mío le gustó igual, para pic 5 ya fui simplificando los prompts (eran más de 200 y los deje en ciento y algo), pero antes de eso me tomo como 15 intentos. Lo cual es curioso porque no me dio tantos problemas con otras escenas, aunque es un modelo furro. Tengo más variaciones, pero o son errores o son mínimas, al ser con SD 1.5 todas están re-escaladas a x2 y con un Denoise Streght a 0.5 más adetailer y con CGF Rescale a 0.7 (lo uso para sacar más variaciones) De todas formas estoy un poco jodido con Ngrok y no estoy usando tanto Sagemaker como me gustaría.
Anons, nos acercamos al límite de bumps... ¿Alguna idea para la próxima temática del siguiente hilo?
>>975 que tal monas albinas o bueno con cabellera blanca y ojos rojos en trajes de latex o cuero?
>>975 >nos acercamos al límite de bumps Con lo que ha durado este hilo se me había olvidado el limite. >¿Alguna idea para la próxima temática del siguiente hilo? Yo nomino edición negras/marronas/prietas, pero la temática del hilo siempre ha sido algo simbólico que a todos les vale verga, aunque a decir verdad yo siempre trato de apegarme un poco a la temática, en este caso me anime a generar tanto turcas como furras (al final se le cumplió el deseo al furro anon y ni aparece kek), encima me anime a generar escenas de sexo para variar (esto a recomendación de un amigo), y hey, me ha gustado. No me hubiera animado de hacerlo antes. Hasta ahora hemos tenido a partir del hilo #2 >Edición de entrenamiento de IA >Navidad 1 >Bikinis y Uniformes militares >Chicas Gato >Indígenas latino americanas >Ropa Deportiva >Gyarus >Cosplay (esta fue la más difícil) >En la ducha >Conejitas Playboy y juegos de azar >Edición Farmeo para GPU Google nos odia (KEK) >Edición Navideña 2 >Pajas Rusas + Furra (actual) También hay que actualizar algunos enlaces que nadie lee como por ejemplo el notebook de Sagemaker de Ghost que OPé coloco esta re-obsoleto y no sirve y habría que cambiarlo por el Notebook de Takagi y Dreamscape AI, también Ngrok jode mucho y hace poco salió un nuevo método para usar Zrok a cambio de forma más fácil. También la guía pasada de OP para A1111 se le cayeron las imagenes, estaba pensando en hacer una guía comprensiva similar que nadie va a leer tampoco para que supieran adaptarse lo minimo a la interfaz de A1111 pero veo que no me va a dar tiempo. Quizás necesite hacer yo el nuevo hilo. Dejo algunas furras que generé con EasyFluff, aunque mis favoritas siguen siendo las escamosas. Tengo más pero necesitan Inpaint.
>>977 hablando de los links de OP, me apena anunciar que todos as pics del tuto al menos, se cayeron, pero no es desde ahora, ya hace buen rato que lleva así, al comienzo pensé que era solo mi inter que es una mierda, pero ahora volví a revisar y siguen todas caidas.
(1.79 MB 1024x1536 00011-1841842492.png)

(1.76 MB 1024x1536 00012-1841842492.png)

(1.66 MB 1024x1536 00013-2585759209.png)

(1.69 MB 1024x1536 00014-2585759209.png)

(1.74 MB 1024x1536 00015-2585759209.png)

>>978 Es una pena, gracias a esa guía aprendí a usar A1111 y no solo eso, perderle el miedo, demasiadas opciones, pero la guía lo hacía ver tan sencillo, aunque si lo piensas la guía murió junto con el servicio, aunque podría intentar hacer una guía comprensiva general, pero la interfaz post instalado de los notebook de Sagemaker, si bien es la misma, es menos completa, y encima hay que señalar a dónde descargar las cosas, de no ser por el maldito NGROK, el servicio de Mamazon sería mucho mejor, aunque podría intentar hacer algo similar a la guía de OP. Pero bueno, alguien tiene que hacer un nuevo hilo. <Aldo Ya que estamos en lo último del hilo, dejo unas Oppai Loli que intenté hacer con GhostXL haber si el checkpoint entendía el concepto, y en parte lo hace, solamente si le cambio el clip skip a 2, a partir de pic 3, sí empiezan a lucir como Oppai Lolis, pero la quinta pic me empezó a salir quemada así que desistí de seguir intentando. Recuerdo que para SD necesitaba al menos un lora de hyper tetas sacar Oppai lolis.


Forms
Delete
Report
Quick Reply