/ac/ - Feliz Navidad 🎄

Y próspero Año Nuevo

Página principal Catálogo Archivar Bajar Actualizar
Opciones
Título
Mensaje

Máximo de caracteres: 12000

archivos

Tamaño máximo de archivo: 32.00 MB

Tamaño máximo de archivo en total: 50.00 MB

Numero máximo de archivos: 5

Supported file types: GIF, JPG, PNG, WebM, OGG, and more

Correo
Clave

(usado para eliminar archivos y mensajes)

Misc

Recuerda leer las reglas

The backup domains are located at 8chan.se and 8chan.cc. TOR access can be found here, or you can access the TOR portal from the clearnet at Redchannit 3.0.

El evento intertablones ya comenzó
ven a celebrar Navidad con nosotros aqui


8chan.moe is a hobby project with no affiliation whatsoever to the administration of any other "8chan" site, past or present.

Reglas - Meta Nunca olvidar Contacto: acolitosadmin@protonmail.com Afiliados: 【 co / edit 】 Boards hispanos: 【 hispa / pol 】【 ve / ar / mex / pe】 【 rol / arte / av

(616.86 KB 1730x1065 Futuro.png)

El futuro de la animacion Anónimo 27/02/2023 (Lun) 03:03:15 17043
https://www.youtube.com/watch?v=_9LX9HSQkWo El avance en la tecnologia de inteligencia artificial los modelos de difusion, ahora permiten transforma video a otros estilo de video, en el video de esto artistas graficos, transforman video de ellos mismos en anime. Otra empresa. https://research.runwayml.com/gen1 En un par de años, los estudios de animacion, usan todo su material para entrenar estas AI y disminuir el costo de crear shows animados en ordenes de magnitud.
Hace tiempo hubo bastante movimiento por las IAs que convierten animación en 12-24FPS a 30-60-120 FPS y en uno de los vidéos de YouTube que comentaba el tema James Baxter dejó este comentario que creo que también se aplica a este contexto actual: >Está bien experimentar con herramientas nuevas mientras el artista así lo desee Pero probablemente Netflix abuse de eso para producir contenido de baja calidad; de hecho, ya lo está haciendo; y creo que ha recibido bastante mierda por ello. Me gusta la imagen adjunta, me recuerda a The Congress, definitivamente creo que Ari Folman será de los primeros en ocupar la herramienta para hacer rotoscopía. Y conectando con el tema de las IAs que extrapolan fotogramas: La IA solamente realiza una operación matemática, no entiende de las 12 reglas, para qué sirven, por qué sirven y en qué contexto se tiene que ser más flexible o estricto para producir belleza artística o impactar al espectador.
>>17044 Tienes razon, pero pensaba que el tablon responderia desde el punto de vista del consumidor no como artistas. El punto es esto es ciento o miles de veces mas barato que la animacion tradicional, mucho mas que el 3D y existe una mezcla de usar modelos 3D ultra basico para dar las instrucciones y la IA complete. El es un artista 3D japones, que ha trabajo en videojuegos anime, animado en 2.5D y en los ultimos meses usa toda las nuevas IAs para mostrar ideas, si quieres ver lo que estan haciendo los artistas. https://twitter.com/Yokohara_h El video completo https://www.youtube.com/watch?v=GVT3WUa-48Y ¿Y a nivel consumidor que opinas o de la industria en general?
>>17045 Si te das cuenta el comentario de Baxter también aplica a los que hicieron ese corto, el Stable Diffusion lo único que hace es procesar el archivo fotograma por fotograma, lo que hicieron ellos fue entrenar al modelo y meterle filtros para que entregue un resultado conciso, el resto del valor depende de los artistas. Al final lo que hacen no es diferente de Rotoscopía, me recuerda a The Congress o a Vals con Bashir. >¿Y a nivel consumidor que opinas o de la industria en general? Opino que ahora van a haber menos plazas de trabajos repetitivos (inbtweeners principalmente) y el trabajo se orientará hacia el lado artístico; probablemente el nicho de animación para el marketing se vuelva totalmente automatizado puesto que ahí solo quieren algo que "resuelva el problema" el valor artístico suele ser irrelevante. Y, bueno, como el tipo del vidéo comentó "esto ayuda a democratizar la tecnología (animación)" cosa que es verdad, con esto será mucho más fácil que cualquier Juan pueda montar un proyecto de rotoscopía sencillo y podría animar a que haya más proyectos a futuro por parte de estudios independientes. Otra cosa que hay que resaltar es que el cambio tecnológico hará que proyectos pasados se vean más mundanos, por ejemplo, Loving Vincent de acá a unos años pueda verse como cualquier cosa, pues cualquier IA puede generar pinturas con estilo de Van Gogh: https://youtu.be/pL930GaZcwM Pero no hay que olvidar que para esa película hicieron miles de cuadros independientes y esa es la razón por la que ganó tanta relevancia en su momento. Hay que recordar que no es la primera vez que sucede esto, en 1940 Disney presentó este corto en Fantasía: https://youtu.be/PfoZq9WieZA Cosa que podría encontrarse bastante mundano para estándares modernos, puesto que esa clase de animación puede verse en el reproductor de media de Windows desde hace décadas, pero eso fue animado tradicionalmente y apuesto a que debe de haber sido bastante novedoso en su momento.
(1.97 MB 498x488 FAqUlNwUcAE8AKp.gif)

>>17043 la animación siempre ha sido un dolor de huevos a demás de cara, realmente en comparación con otros medios esta no a dado todo su potencial, los que se quejan de las ia son los que tienen miedo de perder sus trabajos pero esto siempre a ocurrido y siempre ocurrirá con el avance tecnológico, los artistas deben ver si van a quedarse a tras o serán los primeros en experimentar con el potencial de las ia, yo solo quiero vivir lo suficiente para que cualquiera pueda hacer sus propias series de forma fácil y de calidad sin la necesidad pasar años estudiando animación o tener en tu sótano a niños chinos trabajando 18 horas sin sueldo, todos tenemos una serie autista con ocs que quisiéramos animar y las ia podrian facilitar eso el que no lo quieran ver como arte debería importar una mierda, el arte es objetivo o subjetivo solo cuando les conviene yo solo quiero hacer animación porno calidad disney con lolis cartoon
(572.73 KB 1190x452 imagen.png)

(1003.42 KB 972x743 1_PiReVu23YJS9Oi4LoOOZrg.png)

>>17048 >Al final lo que hacen no es diferente de Rotoscopía He visto mucho el comentario de rotoscopia. La historia es algo compleja pero en inteligencia artificial, visión por computadora, aprendizaje automatizado y redes neuronales paso esto. La visión por computadora es tomar una imagen y procesarla, por ejemplo defectos de fabricación en una linea de ensamble, detección de objetos, reconocimiento de rostros o segmentación de imágenes medicas, gran parte del campo era usar técnicas matemáticas para darle significado a las imágenes creando sistemas adaptado al caso de uso e incluso cámara, pero al final casi todo problema quería segmentar la imagen en distintas partes, eran cientos de métodos que terminan segmentando la imagen o haciendo operaciones que para un humano son obvias al ver la imagen, nombrar objetos, antes incluso se decía imposible poder definir que era una letra a o una manzana, se decía que porque una a podía ser creada de muchas formas plasmar la idea de que es una 'a' seria muy difícil, de una manzana que existían muchos colores, distintos ángulos de cámara o incluso cosas como una manzana podrida, que los sistemas no podrían entender el concepto de algo con una cantidad enorme de variantes . Si en photoshop u otro programa has usado, filtros, desenfoque gaussiano, ajuste de curvas, selección de bordes u otras cosas, todo eso nació en el campo de la visión por computadora, para intentar hacer tareas básicas. En aprendizaje automatizado es usar conjuntos de datos y algoritmos para clasificarlos por características creadas por expertos o que se auto gestione, al ver el problema de segmentación o detección de objetos como central, se tomo esa idea de usar distintos algoritmos para generalizar estas tareas basadas en ejemplos de entrenamiento y ajustar características especiales. A finales de los 90s se vio con éxito usar redes neuronales para detectar letras o números, este sistema se uso en USA para procesar correos físico o cheques, al entrenar con docenas de miles de letras o números manuscritos o de imprenta el sistema podía arrojar con un margen de error mínimo el reconocimiento de texto. Ahora en los 2010s el uso de redes neuronales profunda rompió todo los records y enfoques de ajustes de características al usar el propio sistema que aprendiera de millones de imágenes, ahora los problemas de visión por computadora se pasarían a redes neuronales, la imagen que pongo, es hacer la detección, la segmentación, el reconocimiento y entonces ... se propuso la idea de que se generara una descripción de imagen basada en la imagen, de imagen a texto, la idea eran las bases de datos multimedios o clasificación de imagenes, instagram usa este sistema para búsquedas o describir imágenes a ciegos. Luego los sistemas transferencia de estilo que se decía el comentario de Loving vincent seria un filtro de estos, son transferir una imagen a otra usando un estilo, de esto nacio los deepfake. En esos años se hablo mucho del problema inverso si un sistema puede hacer de A a B entonces puede hacer de B a A, la importancia de esto es que los sistemas de redes neuronales, necesitan millones o cientos de millones de casos de aprendizaje en texto, imagen u otros datos, modelos actuales usan miles de millones de casos, por lo que si puedes automatizar la generación de A a B, entonces puedes generar los casos para hacer de B a A. Otro problema era que los sistemas eran muy limitados a transformar de A a B, se quería poder usar otras formas de meter información o extraerla, el modelo o red neuronal termina siendo una caja negra sin saber como acceder a la información o ajustarla, La locura, fue usar tanto modelos del lenguaje como sistema de consulta, generar el problema inverso de describir una imagen a generar una imagen solo usando texto, por lo que esto que vez, es pasar una imagen, describir un estilo y generar otra imagen, El punto gordo, el modelo que usan tiene la capacidad de generar cualquier imagen, se alimenta el modelo con una imagen y descripción de estilo y genera otra imagen. La segunda imagen, el texto es transformado en imagen, ideas como texto, libro, animales, alberca olímpica, nadar de mariposa, poses, comida u objetos están el modelo, por ejemplo puedes tener pose animal, animal peluche, animal dibujo, forma de animal hecha con cosas, crear un texto hecho de plantas. Por ejemplo la animacion 3D siempre se habla que no se siente como la 2D, la 3D al necesitar modelos estándar, no existe la flexibilidad que añaden los animadores al poder adaptar cada frame a algo mas estético, realzar detalle, ocultar detalles, lo que han hecho los de corredor digital, es usar modelo que tanto aprendió de animaciones, fotografías reales, personas haciendo filtros de personas reales, dibujos artísticos con referencias, calcado o totalmente creados, el modelo entrenado, tiene las apreciaciones humanas sobre pasar una imagen real a una representación animada, el modelo contiene la idea de lo que se quejan los que discuten animación 2D vs 3D. La idea de rotoscopia es algo que surgió del modelo solo por entrenarlo con imágenes de artistas, imágenes reales y demás, nadie entreno el modelo para que entendiera rotoscopia, ese es el enorme poder de este corto, la tecnología es extremadamente genérica en la transformación de imagen a imagen, puede ser entrenada en gigantesco cantidades de imágenes y estilos, puede general la distancia entre imagen real, pintura hiperrealista, pintura, ilustración, y poder mezclar entre eso. Por lo que te puedes imaginar los aspectos, estética, estilo, expresiones faciales o corporales, iluminación, cámara, perspectiva y mas que se los añadas al modelo, y poder crear transformaciones, el modelo tendra millones de ejemplos de como una persona dibuja una cara enojada, de lado, desde un simple sketch a una cara real, edades, razas, sexo ... para los furros, la representación humano animales ... https://video-diffusion.github.io/ Google los creadores de los modelos de diffusion, trabajan en animaciones generadas con ellos, de texto a animación. El enorme potencial, es poder pasar storyboard, keyframes, arte conceptual, con ilustraciones, descripciones, captura de movimiento, animación de modelos de alambre muy simple como representación, grabar video, o captura de expresiones faciales a animación. Es poder replicar o crear cualquier estilo de animación, estilo artístico y poder controlar la animación con texto, video, animación 2D muy simplificada o un motor de videojuegos.
>>17043 Parece como si trabajaran con rotoscopía digital, la IA facilita parte del trabajo pero sigue necesitando demasiada limpieza y trabajo humano
(69.79 KB 938x823 1613156011687.png)

>>17043 Las IA recién están comenzando a popularizarse así que solo el tiempo dirá si la industria de la animación las adapta y como lo hace. En lo personal la veo como una herramienta más, como ocurrió con las computadoras y la digitalización. Dudo mucho que llegue a remplazar por completo a los artistas. Si creo que podría ser muy útil para reducir la carga de trabajo de los animadores, reducir costos y acelerar los tiempos de producción. La gente aveces es demasiado absolutista y muchas veces piensa que es una opción y no la otra, cuando la historia demuestra que las cosas nunca son blanco y negro. Por ejemplo, el cine no mato al teatro, la televisión nunca mató a la radio, la fotografía no mato a la pintura, etc. Puede ser que los medios cambiaran y se tuvieran que adaptar con el tiempo, pero eso no significo que uno reemplazara completamente al otro.
>>17049 >esta no a dado todo su potencial Elabora ¿A qué te refieres con no dar todo su potencial?
>>17049 >Vivir lo suficiente para que cualquiera pueda hacer sus propias series de forma fácil y de calidad sin la necesidad pasar años estudiando animación Pero negro, eso haría que hasta los jodidos y trastornados OC en Deviantart tenga relevancia
>>17069 No entiendo qué te preocupas, solo cambiarán la extensión de sus archivos de .jpg a .mp4
>>17049 El cope no es la IA o los artistas no quieran usarlas, el problema son los productores que reemplazaran a muchos artistas por hacer todo barato y por eso reniegan. No lo harán por el amor al arte o la animación, sino por dinero como netflix aprobando series y cancelandolas. Este tablón le duele la palabra calarts pero las series con estilo de humanos a lo rick y morty o craig of the creek son un ejemplo de la avaricia por encima del arte hace algo feo de ver, ya si usan bien la IA con un diseño de arte único y precioso no importaría. Klaus el mayor ejemplo de IA y artistas trabajando juntos sin miedo a reemplazo y abaratando costos de pintado. La animación de Pucca y South Park son fáciles de automatizar y son hermosos. Te doy la razón porque si algo me enseñó los Loquendo Walfas aún con malas historias es que talento de edición en casa existe y si tiene buena historia lo merece todo sin productores judíos aplastando el espíritu como le pasó a Samurai Jack
>>17052 Pues si, y Corridor Crew siendo compuesto por animadores y artistas de efectos especiales debería saber eso, pero no hace ni la más mínima mención del rotoscopio en el vidéo. Podría argumentar que lo hicieron para que el título sea más llamativo, o sea "anime con IA" suena mejor que "rotoscopía con IA", pero como mencioné; tampoco se tomaron la molestia de mencionarlo en el vidéo. >>17076 Lo dices como si la tercerización con trabajadores mal pagados en países del tercer mundo no fuera la norma desde hace décadas. Desafortunadamente el medio está condenado a estar plagado de judíos que no les interesa el arte en lo más mínimo y solo quieren lucrar. >Este tablón le duele la palabra calarts No voy a hablar por el tablón, pero en lo personal a mi me caga que usen mal el término. John manos traviesas Kricfalusi nunca se refirió a un estilo de dibujo en específico; sino a la actitud de artistas novatos de meterse a la industria solo porque son fans de un estudio o de un animador y cuando finalmente les toca entrar al campo laboral no entienden los fundamentos, así que solo copian las cosas de las que son fans. >si algo me enseñó los Loquendo Walfas aún con malas historias es que talento de edición en casa existe Como alguien que lleva en YT desde el 2006 y en el loquendo poco después, siempre consideré a las walfas la peor basura que le sucedió al loquendo ¿De verdad alguien llegó a hacer algo decente? de los pocos vidéos que vi, la mayoría eran mierda.
(1.18 MB 1280x720 cut.mp4)

Y pensar que hace años bromeaba con que la industria japonesa está tan orientada al consumismo que apenas se desarrollen las ias que puedan animar lo usarán completamente y aquí estamos. Aún estamos bastante lejos de que los inbetween-monkeys sean completamente desarrollados, pero esto es un progreso bastante considerable. En concreto usaron la ia para hacer los fondos (y lo noté al tiro), acá está su flujo de trabajo, primero hicieron un borrador, luego usaron la ia para pintarlo y añadirle detalles y finalmente le dieron un pulido manual.
>>17108 Tomando en cuenta que ya en muchos animes los fondos son fotografías trazadas, reemplazarlo por IA sería algo muy esperable.
Salió la segunda parte del corto Rock Paper Scissors ¿Que ahora es una serie animada? idk, vayan a verlo, el tipo tiene un uso genuinamente impecable del rotoscopio que no se ve todos los días: https://youtu.be/tWZOEFvczzA
>>17117 >Tomando en cuenta que ya en muchos animes los fondos son fotografías trazadas, Kek, es cierto, pero un estudio japones hizo corto animado con fondos generados con IA y a pesar de que estaba en los créditos que los fallos de los fondos fueron arreglados por personas a la gente le ardió el culito por haber sido generados con IA en primer lugar.
>>25654 ¿Hubo respuesta negativa del corto del perro en internet?
Bueno ¿Ahora quiere que sea una serie animada? ok. El corto inicial estaba bien como prueba de concepto, pero este nuevo vidéo comete demasiados errores; especialmente la cara del protagonista de nicho luce horrible y en el enfrentamiento final las manos del bárbaro acaban rellenándose de piel, lo cuál se ve raro. Realmente no luce nada mal, pero si quieres hacer algo más que solo una prueba de concepto falta pulir demasiado los detalles; especialmente ¿Cuál es la necesidad de animar en unos? siendo que el estilo que buscas imitar suele estar hecho en seis o incluso menos. Con menos fotogramas por segundo podrían limpiar fácilmente todos esos errores pequeños especialmente alrededor de los rostros y las pupilas. Esto también muestra las limitaciones del modelo que están usando; que se ve espectacular para los dos hermanos pero a la hora de tratar de generarlos de niños le acaba dando una embolia. Estuvo decente en general.
(925.56 KB 400x300 adelante mis 43.mp4)

>>17043 >transforman video de ellos mismos en anime. Esa técnica no es nada nueva. Francisco Macián ya habia creado el tecnofantasy haya por el 68 https://youtube.com/watch?v=NUl2DMd4fn0&feature=share9
>>25666 Primero que nada, genuinamente no encuentro que le ves de "ánime" a lo que has posteado. En segundo lugar, el core de la "técnica" del vidéo no es el uso del rotoscopio; eso lo puede hacer cualquiera, en realidad el core es usar el Stabble Diffusion para clonar el estilo de diseño de personaje de un artista japonés o el de una serie en concreto (creo que en el making of comentaron que usaron el estilo de Vinland Saga) y que se mantenga constante a través de los fotogramas. El modelo lo han entrenado con un estilo en concreto y se nota porque las mujeres y los niños les sale absolutamente cagado. El rotoscopio es para ahorrar incluso más, estoy seguro que podrías hacer lo mismo con storyboards y borradores.
>>25653 Se ve de la mierda sin retoques humanos y sin usar principios Esta dentro del valle inquietante
>>25669 Si eso te parece malo esperq a verlos hablar.
>>25659 La calidad se ha notado con el paso del tiempo en su degradacion con fines de produccion , vease occidente y sus mamarrachadas series de 3 tipejos que no suelen estar bien del cerebro , la ia solo nos dara variedad para saciar muchos lares por el cual las producciones se niegan a dar o a tener , tecnicamente es la caida de los triple a y el auge de los indie como sucedio en la industria del videojuego moderno >negros , estoy alegre de la ia y soy un dibuja anon , la calidad en la variedad se aproxima!.
>>25710 Tu comentario está tan escrito como la mierda que ni se por donde comenzar; así que me limitaré a: >es la caida de los triple a y el auge de los indie como sucedio en la industria del videojuego moderno Las producciones independientes tienen relevancia en la industria desde hace décadas; toma a Mondomedia y a Frederator como ejemplos. No es lo mismo que en los 2000s, en esa época cualquier persona podía instalar flash en cualquier canaima y volverse animador de un día para otro y conseguir un nicho; las herramientas de IA ya están muy por encima de los recursos que tienen la computadora promedio para desplegarlos localmente (además que no es evidente), los servicios gratuitos son lentos y los de pago, bueno, son de pago. No va a haber una adopción masiva del mercado debido a todo lo mencionado anteriormente.
>>25715 >computadoras promedio , de pago Barrera para los memepobres y venezambos , los seres humanos no tendran problemas en ese caso
>>25751 Lolno. Te lo digo como alguien que está metido en ese mundillo; un modelo sencillo de generación de textos requiere mínimo 8gb de VRAM para correr localmente de manera decente y responsiva; o sea, una tarjeta de vidéo de gama media cuyos precios se dispararon en la pandemia. Para peor todos esos modelos están hechos para correr en Cuda que es exclusivo de Nvidia; existen métodos para correr en una AMD pero tienes que darle mil vueltas y navegar por guías de git que usualmente no están bien documentadas.
>>17043 Ya estan usando IAs para hacer cosas al publico. En mi memerancho miado uno de los bancos ya usa IAs de animacion para hacer los fondos donde hablan sus anuncintes. El fondo cambia mucho y en slgunos casos casi parece que estas en un viaje alucinogeno con acido, pero ya las usan.igual para no contratar actores, usan IAs para hacer personas falsas en lgunas partes de esos comerciales
>>25753 Era evidente que los primeros en perder el trabajo serían los que hacen diseño gráfico, pues esa labor; salvo excepciones es en su mayoría repetitiva, genérica y de alta demanda. Es el equivalente del inbetweener monkey o el codemonkey del diseño gráfico. > uno de los bancos ya usa IAs de animacion para hacer los fondos donde hablan sus anuncintes ¿Podrías mostrar algunos ejemplos?
>>25756 No pude grabar y creo que ein internet no estan subidos. Pero era como las animaciones que recien postearon en /av/ de una loli, aparentemente se ve igual, pero si miras, todo el entorno y hasta la loli cambia, algo asi era. Por ejemplo, habia una cascada y esta se movia mucho comk si tuviera bajos Fps, pero de la nada agregaba cosas en la imagen que no iban alli.
>>25767 > pero si miras, todo el entorno y hasta la loli cambia Eso es debido a que la herramienta está hecha para generación de imágenes, no a la generación de vidéo. Además de que es un modelo heurístico, cambios pequeños en cada fotograma tiran resultados muy diferentes. En el vidéo del OP explica cómo es que abordaron ese problema y como trataron de mitigarlo, pero en el producto final sigue siendo persistente por el simple hecho que la herramienta no fue hecha para producir vidéo. Es como querer clavar un clavo con un destornillador.
>>17043 Ya salio un youtuber que se reemplazo a si mismo con una IA y esta saca videos 24/7, hace comentarios basados en su personalidad y juega minecraft como el No falta mucho para que reemplacen equipos de animadores enteros por un par de "tecnicos de IA" que supervicen las IAs para hacer animaciones
>>26458 Hay un salto bastante grande entre reemplazar a una personaje que hace gameplays de un videojuego a reemplazar un equipo de producción de animación. Un modelo generativo de texto es infinitamente más sencillo; para empezar ¿Cómo se supone que vas a digitalizar las reglas de la animación? ¿Cómo vas a alimentar una red neural con eso?
>>26463 Negro, con programacion nada es imposible. Solo mira el salto que dimos de los 90 a la atualidad. Exagere con "en poco tiempo", pero poco a poco se ira implementando, ya para arte de videojuegos y animaciones de empresas cutres ya lo estan usando
>>26471 Anon, yo hago bots de manera aficionada y sé de ciencias de la computación; existen problemas que no se resuelven simplemente con agregar un CPU más grande. Todo lo que tenga que ver con la digitalización de un problema análogo se encontrará con niveles obscenos de complejidad; no puedes simplemente alimentar una IA con cualquier información que encuentres, por más complejo y refinado que sea tu algoritmo si la data está mal clasificada entonces el resultado será malo y el proceso de clasificación implica un input humano. Y todo eso sin mencionar el problema de la computabilidad, que desde hace décadas que los recursos de hardware se encontraron con un valle y que el progreso tecnológico raras veces siguen un avance lineal.


Forms
Eliminar
Informar
Respuesta rápida