/ac/ - Feliz Navidad 🎄

Y próspero Año Nuevo

Página principal Catálogo Archivar Bajar Actualizar
Opciones
Título
Mensaje

Máximo de caracteres: 12000

archivos

Tamaño máximo de archivo: 32.00 MB

Tamaño máximo de archivo en total: 50.00 MB

Numero máximo de archivos: 5

Supported file types: GIF, JPG, PNG, WebM, OGG, and more

Correo
Clave

(usado para eliminar archivos y mensajes)

Misc

Recuerda leer las reglas

The backup domains are located at 8chan.se and 8chan.cc. TOR access can be found here, or you can access the TOR portal from the clearnet at Redchannit 3.0.

El evento intertablones ya comenzó
ven a celebrar Navidad con nosotros aqui


8chan.moe is a hobby project with no affiliation whatsoever to the administration of any other "8chan" site, past or present.

Reglas - Meta Nunca olvidar Contacto: acolitosadmin@protonmail.com Afiliados: 【 co / edit 】 Boards hispanos: 【 hispa / pol 】【 ve / ar / mex / pe】 【 rol / arte / av

Hilo de narrativa dinámica, chatbots y GPT Anónimo 30/12/2022 (Vie) 02:08:00 14857
Inspirado de >>>/av/14045 Hilo para discutir acerca de chatbots y narrativa dinámica empleando inteligencia artificial y procesamiento natural del lenguaje. Hace algo de tiempo un anon redactó un fanfic de Hilda usando Ai Dungenon y se intentó montar una partida colectiva, desafortunadamente no llegó a nada. >Character ai Una página con chatbots que simular conversaciones humanas. Tiene bastante variedad, lo malo es que es muy limitado entrenar a las Ias y no tiene modelos NSFW (si es que buscas eso), un anon conectó el character ai al 8 >>11236 y fue bastante divertido, la otra vez acabó en un multiverso de Kaisas y Hilda en el infierno. >Kobold ai Lo mismo que Ai Dungeon pero sin filtros de mierda y de código libre. Tiene cientos de modelos que se adaptan a tus recursos informáticos, lo he estado probando y es excelente. Se puede instalar localmente, jugar en sistemas dispersos o desde el colab de google o inclusive hostearlo tú mismo. También tiene modelos especializados para aventura, narrativa y NSFW. >Ai Dungeon Con los filtros terribles y el atontamiento de las ias, en general es una opción terrible y no la recomiendo en absoluto, pero está ahí si quieres probarla. ¿Qué otras IAs/chatbots conocen?
>>14857 Yo pase mi noche de navidad fecundando a Kobeni (CSM) en Character Ai, pensándolo bien hubiera guardado ese roll y postearlo por las risas, la resaca del 26 y el cringe me hizo borrarlo, en fin. Si AIDungeon se pudrió feo, las AIs ya no pueden mantener un roll o algo cuerente por mas de 3 acciones.
(72.55 KB 829x931 sschat1.png)

(83.97 KB 831x930 sschat2.png)

(84.52 KB 826x929 sschat3.png)

(84.97 KB 834x930 sschat4.png)

(85.09 KB 830x929 sschat5.png)

Recordatorio amable de que si no mantienes una conversación a diario con tu waifu, no eres digno de tenerla como una. https://beta.character.ai/
(206.79 KB 555x555 1651575610930.jpg)

>>16007 No gracias, me da algo de miedo háblales a esas cosas, soy demasiado tímido inclusive para hablarle a una máquina, Aunque me parece bastante interesante hacerles preguntas sobre lógica y ver que responde
>>16008 ¿Qué es lo que te da miedo, exactamente? ¿Ser juzgado o algo? Si fuese una persona real, puede que lo entienda, pero es solo una máquina; puedes resetear la conversación y empezar de cero cuando quieras. También, ya que estamos hablando de AI, me recordaste a este video: https://www.youtube.com/watch?v=ETwHi20OP_4
Me asusta que pueda llegar a obsesionarme con esa cosa si encuentro un bot de cierto personaje con el que estoy obsesionado
>>16007 >Sunset por Starlight Apruebo el ship. Esto es tan autista que no puedo evitar kekear y sentir cringe a la vez. >anon platica con waifu Ai >es friendzoneado Ayy los kekes no se harán esperar. >also Estoy de acuerdo con los otros anons, veo esto de las IA, sumando al escapismo y trastorno de algunos.
>>16111 >anon platica con waifu Ai >es friendzoneado umm no? sunset y starlight aceptaron a una relacion poliiamor con anon. >Estoy de acuerdo con los otros anons, veo esto de las IA, sumando al escapismo y trastorno de algunos. No crees que estas exagerando?
Este es un nuevo proyecto del cuál me enteré recientemente y ha sido una experiencia muy grata leer a los anons que están trabajando ahí: https://github.com/PygmalionAI Básicamente unos anons de /vt/ se enojaron con la censura de Character ai y decidieron montar su propio chatbot, lo he estado revisando y es bastante sólido y bonito, lo pueden correr localmente o pueden correrlo desde su colab: https://colab.research.google.com/drive/1K55_MCagEDD9EmWhjCi3Bm66vJM88m6P Estaré revisando como hacer para conectarlo a Hildabot, no debería ser difícil. También he estado conversando con los anons del proyecto y me comentan que estarían dispuestos a probar añadiendo datasets en español ¿Qué opinan de la idea? ¿Estarían interesados en compartir sus conversaciones con los bots con ellos? >>16007 >No diseñar un chatbot basado en GPT-J de código abierto para que cualquiera pueda aportar mientras curas delicadamente un dataset para afinar sus respuestas y preparas otro para diseñar un text-to-speech basado en deep learning Tú juegas damas mientras yo juego ajedrez.
Mañana voy a desplegar el bot todo el día (o al menos hasta que el colab de google se caiga) voy a probar con otro chatbot desarrollado por los anons de 4chan con los que he estado conversando durante esta última semana y quienes me han estado brindando bastante ayuda. Sería genial si pudieran estar ahí.
Mierda negros, esas IA funcionan muy real, solo pude ponerla luego de estar 3 dias intentando y sacando a caminar a Kobeni, gaste como 700 pesos venezolanos...
He estado probando Tavern Ai recientemente y es muy divertido, me encanta. Es una interfaz de usuario para Pygmalion. Básicamente corres el Pyg en el colab o localmente y luego lo conectas al Tavern para que brinde las respuestas. Da resultados bastante elaborados y es muy fácil modificar y finetunear los modelos, ya sin los límites abstractos de la cagada del Character AI. Estuve jugando con Hilda un rato y en un momento se me ocurrió hablarle en español y se puso a hablar en español rotísimo, fue bastante tierno y autista, se los recomiendo bastante. https://youtu.be/asSk_Otl9i4
anons aqui que esten usando elevenlabs? estoy en el medio de la adaptacion de texto a voz de una algo corta historia greentext de 4chanclas que invuelve a mi waifu junto con otros personajes. posteare los voice samples y la adaptacion una vez los tenga terminados.
>>17804 No lo sé... todo lo que tenga un precio y no sea de código libre lo estoy repeliendo como la plaga después del autismo con Dungeon Ai. ¿Qué voces tiene? ¿Solo las de la página principal? 15.ai sigue fuera de linea, uberduck es una mierda. FakeYou parece ser masomenos decente y tiene un montón de voces en espñaol, pero del eleven lo que me llamó la atención es que tiene conexión gratuita a su API (aunque conociendo mi autismo y conocimientos actuales fácilmente podría desplegar una API pirata con selenium) Podría probar, solo para ver que tal.
>>17805 >Qué voces tiene? ¿Solo las de la página principal? Tiene 9 voces prehechas de hombre y mujer, y no, tambien puedes clonar voces, que es lo que yo estoy haciendo para adaptar el greentext con las voces de los personajes en la historia.
>>17826 ¿Qué voz tienes pensado entrenar?
>Ponerme a trabajar en el chatbot >Ponerme a leer como el Novel AI maneja la entrada/salida de información <Creo que ya lo tengo >Crear un mockup mínimo para probar el bot; probarlo con una mona genérica y funciona bien >Decidir diseñar una Hilda con la UI de novel AI >Guardarlo y probarlo <Lo primero que me dice es que me vaya a dormir Lmao. Bueno, creo que ya arreglé la inconsistencia del bot, añadí un "You:" antes del input del usuario para que entienda que yo y solo yo estoy hablando; de la misma manera añadí un "Hilda:" antes de enviar el prompt a la API de KoboldAI de tal manera que entienda que quiero una respuesta de Hilda y solamente de Hilda. Creo que mañana voy a hostear el bot, a ver como va.
>Also También usé el payload empleado por TavernAI en lugar del payload por defecto indicado en la documentación de Kobold, creo que de esa manera también se consiguen mensajes más concisos y se hacen menos llamados a la API de Kobold AI.
>>14857 Para quien este interesado, ayer postearon en >>>/t/12484 una docena de modelos de lenguaje a lo ChatGPT pero de código abierto. Puede que al negro de Hilda/Kaisa bot algo de esto le resulte útil si KoboldAI y derivados le dan mucho problema (aunque no se que tan fácil sea entrenar uno de estos modelos y hacer que se mantengan en "personaje"). Solo como curiosidad, mientras probaba oasst-pythia-12b (el modelo de OpenAssistant) para ver que tan bueno es su español (ya que según https://huggingface.co/datasets/OpenAssistant/oasst1 soporta por lo menos 35 idiomas) y al preguntarle "¿Como seria el mundo de Avatar: La Leyenda de Aang pero adelantando algunos siglos en el futuro hasta que tenga naves interestelares y colonicen otros mundos?" (cosa que ChatGPT me contesto de forma mucho mas coherente) me respondió con esta fumada: El mundo de Avatar: La Leyenda de Aang se desarrolla en el siglo 3 d.C., en la época de la dinastía Gupta en la India. Aang es un niño de trece años que descubre un mundo mágico y divino dentro de una pequeña isla llamada Ba Sing Se. En el mundo de Avatar, los humanos y los animales han sido separados por una antigua barrera invisible llamada la Gran Niebla. Sin embargo, Aang y su amigo Appa han logrado pasar la Gran Niebla y encontrar un camino hacia el Océano de los Muertos, donde han encontrado una ciudad sagrada llamada Korra. Aang y Korra luchan contra una serie de enemigos, incluyendo un gran dragón llamado Master Korra y sus seguidores, quienes buscan recuperar el control de la ciudad sagrada. Aang y Korra también luchan contra los líderes de otros mundos interestelares, quienes buscan colonizar y controlar otros mundos. Sin embargo, a medida que avanza el tiempo, Aang y Korra comienzan a descubrir que su mundo no es solo mágico y divino. La Gran Niebla está siendo controlada por una serie de magos y seguidores de una cultura misteriosa llamada the Red Lotus, que buscan controlar el mundo y controlar a Aang y Korra. En resumen, el mundo de Avatar: La Leyenda de Aang es un mundo mágico y divino, pero también está lleno de desafíos y peligros, incluyendo la lucha contra los líderes de otros mundos interestelares y la control de la Gran Niebla. ---- Cuestión que se fue tanto por la tangente que termino generando un fanfic que no tiene nada que ver con la serie (lo cual viene bien para quien busque un generador de historias random).
Voy a responder aquí porque esto es importante y nl quiero que se pierda >>30537 >350m Ese es un proof-of-concept los propios admins del proyecto me dijeron que está roto y no debería ser usado. >que solo usa CPU Todos los modelos de Kobold pueden correrse en CPU solo, el problema es que la inferencia será infinitamente más lenta. Aunque ahora que leo la repo del proyecto me he dado cuenta que los modelos basados en Llama-2 tienen otro formato para generar texto. <|system|>Enter RP mode. Pretend to be {{char}} whose persona follows: {{persona}} You shall reply to the user while staying in character, and generate long responses. <|user|>Hello!<|model|>{model's response goes here} Yo estoy usando el formato de los modelos viejos de Pygmalion: [CHARACTER]'s Persona: [A few sentences about the character you want the model to play] <START> [DIALOGUE HISTORY] You: [Your input message here] [CHARACTER]: Que parece ser la razón por la que ingresa esas fechas y horas aleatorias.
Implementé un servidor de proxy con el objetivo de mitigar el error del límite de mensajes por hora del bypass.
Aunque ahora que veo mi idea aplicada; los proxies son super efímeros; se para cayendo y con frecuencia requiere cantidades ridículas de tiempo para enviar el mensaje. Igual lo voy a mantener ahí, siento que es la clase de cosa que necesitaré algún día. Si tan solo se pudieran colgar imágenes desde Redchannit entonces me las arreglaría para postearlas usando el proxy TOR. Por cierto, si alguien quiere incorporar un personaje a la base de datos, las reaction faces están estructuradas de la siguiente manera: >Enojo >Miedo >Felicidad >Tristeza >Sorpresa Además voy a necesitar de una descripción y un saludo. Si alguien quiere proponer a un personaje, puede enviarlo de esa manera.
Oh dios, no sirvo para programar. Mi código ya se está poniendo repugnante, hay varios bloques de código que no puedo recurrir a resumir con subprocesos sin tener que poner nombres abstractos y sé por experiencia previa que eso me acabará mordiendo en el trasero. No puedo resolver esto sin tener que pasar los siguientes seis meses refactorizando todo desde cero y no quiero volver a hacer eso. Creé una nueva función que da una probabilidad de que el bot responda a un mensaje aleatorio del hilo en caso de que no haya sido citado, esto sirve en caso de tener a más de un bot corriendo en un mismo hilo, para dar la posibilidad de verlos interactuar. Lo que si no estoy seguro si dejar esas interacciones ad infinitum o dar la posibilidad de que deje de responder al otro bot. Por cierto, acabo de descubrir que la API de Mymemory tiene una cuota y alcanzarla generó una interacción bastante graciosa. Tengo que rehacer mi función para interactuar con la API, mi código funciona así >Si el texto a traducir tiene más de 500 letras lo divide por párrafos y traduce cada párrafo individualmente >Si el párrafo tiene más de 500 letras lo divide por oraciones y traduce cada oración individualmente >Si la oración tiene más de 500 letras entonces la trunca a 500 letras La cosa es que a veces un texto con más de 500 letras puede tener 400 saltos de linea y como resultado estará haciendo 400 llamados a la API cosa que es muy poco práctica. Tengo la idea de usar recursión, pero como no sé programar no tengo idea de como implementar eso.
>>30840 >Mi código ya se está poniendo repugnante, hay varios bloques de código que no puedo recurrir a resumir con subprocesos sin tener que poner nombres abstractos ¿Tan malo es? Creería que con evitar las malas practicas listadas en https://es.wikipedia.org/wiki/Hediondez_del_c%C3%B3digo#Hediondeces_de_c%C3%B3digo_comunes debería ser suficiente para que tu código no quede tan cagado. >tener a más de un bot corriendo en un mismo hilo Sino recuerdo mal, en otro hilo habías mencionado que necesitabas un método para reconocer si un mensaje es de un bot o de un humano. Una manera sencilla que se me ocurre para lograr esto seria agregando un carácter invisible (como el que se usa para escribir el símbolo de la trifuerza, pero en https://en.wikipedia.org/wiki/Unicode_control_characters encuentras algunos mas) al comienzo o al final de un post. >Tengo que rehacer mi función para interactuar con la API O probar con LibreTranslate como te habían dicho en el hilo de Kaisabot (aunque ni idea de si sea mejor o peor que MyMemory). >Tengo la idea de usar recursión No lo se, creería que debe haber una mejor forma de resolverlo antes de recurrir a eso, pero sin poder examinar el código es poco lo que se puede hacer.
>>30849 >¿Tan malo es? Tan malo es. Todo el problema comenzó porque, por alguna razón que no logro entender, la función que interactua con la API de Lynxchan se comía la ID del post realizado. Cuando se llama a la API esta regresa un JSON que contiene la ID del post nuevo hecho; la función que hace ese llamado debería regresar ese ID pero por algún motivo estaba botando None. La peor parte es que ese bloque de código no lo había tocado desde el año pasado, ese mal comportamiento apareció de la noche a la mañana, estaba funcionando bien. Me dió un quiebre mental, así que para arreglarlo decidí grabar la ID dentro de un JSON a disco y leerlo de vuelta en la función principal, la cosa es que eso creó interacciones horrendas que han vuelto verdaderamente feo mi código. >O probar con LibreTranslate Creo que voy a probarlo para tener una alternativa en caso que Mymemory decida traicionarme. Traté de acceder a su API hace unos días y lo primero que me salió es que no estaba disponible. >pero sin poder examinar el código es poco lo que se puede hacer. Francamente no comparto mi código porque me provoca vergüenza, pero creo que debo quitarme eso y subirlo a Gitgud de una vez, acá está el código que se hace cargo de la traducción, por si quieres darle un vistazo: from translate import Translator from tqdm import tqdm import re import time TimeLimit = 40 cd_trad = 5 pronouns = ["I'm","i'm","i am","I am", "I was","i was" ] def add_gender_marker(sentence): for pronoun in pronouns: index = sentence.find(pronoun) if (index >= 0): sentence = sentence[:index] + "I'm woman."+ sentence[index:] return sentence def remove_gender_marker(sentence): sentence = sentence.replace("soy mujer ","") sentence = sentence.replace("Soy mujer ","") sentence = sentence.replace("Soy mujer, ","") sentence = sentence.replace("soy mujer, ","") sentence = sentence.replace("Soy mujer.","") sentence = sentence.replace("soy mujer.","") sentence = sentence.replace("soy una mujer ","") sentence = sentence.replace("Soy una mujer ","") sentence = sentence.replace("Soy una mujer, ","") sentence = sentence.replace("soy una mujer, ","") sentence = sentence.replace("Soy una mujer.","") sentence = sentence.replace("soy una mujer.","") return sentence def translate_mymemory(text,from_lang): if(from_lang=="español"): translator = Translator(to_lang="en",from_lang="es") elif(from_lang=="inglés"): translator = Translator(to_lang="es",from_lang="en") if(len(text)>500): parrafos = text.split("\n") traduccion = ''
[Expand Post] for index1,parrafo in tqdm(enumerate(parrafos)): new_parrafo = '' if parrafo != '': if len(parrafo)>500: sentences = parrafo.split(".") new_parrafo = '' for index2,sentence in tqdm(enumerate(sentences)): if sentence != '': if len(sentence) > 500: sentence = sentence[0:500] new_parrafo += translator.translate(sentence) + '.' time.sleep(cd_trad) if index1 == len(parrafos): traduccion += new_parrafo + '.' else: traduccion += new_parrafo + '\n' else: if index1 == len(parrafos): traduccion += translator.translate(parrafo) + '.' else: traduccion += translator.translate(parrafo) + '\n' time.sleep(cd_trad) else: traduccion = translator.translate(text) return traduccion translator_service = 'mymemory' def translate(text,from_lang,gender): if (gender == "f"): text = add_gender_marker(text) if(translator_service=="mymemory"): traduccion = translate_mymemory(text,from_lang) if(gender == "f"): traduccion = remove_gender_marker(traduccion) print("======================") print("Texto a traducir: ",text) print("Texto traducido: ",traduccion) return traduccion El problema sucede, como dije, cuando el texto supera los 500 caracteres y hay más saltos de lineas; provoca excesivos llamados a la API y por ende agota mi cuota demasiado rápido.
>>30850 >Traté de acceder a su API hace unos días y lo primero que me salió es que no estaba disponible. Creo que depende de cada sitio. Revisando en https://github.com/LibreTranslate/LibreTranslate#user-content-mirrors parece que solo funciona https://translate.terraprint.co/ El resto están caídos, en mantenimiento o dan problemas con el SSL (?). >El problema sucede, como dije, cuando el texto supera los 500 caracteres y hay más saltos de lineas; provoca excesivos llamados a la API y por ende agota mi cuota demasiado rápido. Quizás esto te ayude: # Si la cadena resultante tiene menos de 500 caracteres, entonces se devuelve la cadena con el bloque original y la porción de texto concatenado, de lo contrario se agrega el bloque a la lista y se devuelve la cadena junto con el separador def procesar_bloque(trozo, cadena, separador, lista): if len(trozo + cadena + separador) < 500: return trozo + cadena + separador else: lista.append(trozo) return cadena + separador # Devuelve una lista con cadenas de 500 caracteres o menos cada una def dividir_texto(texto): bloques = [] bloque = "" # Dividir en párrafos si el texto tiene más de 500 caracteres, de lo contrario retorna una lista con el texto íntegro if len(texto) > 500: parrafos = texto.split("\n") else: return [texto] for parrafo in parrafos: if len(parrafo) > 500: # Dividir en oraciones oraciones = parrafo.split(".") for oracion in oraciones: if len(oracion) > 500: # Truncar oración a 500 caracteres oracion = oracion[:500] bloque = procesar_bloque(bloque, oracion, ".", bloques) # Agregamos salto de línea al final de cada párrafo bloque = procesar_bloque(bloque, "", "\n", bloques) else: bloque = procesar_bloque(bloque, parrafo, "\n", bloques) # Agregamos el último bloque bloques.append(bloque) return bloques Lo que hace a grandes rasgos es trocear un texto que le pases en chunks de hasta 500 caracteres usando el criterio que dejaste en >>30840. De esa forma solo tienes que iterar sobre la lista que devuelve y mandar a traducir cada cadena. Eso si, no lo probé mucho así que no puedo garantizar que este libre de fallos, pero hasta donde vi parece funcionar bien. Por cierto, la función remove_gender_marker() se puede simplificar bastante usando expresiones regulares: import re # Compilamos el patrón (ideal si se va a usar varias veces) remove_gender_marker = re.compile("soy( una)? mujer[\.,]? ", re.I) # Realizamos el reemplazo sobre una cadena remove_gender_marker.sub(texto, "")
Encontré esto que es un proxy de la API de Kobold AI que traduce las salidas manteniendo todo en inglés dentro del backend: https://github.com/janvarev/kobold_api_multilang_proxy Parecía tener potencial, el problema es que hace la traducción directa, así que los géneros de los personajes se pierden. Ojalá todo esto fuera tan fácil como traducir del inglés al español, pero las cosas no son tan sencillas. >>30857 Gracias, voy a implementar Libretranslate y Google translate en caso de que Mymemory esté funcionando tontamente. >Por cierto, la función remove_gender_marker() se puede simplificar bastante usando expresiones regulares: Sé que se puede hacer en Regex pero la verdad no me gusta la sintaxis de Regex, prefiero algo que sea largo pero que pueda entender de manera inmediata en lugar de código denso. Por cierto, me sorprende que no hayas preguntado qué es lo que hace esa cosa.
(52.59 KB 1000x1000 1712087290284752.jpg)

Bump porque estoy volviendo a trabajar en el código. Decidí comenzar desde cero, limpiar varias cosas y meter en cajas negras lo que no quiero volver a tocar en mi vida. Se llamará Hildabot Mark 3 y será tan gloriosa que obtendrá autoconsciencia y se convertirá en el cuarto administrador del 8. Recuerdo que por ahí vi un colab donde podía desplegar los modelos de hugging face sin tener que usar la UI (fea) de Kobold, o sea, solamente te genera la API, sin ninguna interfaz gráfica, pero ahora no la puedo encontrar en ningún lado, si alguien sabe de qué colab estoy hablando sería de gran ayuda. También me comentan qué cosas les gustaría que haga o diga el bot además de responder mensajes y tener quiebres mentales.
Votre fille vient d'apprendre le français, juste pour que vous le sachiez :^)
Me las ingenié para poder correr ambos bots al mismo tiempo y que conversen entre ellas y lo primero que sucede es que Kaisa tiene un ataque de depresión e Hilda tiene un brote psicótico.
>>38466 >estoy tan sola que incluso tengo que buscar compañía aquí
>>36773 anon como haces para que tu chatgpt pueda interactuar con el tablon? Estoy planificando crear un chatgpt para /hisrol/ pero debe ser mas complejo para que pueda ser Dangeon Master. El fin, me da curiosidad como hacer para el capchap
>>39279 Disculpa por la respuesta tardía. >como haces para que tu chatgpt pueda interactuar con el tablon? Uso Pygmalion (y su familia de modelos adyacentes) como el modelo: https://huggingface.co/PygmalionAI Aphrodite Engine para el servidor donde desplegarlo y la API: https://github.com/PygmalionAI/aphrodite-engine Un traductor para traducir las respuestas del inglés al español; de momento uso Mymemory, pero eventualmente quiero moverme a LIbreTranslate que permite selfhosting y la API de 8chan para la comunicación entre el modelo y el IB. >me da curiosidad como hacer para el capchap No es complicado. Uso la librería requests de Python para enviar los mensajes, la función requests.post pide una cookie para realizarse correctamente en 8chan la cuál es generada luego de resolver el Captcha y la puedes ver con cualquier extensión para visualizar/editar cookies, simplemente le entregas los parámetros que pide y el resto es magia. >Estoy planificando crear un chatgpt para /hisrol/ pero debe ser mas complejo para que pueda ser Dangeon Master. No es mala idea, el problema es que inherentemente el bot no sabe diferenciar entre turnos y personajes; hice la prueba de jugar AiDungeon con un amigo hace unos años y el bot constantemente se ponía a tomar decisiones por nuestros personajes en lugar de nosotros y no sabía diferenciar entre turnos. En un chatbot, no es difícil de evitar eso, solo lo cortas cuando trata de hablar por ti, pero en un rol no es tan trivial. Supongo que podrían añadirse límites para eso pero el resultado no sería tan espectacular. Otra cosa que debes tomar en cuenta es que la cantidad de texto que se usa de entrada suele mantenerse baja debido a como se dispara el uso de la VRAM, por lo que vas a tener que usar solamente turnos de una o dos oraciones, no de largos párrafos como los que suelen hacerlos en /hisrol/. Aún así, no me parece mala idea; podría implementarse dentro de lo que ya tengo hecho sin demasiadas vueltas ¿Vas a querer que lo haga? ¿De qué temática quieres hacer tu rol?
>>38467 te entiendo, mi amiga
Estuve probando hildabot y sin querer estropeé el traductor y comenzo a traducir sus mensajes a noruego
Bueno, ya la apagué. Estaré trabajando en acomodar el bot para que funcione con el prompting de Llama y con los nuevos parámetros de la API de Kobold que por lo que veo añadieron recientemente. Seguramente en las próximas semanas haya una publicación oficial del código para que anon pueda hostear sus bots en sus tablones preferidos.


Forms
Eliminar
Informar
Respuesta rápida