>>131527
No dudo que se vaya a volver común que las empresas soliciten conocimiento de herramientas de LLM en sus puestos de trabajo, pero de eso a "voy a contratar a una persona que sepa pedirle a ChatGPT que le haga una webapp en lugar de alguien que sepa hacer una webapp" (que es lo que los shills del prompt engineering realmente buscan) está demasiado lejos.
>No lo sé pero si ya hay empresas que están tirando de vainas tan cachibanas como usar IA para hacer doblajes como Amazon
Eso ya es un punto aparte. El uso de aprendizaje máquina para tareas de generación de audios, subtítulos o doblajes parece que serán las aplicaciones que si van a tener adopción masiva en los próximos años, YT ya está probado una función de doblaje automático (que es un asco al igual que sus subtítulos automáticos, pero la intensión es lo que cuenta) y tampoco dudaría que alguna empresa se ponga a generar voces de algún actor de voz muerto o que ya hayan pasado sus mejores años, independiente de las cuestiones éticas. Hacer todo eso no es tan simple como "Chat GPT, genérame un TTS de Sasha Grey", requiere un proceso de encontrar, seleccionar, transcribir y limpiar audios.
>Kek mi 3070 costo 250$, porque la compré de segunda mano
Estoy hablando de primera mano. Encontré precios bastante decentes por una A100 de 24GB en amazon cuando estaba buscando armar mi servidor, pero al final me preocupó de que me vendieran gato por liebre, así que al final pagué el impuesto de Nvidia por comprar de primera mano.
>Aunque no lo tomen en serio, lo que resultó bastante interesante fueron sus M4 mini, parece que mucha gente está haciendo de comprar varios y ponerlo a trabajar junto dando resultados en IA bastante decente por lo que he oído
Lo que sucede es que el silicio de Apple no solo funciona bien, sino que es muy eficiente. Acá hay un vidéo donde comparan la M2 con una RTX 4090 y un miniPC de Intel
https://youtu.be/0EInsMyH87Q
La RTX es la que rinde mejor; obviamente, pero la mac consume 3 watts en iddle y durante inferencia llega hasta 60 watts máximo mientras que la RTX supera los 100w. La mini PC de Intel es un mal chiste. Aquí otro ejemplo usando el cluster de M4 que mencionaste
https://youtu.be/GBR6pHZ68Ho
Si Apple produjera una placa con este mismo CPU con memoria y disco expansibles sería un Nvidia killer, pero como Apple le tiene miedo al éxito, sabemos que eso no va a suceder en un futuro cercano. Aunque también lo cierto es que el HW para LLM hizo peak en la serie 3000, la 3060 es muy buena y la 4090, una tarjeta de más de 2000 dólares más solamente es marginalmente mejor como se muestra en este vidéo
https://youtu.be/Ugp6wKio1eE
Así que solo es cosa de esperar a que la burbuja de ML explote por fin, supongo.