En el panorama actual de la creación digital, es probable que ya hayas interactuado con inteligencias artificiales como ChatGPT, Claude o Gemini. Estas herramientas son lo que llamamos LLM (Large Language Models o Modelos de Lenguaje Grande). Básicamente, son sistemas entrenados con cantidades masivas de texto capaces de predecir, razonar y generar respuestas de una forma que a menudo parece mágica.
Sin embargo, en este artículo no vamos a hablar de esas páginas web a las que te conectas, sino de algo mucho más potente para tu práctica artística: ejecutar estos modelos dentro de tu propio ordenador. Nos centraremos hoy en los modelos de texto, dejando para futuros artículos de esta serie cómo instalar en tu máquina generadores de imagen (como Stable Diffusion) y vídeo. Piensa en esto como el primer paso para integrar una herramienta de estudio, investigación, programación y documentación que vive contigo, en tu disco duro, y no en un servidor ajeno.
Nube vs Local: ¿Por qué complicarse la vida?
La mayoría de nosotros empezamos usando la IA en la nube. Es cómodo: entras en una web y listo. Pero traer el LLM a «local» (instalado en tu máquina) cambia las reglas del juego. La diferencia fundamental es la soberanía creativa. Al usar modelos locales, recuperas el control de tus herramientas, tus datos y tus procesos.
Imagina tener un asistente capaz de escribir, traducir, resumir, idear, ayudarte a programar código para Media Art o procesar datos de una investigación, pero con tres ventajas clave: es gratis (no hay suscripción mensual por uso), funciona sin conexión a Internet (perfecto para residencias artísticas en lugares remotos o para concentrarse sin distracciones) y, lo más importante, es privado. Tus textos, tus ideas de proyectos, tus diarios y tus documentos sensibles nunca salen de tu ordenador. Nadie los usa para entrenar futuras IAs ni los lee. Es tu estudio cerrado con llave.
Conceptos básicos antes de empezar
Antes de instalar nada, hay un par de siglas y números que verás a menudo y que conviene desmitificar. No hace falta ser ingeniero, solo entender la «talla» de la ropa que le vas a poner a tu ordenador.
Lo primero es la nomenclatura de los modelos, que suelen venir acompañados de números como 7B, 8B o 14B. La «B» significa Billions (mil millones) de parámetros. Piensa en los parámetros como las conexiones neuronales del modelo. A mayor número, más «inteligente» y capaz es el modelo, pero también más pesa y más ordenador necesita. Los modelos pequeños (3B–7B) son ligeros y rápidos, ideales para portátiles normales. Los medianos (8B–20B) ofrecen un razonamiento mucho más profundo y complejo, pero requieren máquinas con más memoria.
También escucharás hablar de repositorios como Hugging Face, que es como la gran biblioteca de Alejandría de la IA, donde se guardan miles de modelos de texto, audio e imagen. O GitHub, donde vive el código, y Civitai, que es la referencia para modelos visuales. Pero no es necesario que hagas nada en estos templos de la IA: para lo que vamos a hacer hoy, no necesitas navegar por estas webs ni bajar archivos manualmente. Las aplicaciones que usaremos gestionan todo esto por ti de forma transparente.
Qué puede hacer un artista con un LLM en local
Tener una IA en tu disco duro equivale a tener un copiloto incansable sentado a tu lado que funciona como la gran enciclopedia del saber de la humanidad en formato interactivo y conversacional. Los usos son inmensos, desde la simple reescritura de textos y traducciones hasta el brainstorming complejo. Pero en el contexto artístico, esto cobra un valor especial.
Puedes usarlo como un cuaderno de artista asistido, dialogando con él para expandir tus reflexiones o mantener un diario de proceso. Es una herramienta fantástica para la burocracia del arte: preparar dossieres, redactar abstracts, pulir textos para convocatorias o generar textos de sala. Si trabajas con imagen generativa, el LLM local es tu mejor aliado para crear y afinar prompts complejos sin salir de tu entorno. También son excelentes para la ayuda técnica; si estás aprendiendo TouchDesigner, Processing o Python, puedes pedirle que te explique código o busque errores. Todo ello, recuerda, sin que tus datos de investigación o tus ideas originales viajen por la red.
Aplicaciones para usar LLM en local
Olvídate de la pantalla negra con código tipo Matrix. Hoy en día existen aplicaciones con interfaces amigables que hacen que usar estos modelos sea tan fácil como instalar un programa cualquiera. Estas aplicaciones actúan como gestores: tú eliges qué «cerebro» (modelo) quieres usar y ellas se encargan del resto.
LM Studio es una de las opciones más populares para empezar. Es una aplicación de escritorio con una interfaz visual muy cuidada. Te permite buscar modelos, descargarlos con un clic y chatear con ellos como si fuera un ChatGPT privado. Una de sus funciones estrella es que puedes cargar tus propios documentos (PDFs, textos) y hacerle preguntas al modelo sobre ellos. Además, permite cambiar de modelo fácilmente según la tarea: uno creativo para escribir, uno lógico para programar.
Ollama es otra herramienta fundamental. Aunque funciona a través de una sencilla interfaz, es el motor que hay detrás de muchas otras aplicaciones visuales. Es extremadamente eficiente y permite tener una biblioteca de modelos (Llama, Mistral, Gemma, GPT) listos para usar o para integrarlos en otros programas, como editores de código o herramientas de notas.
Por último, Pinokio es un «navegador» que automatiza la instalación de todo tipo de herramientas de IA. Es genial si quieres ir más allá del texto, ya que permite instalar entornos complejos como Stable Diffusion o herramientas de audio con un solo clic, creando poco a poco tu propio estudio de producción integral en local.
Requisitos básicos: ¿Aguantará mi ordenador?
Aquí es donde entra la realidad física. Para correr estos modelos, tu ordenador necesita memoria RAM. La RAM es el espacio donde «vive» el modelo mientras piensa.
Como regla general, 8 GB de RAM es el mínimo absoluto para empezar a jugar con modelos pequeños y muy optimizados. 16 GB es la cifra ideal para trabajar con soltura con modelos de buena calidad (7B u 8B). Si tienes 32 GB o más, podrás ejecutar modelos mucho más grandes y capaces.
En cuanto al sistema, si tienes un Mac con chip Apple Silicon (M1, M2, M3…), estás de enhorabuena. Estos equipos gestionan la memoria de forma unificada y son excepcionales para la IA local. Si usas Windows, lo ideal es tener una tarjeta gráfica dedicada (NVIDIA) con buena memoria de vídeo. Los usuarios de Linux suelen tenerlo más fácil para montar entornos personalizados, pero las aplicaciones mencionadas funcionan en los tres sistemas. Y ten en cuenta el espacio: cada modelo puede ocupar entre 4 y 10 GB en tu disco duro.
Mac con procesadores Intel (Modelos antiguos): Si tu Mac es de antes de 2020 (tiene procesador Intel), la cosa se complica. No tienen la aceleración de hardware necesaria para mover los modelos actuales con soltura. LM Studio no es compatible, pero puedes usar Ollama que te permite instalar una gran variedad de modelos. En este caso, tu mejor opción es usar modelos pequeños como Gemma 2B o Phi-3.
Windows con tarjeta gráfica (GPU): En el mundo PC, el procesador importa poco; quien manda es la tarjeta gráfica. Para usar estas herramientas necesitas preferiblemente una tarjeta NVIDIA (RTX 3060, 4060 o superiores). Aquí la clave no es la RAM del sistema, sino la VRAM de la tarjeta gráfica. Cuanta más VRAM tenga tu tarjeta (8GB, 12GB, 16GB…), mejores modelos podrás mover. Si no tienes una gráfica dedicada, la IA irá excesivamente lenta.
Linux: Este es el terreno para perfiles más técnicos o laboratorios de Media Art que quieran montar un servidor dedicado. Linux gestiona la memoria mejor que nadie, pero requiere más conocimientos de terminal. Es el sistema ideal si tienes hardware antiguo y quieres exprimirlo al máximo, o si vas a montar un equipo con varias tarjetas gráficas para procesos de producción pesados.
Para quienes buscan la excelencia absoluta y el presupuesto no es un freno, existe un nivel superior donde las barreras técnicas prácticamente desaparecen. Hablamos de estaciones de trabajo como el Mac Studio con chips M Ultra equipados con cantidades masivas de memoria unificada (128 GB o 192 GB), o PCs de torre con doble tarjeta gráfica NVIDIA RTX 3090/4090. Con este tipo de hardware, puedes ejecutar los modelos «frontera» más gigantescos (como las versiones de 70B o 405B de Llama) sin necesidad de comprimirlos ni perder calidad. Es lo más cercano a tener la potencia real de un ChatGPT funcionando exclusivamente para ti, capaz de procesar libros enteros en segundos o gestionar flujos de trabajo artísticos muy complejos con una inteligencia y una «ventana de memoria» que los equipos domésticos no pueden alcanzar.
Modelos abiertos recomendados para artistas
No existe «el mejor modelo», sino el más adecuado para tu equipo y tu tarea. Los modelos «abiertos» son aquellos cuyos pesos han sido liberados por empresas (como Meta, Google, Microsoft o Mistral) o por la comunidad, permitiéndonos usarlos libremente.
Para portátiles modestos, familias de modelos ligeros como Phi-3, Gemma 2 (en sus versiones pequeñas) o Llama 3.2 son excelentes puntos de partida. Si tienes una máquina más potente (16GB RAM o más), puedes saltar a modelos como Llama 3 (8B), Mistral, Qwen 2.5 o GPT-OSS. A través de LM Studio u Ollama, verás que es muy fácil probar uno, ver si te gusta cómo escribe, y si no, borrarlo y probar otro.
Un flujo de trabajo creativo
¿Cómo se traduce todo esto en el día a día? Imagina una mañana de trabajo en el estudio. Abres LM Studio, cargas un modelo como Llama 3 y empiezas pegando tus notas desordenadas del día anterior para que las estructure. Luego, le pides diez variaciones del título para tu próxima obra y generas una estructura para la memoria técnica que tienes que entregar.
Si estás en una investigación artística, puedes usarlo para analizar una gran cantidad de documentos o datos sobre un tema concreto, pudiendo también navegar por la web y haciendo las veces de investigador privado para ti. Lo importante es la organización: crea chats separados por proyectos, guarda los prompts que mejor te funcionen y acostúmbrate a tratar a la IA como una herramienta de «arcilla» digital que moldeas a tu gusto.
Límites, riesgos y coexistencia
A pesar de las ventajas, hay que ser realistas: un modelo pequeño de 8B en tu portátil no va a tener el conocimiento enciclopédico infinito ni la capacidad lógica de los futuros gigantes de la nube, como GPT-5. Sin embargo, no subestimes su utilidad. Vivimos en la típica paradoja de la tecnología: nos obsesionamos con tener siempre la máxima potencia teórica, olvidando que llevamos décadas creando obras maestras digitales con herramientas infinitamente inferiores a las que tenemos hoy. Con un modelo local ‘modesto’ puedes hacer cosas increíbles; a menudo, la creatividad no necesita la herramienta más potente del mundo, sino la que mejor se adapta a tu mano.
La estrategia más inteligente es un enfoque híbrido. Usa tu IA local para el trabajo sensible, los borradores, la experimentación íntima y el procesamiento de documentos privados. Usa la nube cuando necesites la máxima potencia de razonamiento o conocimientos muy actualizados.
Próximos pasos
Instalar un LLM en local es una declaración de intenciones: priorizas tu privacidad y tu autonomía. Te permite trabajar sin ruido, sin internet y sin cuotas. Lo que antes era sólo un servicio remoto se convierte en algo más parecido a una herramienta de estudio, como un editor de texto o un software de edición de vídeo: lo instalas, lo usas, sabes dónde están tus datos.
Con un portátil relativamente reciente y algo de paciencia para la primera instalación, puedes trabajar casi como lo harías con un gran modelo comercial, pero con privacidad, más control y sin necesidad de conexión constante.
En los próximos artículos de Hybridart daremos el siguiente salto: aprovecharemos esta base para instalar modelos de generación de imagen y vídeo en local, construyendo un ecosistema creativo completo donde tus palabras se conviertan en visuales, todo sin salir de tu ordenador.
