Superpoderes para convertir a Claude Code en un …
Imagina que estás trabajando en un proyecto complejo. Tu asistente de IA te genera código rápido, …
leer másLa inteligencia artificial sigue revolucionando nuestra forma de trabajar, pero hay un pequeño problema con el uso que hacemos de ella por lo general, y es que las utilizamos en servicios en la nube que tienen sus inconvenientes: costes recurrentes, preocupaciones de privacidad y la necesidad constante de conexión a internet, pero esto no tiene porqué ser así. ¿Y si pudieras ejecutar modelos de IA potentes directamente en tu ordenador, de forma completamente gratuita y sin enviar tus datos a ningún servidor externo?
En este artículo exploraremos cómo configurar tu propio entorno de IA local utilizando LM Studio, una aplicación que te permite descargar, gestionar y ejecutar modelos de lenguaje de última generación en tu máquina. Veremos desde la instalación hasta un caso práctico con un modelo especializados en programación.
Los servicios de IA en la nube como ChatGPT, Claude o Gemini ofrecen capacidades impresionantes. Sus modelos más avanzados tienen acceso a cantidades masivas de parámetros y recursos de computación que difícilmente podemos replicar en casa. Sin embargo, esta potencia viene con contrapartidas significativas.
| Aspecto | Modelos en la nube | Modelos locales |
|---|---|---|
| Coste | Suscripción o pago por uso (puede escalar) | Gratuitos (solo coste del hardware y electricidad) |
| Privacidad | Datos pasan por servidores externos | Tus datos nunca salen de tu ordenador |
| Conexión | Requiere internet | Funcionan offline |
| Potencia | Acceso a los modelos más potentes | Limitados por tu hardware (GPU/RAM) |
| Tamaño de modelos | Sin límites, modelos masivos | Modelos más pequeños y cuantizados |
| Capacidades | Multimodales avanzadas (visión, audio) | Principalmente texto, algunas opciones multimodales |
| Actualizaciones | Automáticas y constantes | Manuales |
| Configuración | Lista para usar | Requiere configuración inicial |
| Control | Sujeto a políticas y términos de servicio | Control total sobre el modelo |
| Límites de uso | Restricciones de API y cuotas | Sin límites |
| Disponibilidad | Puede cambiar según el proveedor | Siempre disponible en tu máquina |
La buena noticia es que los modelos locales han evolucionado enormemente. Hoy en día, modelos como QWEN 3 Coder o GPT OSS ofrecen capacidades sorprendentes que los hacen perfectamente viables para uso diario, programación, y hasta para crear agentes autónomos. La clave está en elegir el modelo adecuado para cada tarea.
Antes de empezar, hablemos de hardware. Los modelos de IA son intensivos en recursos, especialmente en memoria de vídeo (VRAM) si quieres aprovechar tu GPU.
| Componente | Mínimo | Recomendado |
|---|---|---|
| RAM | 16 GB | 32 GB o más |
| VRAM (GPU) | 6 GB | 12 GB o más |
| Almacenamiento | 50 GB libres | SSD con 100+ GB |
| CPU | Cualquier procesador moderno | 8+ núcleos |
Si no tienes GPU dedicada, puedes ejecutar modelos usando solo CPU, aunque será significativamente más lento. Para modelos pequeños (7B parámetros o menos) puede ser viable.
LM Studio está disponible para Windows, macOS y Linux. En este tutorial nos centraremos en Linux, aunque los pasos son prácticamente idénticos en cualquier sistema operativo gracias a la interfaz gráfica unificada.
Imagina tener una aplicación que te permita descargar modelos de inteligencia artificial como quien descarga una película, y luego poder chatear con ellos igual que lo harías con ChatGPT, pero sin internet y sin pagar nada. Eso es exactamente lo que hace LM Studio.
Esta aplicación actúa como un “hub” donde puedes explorar cientos de modelos disponibles, descargar los que te interesen con un solo clic, y ejecutarlos en tu ordenador. Incluye una interfaz de chat integrada para hablar con los modelos, y si eres más técnico, también puede funcionar como servidor API compatible con OpenAI, lo que te permite conectarlo con otras aplicaciones y herramientas.
La instalación es tan sencilla como descargar y ejecutar. Visita lmstudio.ai, descarga la versión para tu sistema operativo (Windows, macOS o Linux) y ábrela. En Linux puedes usar el archivo .deb para distribuciones basadas en Debian/Ubuntu, o el AppImage que funciona en cualquier distribución sin necesidad de instalar nada.
Al abrir LM Studio verás una interfaz organizada en secciones, a la izquierda:
QWEN 3 Coder 30B es un modelo desarrollado por Alibaba específicamente optimizado para tareas de programación. Con 30 mil millones de parámetros (eso significa la B en el nombre, de billions en inglés), ofrece capacidades avanzadas para escribir, explicar y refactorizar código.
Al descargar modelos verás nombres como Q4_K_M o Q8_0. Esto indica el nivel de cuantización: un proceso que comprime el modelo para que ocupe menos espacio y memoria. El número después de la Q indica los bits de precisión (Q4 = 4 bits, Q8 = 8 bits). Menor número significa más compresión pero ligeramente menor calidad. Para la mayoría de usos, Q4_K_M ofrece un excelente balance.
Abre LM Studio y ve a la sección Discover
Busca qwen3-coder y selecciona Qwen3 Coder 30B
Haz clic en Download para descargar el modelo y espera a que se complete
Una vez descargado, ve a la sección Chat y selecciona el modelo QWEN 3 Coder en el selector de modelos de la parte superior.
Para demostrar las capacidades de QWEN 3 Coder, vamos a crear un juego de Tetris completo para navegador utilizando únicamente un prompt simple, para mejores resultados se recomienda proporcionar una descripción más elaborada.
Create a browser-based Tetris game using only standard, lightweight frameworks, faithfully implementing the full mechanics of the original classic game, including randomized tetromino generation and a complete scoring system.
En el video de abajo puedes ver cómo QWEN 3 Coder genera un juego de Tetris completamente funcional en cuestión de segundos. El código generado incluye todas las características solicitadas y funciona correctamente sin necesidad de modificaciones.
Este es el tipo de tareas donde los modelos locales brillan: proyectos contenidos, código frontend, scripts de automatización, y problemas bien definidos.
Además de modelos especializados como QWEN para programación, LM Studio te permite instalar modelos de propósito general como GPT OSS 20B, de la misma OpenAI, sí, como ChatGPT, una excelente opción para tareas variadas.
GPT OSS (Open Source Software) es un modelo de 20 mil millones de parámetros diseñado para ser versátil. A diferencia de QWEN 3 Coder que está optimizado específicamente para código, GPT OSS ofrece:
El proceso es idéntico al de QWEN:
openai/gpt-oss-20b| Aspecto | QWEN 3 Coder 30B | GPT OSS 20B |
|---|---|---|
| Especialización | Programación | Propósito general |
| Mejor para | Escribir, refactorizar y explicar código | Conversaciones, textos, análisis |
| Tamaño | 30B parámetros | 20B parámetros |
| VRAM recomendada | 12-16 GB | 10-14 GB |
| Formato de salida | Código estructurado | Texto fluido |
Usa QWEN 3 Coder cuando:
Usa GPT OSS cuando:
La flexibilidad de LM Studio te permite tener ambos modelos instalados y cambiar entre ellos según la tarea que tengas entre manos.
Hemos recorrido un camino completo desde entender las diferencias entre IA en la nube y local, hasta tener funcionando dos modelos potentes en nuestro ordenador:
La IA local ha madurado lo suficiente como para ser una alternativa real a los servicios en la nube para muchos casos de uso. No reemplaza completamente a modelos como GPT, Gemini, Claude, Perplexity o Grok en tareas muy complejas, pero para el día a día ofrece una combinación imbatible de privacidad, coste cero y autonomía.
Esta es solo la introducción a un mundo mucho más amplio. En futuros artículos de la serie IA Local veremos cómo llevar estos modelos al siguiente nivel utilizando MCP (Model Context Protocol) para conectarlos con herramientas externas y darles verdaderos superpoderes. También exploraremos cómo integrar tu IA local directamente en el navegador para tenerla accesible desde cualquier página web y cómo exponer LM Studio como servidor API compatible para usarlo desde prácticamente cualquier aplicación.
El futuro de la IA no está solo en la nube. Está también en tu ordenador, bajo tu control total.
Happy Hacking!
Quizá te puedan interesar
Imagina que estás trabajando en un proyecto complejo. Tu asistente de IA te genera código rápido, …
leer másLa mejor decisión que puedes tomar como usuario de Windows no es esperar a que Microsoft mejore, …
leer másLos asistentes de programación por IA están en boca de todos. Actualmente ya están alterando el …
leer másDe concepto a realidad