Cómo usar inteligencia artificial en tu ordenador con modelos gratuitos y privados

ene. 15, 2026

Este artículo forma parte de una serie:

La inteligencia artificial sigue revolucionando nuestra forma de trabajar, pero hay un pequeño problema con el uso que hacemos de ella por lo general, y es que las utilizamos en servicios en la nube que tienen sus inconvenientes: costes recurrentes, preocupaciones de privacidad y la necesidad constante de conexión a internet, pero esto no tiene porqué ser así. ¿Y si pudieras ejecutar modelos de IA potentes directamente en tu ordenador, de forma completamente gratuita y sin enviar tus datos a ningún servidor externo?

En este artículo exploraremos cómo configurar tu propio entorno de IA local utilizando LM Studio, una aplicación que te permite descargar, gestionar y ejecutar modelos de lenguaje de última generación en tu máquina. Veremos desde la instalación hasta un caso práctico con un modelo especializados en programación.

La nube vs. local: ¿Qué opción es mejor para ti?

Los servicios de IA en la nube como ChatGPT, Claude o Gemini ofrecen capacidades impresionantes. Sus modelos más avanzados tienen acceso a cantidades masivas de parámetros y recursos de computación que difícilmente podemos replicar en casa. Sin embargo, esta potencia viene con contrapartidas significativas.

Aspecto Modelos en la nube Modelos locales
Coste Suscripción o pago por uso (puede escalar) Gratuitos (solo coste del hardware y electricidad)
Privacidad Datos pasan por servidores externos Tus datos nunca salen de tu ordenador
Conexión Requiere internet Funcionan offline
Potencia Acceso a los modelos más potentes Limitados por tu hardware (GPU/RAM)
Tamaño de modelos Sin límites, modelos masivos Modelos más pequeños y cuantizados
Capacidades Multimodales avanzadas (visión, audio) Principalmente texto, algunas opciones multimodales
Actualizaciones Automáticas y constantes Manuales
Configuración Lista para usar Requiere configuración inicial
Control Sujeto a políticas y términos de servicio Control total sobre el modelo
Límites de uso Restricciones de API y cuotas Sin límites
Disponibilidad Puede cambiar según el proveedor Siempre disponible en tu máquina

La buena noticia es que los modelos locales han evolucionado enormemente. Hoy en día, modelos como QWEN 3 Coder o GPT OSS ofrecen capacidades sorprendentes que los hacen perfectamente viables para uso diario, programación, y hasta para crear agentes autónomos. La clave está en elegir el modelo adecuado para cada tarea.

Requisitos del sistema

Antes de empezar, hablemos de hardware. Los modelos de IA son intensivos en recursos, especialmente en memoria de vídeo (VRAM) si quieres aprovechar tu GPU.

Lo mínimo recomendado

Componente Mínimo Recomendado
RAM 16 GB 32 GB o más
VRAM (GPU) 6 GB 12 GB o más
Almacenamiento 50 GB libres SSD con 100+ GB
CPU Cualquier procesador moderno 8+ núcleos

Sobre la tarjeta gráfica

  • NVIDIA: Mejor soporte con CUDA. GPUs como RTX 3060 (12GB), RTX 3080, RTX 4070 o superiores son ideales.
  • AMD: Soporte mediante ROCm (en Linux principalmente).
  • Apple Silicon: Excelente rendimiento en M1/M2/M3 gracias al Metal.
  • Intel Arc: Soporte experimental pero en mejora.

Si no tienes GPU dedicada, puedes ejecutar modelos usando solo CPU, aunque será significativamente más lento. Para modelos pequeños (7B parámetros o menos) puede ser viable.

Multiplataforma

LM Studio está disponible para Windows, macOS y Linux. En este tutorial nos centraremos en Linux, aunque los pasos son prácticamente idénticos en cualquier sistema operativo gracias a la interfaz gráfica unificada.

LM Studio: El centro de control para IA local

Imagina tener una aplicación que te permita descargar modelos de inteligencia artificial como quien descarga una película, y luego poder chatear con ellos igual que lo harías con ChatGPT, pero sin internet y sin pagar nada. Eso es exactamente lo que hace LM Studio.

Esta aplicación actúa como un “hub” donde puedes explorar cientos de modelos disponibles, descargar los que te interesen con un solo clic, y ejecutarlos en tu ordenador. Incluye una interfaz de chat integrada para hablar con los modelos, y si eres más técnico, también puede funcionar como servidor API compatible con OpenAI, lo que te permite conectarlo con otras aplicaciones y herramientas.

Instalación

La instalación es tan sencilla como descargar y ejecutar. Visita lmstudio.ai, descarga la versión para tu sistema operativo (Windows, macOS o Linux) y ábrela. En Linux puedes usar el archivo .deb para distribuciones basadas en Debian/Ubuntu, o el AppImage que funciona en cualquier distribución sin necesidad de instalar nada.

Interfaz principal

Al abrir LM Studio verás una interfaz organizada en secciones, a la izquierda:

  • Chat: Para conversar con los modelos que tengas cargados
  • Developer: Funcionalidades avanzadas para desarrolladores como exponer el modelo como API para usarlo desde otras aplicaciones entre otras
  • My Models: Gestionar los modelos que ya tienes instalados
  • Discover: Explorar y descargar nuevos modelos

Instalación de QWEN 3 Coder: Nuestro asistente de programación local

QWEN 3 Coder 30B es un modelo desarrollado por Alibaba específicamente optimizado para tareas de programación. Con 30 mil millones de parámetros (eso significa la B en el nombre, de billions en inglés), ofrece capacidades avanzadas para escribir, explicar y refactorizar código.

Entendiendo las versiones de los modelos

Al descargar modelos verás nombres como Q4_K_M o Q8_0. Esto indica el nivel de cuantización: un proceso que comprime el modelo para que ocupe menos espacio y memoria. El número después de la Q indica los bits de precisión (Q4 = 4 bits, Q8 = 8 bits). Menor número significa más compresión pero ligeramente menor calidad. Para la mayoría de usos, Q4_K_M ofrece un excelente balance.

Descarga desde LM Studio

  1. Abre LM Studio y ve a la sección Discover

  2. Busca qwen3-coder y selecciona Qwen3 Coder 30B

  3. Haz clic en Download para descargar el modelo y espera a que se complete

¿Cómo lo utilizo?

Una vez descargado, ve a la sección Chat y selecciona el modelo QWEN 3 Coder en el selector de modelos de la parte superior.

Creando un juego similar al clásico Tetris con un único prompt

Para demostrar las capacidades de QWEN 3 Coder, vamos a crear un juego de Tetris completo para navegador utilizando únicamente un prompt simple, para mejores resultados se recomienda proporcionar una descripción más elaborada.

El prompt

Create a browser-based Tetris game using only standard, lightweight frameworks, faithfully implementing the full mechanics of the original classic game, including randomized tetromino generation and a complete scoring system.

El resultado

En el video de abajo puedes ver cómo QWEN 3 Coder genera un juego de Tetris completamente funcional en cuestión de segundos. El código generado incluye todas las características solicitadas y funciona correctamente sin necesidad de modificaciones.

Este es el tipo de tareas donde los modelos locales brillan: proyectos contenidos, código frontend, scripts de automatización, y problemas bien definidos.

“ChatGPT” gratis, un modelo abierto de propósito general

Además de modelos especializados como QWEN para programación, LM Studio te permite instalar modelos de propósito general como GPT OSS 20B, de la misma OpenAI, sí, como ChatGPT, una excelente opción para tareas variadas.

¿Qué es GPT OSS?

GPT OSS (Open Source Software) es un modelo de 20 mil millones de parámetros diseñado para ser versátil. A diferencia de QWEN 3 Coder que está optimizado específicamente para código, GPT OSS ofrece:

  • Conversaciones naturales: Mejor para chatbots y asistentes generales
  • Escritura creativa: Generación de textos, historias, correos
  • Análisis de texto: Resúmenes, traducciones, extracción de información
  • Razonamiento general: Preguntas y respuestas sobre diversos temas
  • Código básico: Puede generar código, aunque no tan especializado como QWEN

Instalación de GPT OSS

El proceso es idéntico al de QWEN:

  1. Ve a Discover en LM Studio
  2. Busca openai/gpt-oss-20b
  3. Descarga y listo

Diferencias clave: QWEN Coder vs GPT OSS

Aspecto QWEN 3 Coder 30B GPT OSS 20B
Especialización Programación Propósito general
Mejor para Escribir, refactorizar y explicar código Conversaciones, textos, análisis
Tamaño 30B parámetros 20B parámetros
VRAM recomendada 12-16 GB 10-14 GB
Formato de salida Código estructurado Texto fluido

¿Cuándo usar cada uno?

  • Usa QWEN 3 Coder cuando:

    • Necesites escribir o modificar código
    • Quieras explicaciones técnicas de algoritmos
    • Trabajes con debugging o refactorización
    • Desarrolles scripts o automatizaciones
  • Usa GPT OSS cuando:

    • Necesites un asistente conversacional
    • Trabajes con redacción de contenidos
    • Quieras resumir documentos
    • Necesites traducciones o análisis de texto

La flexibilidad de LM Studio te permite tener ambos modelos instalados y cambiar entre ellos según la tarea que tengas entre manos.

Resumen

Hemos recorrido un camino completo desde entender las diferencias entre IA en la nube y local, hasta tener funcionando dos modelos potentes en nuestro ordenador:

  • LM Studio como plataforma central para gestionar modelos locales
  • QWEN 3 Coder para todas tus tareas de programación
  • GPT OSS para uso general y conversacional

La IA local ha madurado lo suficiente como para ser una alternativa real a los servicios en la nube para muchos casos de uso. No reemplaza completamente a modelos como GPT, Gemini, Claude, Perplexity o Grok en tareas muy complejas, pero para el día a día ofrece una combinación imbatible de privacidad, coste cero y autonomía.

En próximos capítulos

Esta es solo la introducción a un mundo mucho más amplio. En futuros artículos de la serie IA Local veremos cómo llevar estos modelos al siguiente nivel utilizando MCP (Model Context Protocol) para conectarlos con herramientas externas y darles verdaderos superpoderes. También exploraremos cómo integrar tu IA local directamente en el navegador para tenerla accesible desde cualquier página web y cómo exponer LM Studio como servidor API compatible para usarlo desde prácticamente cualquier aplicación.

El futuro de la IA no está solo en la nube. Está también en tu ordenador, bajo tu control total.

Happy Hacking!

¿Necesitas ayuda?

En BetaZetaDev transformamos ideas en soluciones digitales reales. Más de 10 años desarrollando aplicaciones móviles, web, automatizaciones y sistemas personalizados que impactan a miles de usuarios. Desde el concepto hasta el despliegue, creamos tecnología que resuelve problemas específicos de tu negocio con código limpio, arquitecturas escalables y experiencia probada.

Hablemos de tu proyecto

Artículos relacionados

Quizá te puedan interesar