- Existen dos vías principales: usar la app oficial gratuita de ChatGPT (Windows y Android) o montar modelos locales tipo GPT-OSS.
- GPT-OSS en local ofrece máxima privacidad, control y cero suscripciones, pero exige un hardware decente y algo más de configuración.
- Ollama y LM Studio simplifican la instalación y el uso de GPT-OSS con interfaces gráficas, descarga guiada de modelos y parámetros ajustables.

Si llevas tiempo dándole vueltas a cómo montar algo tipo ChatGPT gratis en tu ordenador, sin cuotas mensuales ni depender de servidores externos, estás en el sitio adecuado. Hoy en día tenemos dos caminos muy claros: usar la aplicación oficial de ChatGPT para Windows (gratuita, pero online) o tirar por modelos de inteligencia artificial locales como GPT-OSS con Ollama o LM Studio, que funcionan totalmente en tu PC.
En las siguientes líneas vamos a desgranar, paso a paso, cómo aprovechar las mejores opciones gratuitas para tener un “ChatGPT” en tu equipo, qué necesitas en cuanto a hardware, qué ventajas e inconvenientes tiene cada alternativa y cómo exprimirlas tanto si eres estudiante, profesional, programador o simplemente alguien curioso al que le gusta trastear con la IA.
Qué significa realmente “montar ChatGPT gratis”
Cuando hablamos de montar ChatGPT gratis en un PC, en realidad nos referimos a dos enfoques distintos, cada uno con su filosofía y sus limitaciones, que conviene tener muy claros antes de empezar a instalar cosas a lo loco.
Por un lado están las soluciones oficiales de OpenAI, como la aplicación nativa de ChatGPT para Windows, la app de Android o la ChatGPT API, que son gratuitas en su versión básica, pero que siguen funcionando en la nube: tus consultas viajan a los servidores de OpenAI y las respuestas vuelven a tu dispositivo.
En el otro extremo encontramos los modelos de IA locales de código abierto, como GPT-OSS, que puedes descargar e instalar en tu ordenador para que todo el procesamiento se haga en tu propia máquina, sin conexión permanente a Internet una vez descargado el modelo.
La clave está en decidir si prefieres la comodidad y potencia de la nube, aceptando cierto grado de dependencia de un proveedor externo, o apostar por un entorno 100 % privado y bajo tu control, a cambio de exigirle algo más de músculo a tu hardware y dedicar unos minutos a la configuración inicial.
ChatGPT oficial gratis en Windows y Android
OpenAI ofrece ya varias formas de usar ChatGPT de manera gratuita en dispositivos de escritorio y móviles, con funciones avanzadas que hasta hace poco estaban reservadas a los planes de pago.
En Android, la app oficial de ChatGPT te permite disfrutar de las últimas novedades de OpenAI directamente en el bolsillo. Es una aplicación gratuita, sincroniza el historial de tus conversaciones entre dispositivos y va incorporando las funciones más recientes, como el nuevo generador de imágenes integrado.
Con la app móvil puedes generar imágenes desde cero a partir de una descripción, o modificar otras que ya tengas simplemente con texto, usando el motor de imagen generativa que integra OpenAI. Además, incorpora un “Advanced Voice Mode” con el que es posible mantener conversaciones por voz en tiempo real, ideal para practicar idiomas o resolver dudas rápidas mientras vas por la calle.
También puedes subir fotos directamente desde la cámara o la galería para que ChatGPT las interprete o transcriba, por ejemplo, para pasar a texto una receta escrita a mano o pedir información sobre un monumento del que has hecho una foto durante un viaje.
Por supuesto, no faltan los usos más clásicos: pedir ideas creativas para un regalo de cumpleaños, crear textos personalizados para una felicitación, obtener consejos detallados sobre viajes, planificar proyectos personales o profesionales, o resolver dudas complejas explicadas de forma asequible para cualquier nivel.
En el ámbito profesional, la aplicación resulta muy útil para generar copys de marketing, esbozar planes de negocio, redactar emails con tono formal, preparar borradores de contratos y documentos, o simplemente para resolver dudas puntuales sin tener que ir saltando entre pestañas del navegador.
Todo esto se complementa con una capacidad destacada para el aprendizaje personalizado: desde explicar conceptos científicos a un niño usando ejemplos cercanos a sus gustos hasta ponerte al día de un evento histórico de forma rápida pero bien estructurada.
Y si lo que te interesa es usar ChatGPT en escritorio, OpenAI ha lanzado una aplicación nativa para Windows que ya está disponible para todos los usuarios con Windows 10 o superior, sin coste para la versión básica. Esta app ocupa alrededor de 300 MB y se integra muy bien con el sistema.
La aplicación de Windows funciona con una versión previa del modelo OpenAI o1, enfocada en tareas de razonamiento y análisis de calidad. Es capaz de procesar y resumir todo tipo de archivos, ayudarte a crear planes empresariales complejos y generar imágenes personalizadas mediante el motor DALL-E, todo en paralelo con tus programas habituales de trabajo.
Instalarla es muy sencillo: accedes a la página oficial de OpenAI, descargas el ejecutable para Windows, ejecutas el instalador y sigues el asistente dándole a “Instalar” cuando te lo pida. Al terminar, basta con abrir el programa y iniciar sesión con tu cuenta de OpenAI, o bien crear una nueva usando una cuenta de Google o Microsoft si aún no tienes perfil.
Una vez dentro, puedes lanzar el chatbot desde el botón dedicado que aparece en la interfaz de Windows o mediante el atajo de teclado Alt + Espacio, de modo que lo tendrás siempre a mano para consultar dudas, generar textos o pedir resúmenes mientras trabajas con otros programas.
Eso sí, la app de Windows todavía tiene algunas limitaciones importantes: de momento no incluye el modo de voz avanzado, ciertas integraciones de la tienda de extensiones de OpenAI no están habilitadas y, si usas la versión gratuita, solo puedes tenerlo activo en un dispositivo. Los usuarios con suscripción de pago pueden instalarlo hasta en diez equipos diferentes.
Qué aporta montar una IA local tipo ChatGPT con GPT-OSS
Si quieres ir un paso más allá y tener algo muy parecido a ChatGPT pero funcionando de manera local en tu PC, GPT-OSS es una de las alternativas más interesantes. Se trata de un modelo de lenguaje de código abierto que puedes descargar, ejecutar sin conexión y adaptar a tus necesidades.
Con GPT-OSS podrás generar todo tipo de textos: correos con tono formal, publicaciones para redes sociales, historias, poemas, guiones, resúmenes de documentos extensos o análisis de textos complejos. En esencia, se comporta como un asistente de escritura y reflexión al que puedes “consultar” lo que quieras.
En el terreno técnico también se defiende muy bien: está preparado para explicar fragmentos de código, localizar errores de programación, sugerir mejoras, ayudarte a aprender nuevos lenguajes, resolver ejercicios de lógica y matemáticas o plantear soluciones a problemas habituales de desarrollo de software.
En productividad personal y profesional, GPT-OSS sirve para planificación de proyectos, tormentas de ideas creativas, análisis de información, elaboración de esquemas, organización de tareas o respuesta a preguntas sobre múltiples áreas de conocimiento. Da igual si eres estudiante, programador, docente, creador de contenido o trabajas por cuenta propia: puedes adaptarlo a tu flujo de trabajo.
Uno de los grandes puntos fuertes de ejecutar GPT-OSS en local es que la privacidad se vuelve total. Todo lo que escribes y todo lo que genera el modelo se queda en tu ordenador: no hay servidores externos guardando tus conversaciones, ni tráfico constante de tus datos hacia un tercero.
Esto implica una mejora sustancial en la seguridad de la información: si trabajas con documentos sensibles, borradores de proyectos empresariales, datos de clientes o cualquier otro contenido delicado, puedes estar mucho más tranquilo sabiendo que no estás subiendo nada a la nube para que otro lo procese.
Además, los modelos locales como GPT-OSS te dan una libertad económica absoluta. No dependes de cuotas mensuales como la de ChatGPT Plus (unos 20 dólares al mes) ni de otros servicios comerciales tipo Gemini o Claude con precios similares. Descargas el modelo una vez y lo tienes disponible sin pagar suscripciones.
A esto se suma el control y la personalización que te brindan los modelos de código abierto: puedes ajustar parámetros, modificar el comportamiento del modelo, integrarlo en tus propias aplicaciones, automatizar tareas y, en general, adaptarlo a tu gusto sin estar atado a las decisiones de una gran empresa tecnológica.
La parte menos amable es que el rendimiento depende mucho de tu hardware. Para que la experiencia sea fluida, especialmente con modelos grandes, conviene contar con una GPU dedicada decente (NVIDIA o AMD) y suficiente memoria RAM. Si tu equipo es modesto, el modelo seguirá funcionando, pero notarás respuestas más lentas.
También hay que contar con una cierta curva de aprendizaje: al montar una IA local eres tú quien gestiona la infraestructura, las actualizaciones y la seguridad del entorno. No es excesivamente complejo gracias a herramientas como Ollama y LM Studio, pero sí requiere un poco más de implicación que simplemente abrir la web de ChatGPT.
Requisitos para montar GPT-OSS gratis en Windows
Antes de lanzarte de cabeza a descargar modelos, conviene revisar si tu ordenador cumple con los requisitos mínimos para ejecutar GPT-OSS en condiciones razonables. La buena noticia es que, para el modelo más ligero, no son exageradamente altos.
En el apartado de sistema operativo, basta con tener Windows 10 o Windows 11 en versión de 64 bits. Cualquier instalación moderna de Windows en un PC reciente encaja en esta categoría, así que no deberías tener problemas salvo que tu equipo sea muy antiguo.
La memoria RAM es uno de los factores más críticos. Para la variante GPT-OSS:20b (el modelo más ligero dentro de la gama), se recomienda un mínimo de 8 GB de RAM, aunque lo ideal es subir a 16 GB para una experiencia cómoda sin tirones ni errores por falta de memoria.
Si quieres dar el salto al modelo más potente, GPT-OSS:120b, la exigencia sube: necesitarás al menos 16 GB de RAM, siendo muy recomendable contar con 32 GB si quieres evitar cuellos de botella y aprovechar realmente todo su potencial.
En cuanto al procesador, no hace falta tener la última novedad del mercado, pero sí huir de CPUs muy viejas. Se recomienda como base un Intel Core i5 de cuarta generación o superior, o bien un AMD Ryzen 3 o superior. Cualquier equipo de los últimos años con estas características debería rendir de manera aceptable.
El almacenamiento también es importante, tanto en velocidad como en capacidad. Lo ideal es montar un SSD con al menos 500 GB libres, no porque los modelos ocupen todo ese espacio por sí solos, sino porque te dará margen para instalar varios y manejar archivos asociados sin quedarte sin sitio.
Para que te hagas una idea de tamaños: GPT-OSS:20b ocupa en torno a 13 GB, mientras que la versión GPT-OSS:120b puede llegar a los 70 GB. Si piensas probar más modelos adicionales, esa reserva de 500 GB libres empieza a tener todo el sentido del mundo.
La pieza estrella, eso sí, es la GPU. Una buena tarjeta gráfica multiplica el rendimiento de los modelos de IA porque acelera el procesamiento paralelo. Si dispones de una NVIDIA GeForce RTX 3060 o superior, o una AMD Radeon RX 6700 o superior, disfrutarás de una experiencia muy fluida incluso con modelos relativamente grandes.
Si tu tarjeta es anterior, podrás seguir usando GPT-OSS, pero notarás una caída de rendimiento en comparación con las gamas recomendadas. Sin GPU dedicada también es posible ejecutarlo tirando solo de CPU, pero las respuestas tardarán más en generarse y se volverá todo bastante más lento.
En ordenadores con GPU integrada, ésta puede echar una mano, pero nunca llegará al nivel de una gráfica dedicada. En cualquier caso, el modelo es capaz de arrancar y funcionar, simplemente tardará más tiempo en producir resultados cuando aumentas el tamaño del modelo o del contexto.
Un último requisito es disponer de conexión a Internet en el momento de descargar el modelo. Después ya no la necesitarás: una vez tengas GPT-OSS en tu disco, podrás usarlo completamente offline, lo cual es ideal si te preocupa especialmente la privacidad o trabajas en entornos sin acceso constante a la red.
Montar GPT-OSS con Ollama paso a paso
Para poder usar GPT-OSS en tu PC de forma cómoda, necesitas una aplicación que actúe como “lanzador” del modelo, es decir, un programa que se encargue de descargarlo, cargarlo en memoria y permitirte chatear con él mediante una interfaz simple. Uno de los más recomendables es Ollama.
Ollama destaca porque ofrece un instalador gráfico muy cuidado, pensado para que prácticamente cualquier usuario pueda poner en marcha modelos de IA locales sin tocar la línea de comandos, scripts ni configuraciones raras.
El primer paso es ir a la web oficial de descargas de Ollama, que es el único lugar fiable para obtener el archivo legítimo. Desde ahí descargas el ejecutable para Windows, normalmente llamado OllamaSetup.exe, que será el que uses para la instalación.
Antes de ejecutar el instalador, asegúrate de que tu PC cumple los requisitos básicos de Ollama para Windows: sistema operativo Windows 10 u 11 de 64 bits, un mínimo de 8 GB de RAM y una CPU x86 con al menos cuatro núcleos (por ejemplo, un Intel Core i5/i7 de cuarta generación o un AMD Ryzen 3/5/7).
En cuanto a la GPU, no es estrictamente imprescindible para modelos muy ligeros, aunque disponer de una tarjeta dedicada de NVIDIA o AMD marcará bastante la diferencia de velocidad, sobre todo cuando trabajas con modelos del tamaño de GPT-OSS:20b o superiores.
Una vez descargado el archivo y comprobados los requisitos, ejecutas OllamaSetup.exe y sigues los pasos del asistente como con cualquier otro programa de Windows. El instalador se encargará de dejártelo todo listo sin necesidad de configurar nada raro.
Cuando abras por primera vez la aplicación de Ollama, verás una interfaz muy sencilla con un recuadro central bajo el logotipo, en el que aparece la opción “Select a model”. Es ahí donde vas a elegir qué modelo quieres descargar y usar.
Al pulsar en “Select a model” se despliega un listado con los distintos modelos disponibles para ejecutar en local o en la nube. Entre ellos verás las entradas “gpt-oss:20b” y “gpt-oss:120b”, que son las variantes que nos interesan.
Recuerda que GPT-OSS:20b es el modelo más ligero y menos exigente en hardware, mientras que GPT-OSS:120b ocupa bastante más espacio y requiere más recursos, pero ofrece mayor capacidad. Selecciona el que prefieras y espera a que se descargue; el tiempo variará entre segundos y varios minutos dependiendo de tu conexión.
Cuando el modelo aparezca seleccionado en la interfaz, basta con escribir cualquier mensaje en el cuadro de texto y enviarlo para que Ollama empiece a descargar (si no lo ha hecho ya) y a cargar el modelo en memoria. Una vez completado este proceso, tendrás un asistente tipo ChatGPT funcionando directamente en tu PC, sin depender de servidores externos.
GPT-OSS con LM Studio: otra forma de montar tu “ChatGPT” local
Si prefieres una interfaz más moderna y con más ajustes visuales, LM Studio es una alternativa muy interesante a Ollama para ejecutar GPT-OSS y otros modelos de lenguaje de forma local en Windows.
LM Studio cumple el mismo papel de “lanzador” de modelos, pero presta especial atención al diseño y a las opciones de personalización, ofreciendo una experiencia más parecida a ChatGPT en el navegador, con un entorno gráfico muy claro y accesible para usuarios que no quieren ver ni una línea de comandos.
En cuanto a requisitos, para su versión de Windows se pide una CPU de 64 bits con soporte AVX2, algo que prácticamente cualquier procesador moderno cumple. Para memoria, recomiendan 16 GB de RAM para modelos de 7-8B, aunque se puede empezar con 8 GB usando modelos más pequeños (3-4B) y limitando la longitud de los contextos.
La GPU vuelve a ser opcional pero muy recomendable si quieres acelerar la generación de texto y trabajar con modelos grandes sin que el equipo se arrastre. Respecto al almacenamiento, cada modelo ocupa entre 2 y algo más de 20 GB, aunque GPT-OSS:20b puede irse hasta los 70 GB en sus versiones más pesadas, por lo que conviene reservar al menos 100 GB libres si quieres tener varios modelos instalados.
Para descargar LM Studio, entra en su web oficial y ve a la sección de descargas, donde podrás elegir la versión para Windows. El instalador suele pesar en torno a 516 MB. Una vez descargado el archivo .exe, lo ejecutas, eliges la carpeta de instalación (se necesitan alrededor de 1,7 GB para el propio programa) y pulsas en “Instalar”.
Cuando abras LM Studio por primera vez, verás su interfaz principal ya lista para usarse. En la barra lateral izquierda hay varios iconos; el que nos interesa para empezar es la lupa de color morado, que te lleva al explorador de modelos disponibles para descarga.
Dentro de esa sección se muestra un listado con todos los modelos que LM Studio permite ejecutar en local. Encontrarás muchas opciones, pero para seguir con la línea de esta guía, vas a centrarte en GPT-OSS:20b como modelo principal a probar.
Cuando localices GPT-OSS:20b en el listado, pulsa en el botón de “Download”. A partir de ahí solo tienes que esperar a que se complete la descarga; el tiempo dependerá de tu conexión y del tamaño concreto de la versión del modelo que escojas.
Una vez descargado, vuelve a la barra lateral izquierda y selecciona el icono amarillo de “Chats”. Se desplegará la sección de conversaciones, y en el panel central verás un selector para elegir qué modelo quieres cargar para chatear.
Al escoger GPT-OSS:20b, LM Studio te mostrará una pantalla de configuración previa en la que puedes ajustar varios parámetros importantes antes de abrir el chat. Entre ellos destacan la longitud del contexto y la opción de descarga a GPU, que conviene entender bien para evitar problemas de rendimiento.
La longitud del contexto determina cuántos tokens puede “recordar” el modelo dentro de una conversación o tarea concreta. Si mueves el deslizador hacia la derecha, aumentas el máximo y el modelo será capaz de manejar hilos de conversación más largos o documentos más extensos, pero también consumirás más RAM y, si usas GPU, más VRAM.
Si te pasas aumentando el contexto en equipos con 8-12 GB de VRAM o poca RAM, pueden aparecer errores, cortes en la generación o una caída notable en la velocidad de respuesta. Lo ideal es ir subiendo el contexto progresivamente y vigilar que el sistema se mantiene estable.
La opción de “descarga a GPU” permite trasladar parte del trabajo del modelo a la tarjeta gráfica, aprovechando su capacidad de procesar muchas operaciones en paralelo. Este ajuste acelera mucho la generación de tokens, sobre todo en modelos a partir de 7B-20B, pero también aumenta el uso de VRAM.
Si asignas más capas a la GPU de las que caben en su memoria, notarás caídas bruscas de rendimiento o incluso que el modelo no pueda cargarse. De nuevo, la táctica sensata es ir subiendo ese porcentaje de forma gradual hasta dar con el equilibrio entre velocidad y estabilidad.
Una vez tengas estos parámetros a tu gusto, solo tienes que pulsar en “Cargar modelo”. En ese momento se abrirá una ventana de chat con un aspecto muy similar al de ChatGPT en la web, donde podrás empezar a escribir tus preguntas o instrucciones.
Durante el proceso de generación, LM Studio muestra cómo el modelo “piensa” y qué acciones realiza, lo que resulta bastante curioso si te interesa ver un poco lo que ocurre entre bambalinas. Tras ese tiempo de “reflexión”, recibirás la respuesta del modelo con el texto que hayas pedido.
Con LM Studio, igual que con Ollama, todo el procesamiento de GPT-OSS se realiza dentro de tu propio PC, sin necesidad de conectarte a un servidor remoto. Esto te da un control absoluto sobre tus datos y te permite trabajar incluso sin conexión a Internet, siempre que ya tengas descargados los modelos.
En definitiva, hoy es perfectamente posible montar algo muy similar a ChatGPT sin pagar un euro: puedes combinar la app oficial gratuita de ChatGPT en Windows y Android para cuando necesites la máxima potencia de la nube, con un modelo local tipo GPT-OSS en Ollama o LM Studio para tareas donde privacidad, control y personalización pesen más. La elección de una u otra ruta, o de ambas a la vez, dependerá de tu hardware, de tu nivel de comodidad técnica y de lo importante que sea para ti que tus conversaciones con la IA nunca salgan de tu equipo.
Redactor apasionado del mundo de los bytes y la tecnología en general. Me encanta compartir mis conocimientos a través de la escritura, y eso es lo que haré en este blog, mostrarte todo lo más interesante sobre gadgets, software, hardware, tendencias tecnológicas, y más. Mi objetivo es ayudarte a navegar por el mundo digital de forma sencilla y entretenida.