- Ambos se basan en el superchip NVIDIA GB10 Grace Blackwell y apuntan a 1 petaFLOP FP4 con 128 GB de memoria unificada.
- AI TOP ATOM escala de 200B a ~405B parámetros al unir dos nodos con ConnectX‑7 (hasta 200 Gbps).
- Stack de software completo: soporte de NVIDIA DGX OS/Ubuntu y utilidad AI TOP para descargas, inferencia, RAG y ML.
- Formato 1 litro con 10GbE, HDMI 2.1a y USB 3.2 Gen 2×2; disponibilidad y precios ya listados en Newegg.
El duelo entre los mini superordenadores de escritorio se pone interesante: GIGABYTE AI TOP ATOM frente a NVIDIA DGX Spark. Ambos comparten el corazón de la nueva era de cómputo de IA de NVIDIA, pero llegan en “formatos” distintos: uno como plataforma de referencia y el otro como producto llave en mano listo para ponerlo a trabajar sobre la mesa. Si estabas buscando rendimiento serio de IA sin montar un rack, aquí hay mucho que analizar.
Hablamos de equipos de apenas un litro que prometen cifras que hasta hace poco eran impensables en un PC tan pequeño: 1 petaFLOP de rendimiento de IA en FP4 (1.000 TOPS), memoria unificada de alta velocidad y todo el ecosistema de software de NVIDIA para generar, afinar e inferir modelos de última generación. Y sí, todo esto con un consumo contenido y conexiones de red a la altura para escalar cuando haga falta.
Qué es cada uno: plataforma DGX Spark y el mini PC de GIGABYTE
Para situarnos: NVIDIA DGX Spark es la plataforma de referencia de escritorio de NVIDIA (anteriormente conocida como Project DIGITS) y nace de una colaboración con MediaTek. Es el “molde” sobre el que distintos fabricantes pueden construir sus equipos compactos de IA. Dentro de ese marco, marcas como MSI y ASUS ya han enseñado sus propuestas, y GIGABYTE se suma con su propio giro.
Ese giro es el GIGABYTE AI TOP ATOM, un mini PC de 1 litro que toma la base técnica de DGX Spark y la empaqueta en un producto final con especificaciones claras, utilidades propias y disponibilidad comercial. En otras palabras, Spark marca la pauta y AI TOP ATOM es la interpretación concreta de GIGABYTE para llevar esa potencia a escritorios de desarrolladores, centros de investigación y aulas.
Arquitectura: NVIDIA GB10 Grace Blackwell de arriba a abajo

El denominador común es el superchip NVIDIA Grace Blackwell GB10, un SoC que fusiona CPU y GPU con memoria unificada a gran ancho de banda. En la parte de CPU encontramos un procesador Armv9 de 20 núcleos, con 10 núcleos Cortex-X925 de alto rendimiento y 10 núcleos Cortex-A725 para eficiencia. Esta combinación da agilidad tanto en tareas de preprocesado y orquestación como en pipelines complejos de IA.
La GPU implementa la arquitectura Blackwell con la última generación de núcleos especializados de NVIDIA: Tensor de 5ª generación para acelerar IA y RT de 4ª generación para trazado de rayos. Además, el GB10 integra 1 NVENC y 1 NVDEC, útil si se trabaja con flujos de vídeo en analítica o en aplicaciones multimodales. Todo ello se cohesiona a través de NVLink-C2C, el “pegamento” de ultra alta velocidad entre CPU y GPU que supera holgadamente lo que ofrece PCI Express 5.0 dentro del sistema.
Rendimiento de IA y tamaños de modelos
El dato que llama la atención es el cálculo en baja precisión para IA generativa: 1.000 TOPS en FP4, equivalentes a 1 petaFLOP. En la práctica, esto significa que, en un chasis minúsculo, se puede ejecutar y afinar con solvencia modelos de lenguaje y multimodales contemporáneos, llevar a cabo prototipos rápidos y poner en producción inferencias exigentes sin depender de la nube.
En cuanto al tamaño de los modelos, la información de las fuentes no es monolítica y conviene recogerla toda: por un lado, se indica soporte local para modelos de hasta 200.000 millones de parámetros en una sola unidad; por otro, también se menciona que “promete soporte para LLM de hasta 70 billones y 200 billones (americanos) de parámetros”. Esta última formulación juega con la ambigüedad entre “billones” en español y “billion” en inglés, pero el mensaje central permanece: el umbral de trabajo de estos equipos entra de lleno en ligas altas para LLMs actuales.
Cuando dos unidades se interconectan, el límite conjunto escala hasta aproximadamente 405.000 millones de parámetros, abriendo la puerta a modelos aún más voluminosos y a cargas de trabajo distribuidas. Para quienes exploran contextos ampliados, RAG con índices grandes o pipelines con múltiples etapas, ese margen adicional marca la diferencia.
Este tipo de rendimiento no se piensa solo para laboratorios: desarrollo, educación, investigación, ciencia, ciudades inteligentes y robótica aparecen como escenarios naturales. Tener “en la mesa” un petaFLOP de IA acelera pruebas, reduce costes operativos y permite iterar con agilidad sin esperas de cola en la nube.
Memoria unificada, almacenamiento y ancho de banda
La memoria del sistema es un punto fuerte: 128 GB de LPDDR5X en bus de 256 bits, con un ancho de banda de alrededor de 273 GB/s. Al ser unificada entre CPU y GPU, simplifica la programación y evita copias redundantes, algo crítico para mover grandes tensores y lotes en entrenamiento ligero o inferencia a alta concurrencia.
Para el almacenamiento, GIGABYTE contempla hasta 4 TB en SSD PCIe Gen5, aunque hay configuraciones comerciales que parten de 1 TB en PCIe 4.0. Más allá de la capacidad, el punto es que los cuellos de botella se minimizan de cara a cargar modelos voluminosos, o para copiar archivos grandes con rapidez, colecciones de embeddings o conjuntos de datos de visión y audio a buen ritmo, manteniendo al equipo en su “punto dulce” de rendimiento.
La interconexión interna NVLink-C2C marca otra diferencia clave. Al ofrecer un ancho de banda claramente superior al de PCIe 5.0 para la comunicación CPU–GPU dentro del SoC, reduce latencias y saca partido a la memoria unificada en escenarios sensibles a la transferencia, que son justo los que dominan en IA generativa y ML.
Conectividad y expansión para ir más allá
En el frente de puertos y enlaces, no se queda corto. De serie, el equipo integra 10GbE para red cableada de alto rendimiento, Wi‑Fi 7 y Bluetooth 5.3 para conectividad inalámbrica moderna, además de HDMI 2.1a y varios USB 3.2 Gen 2×2 Type‑C (incluido un puerto con PD IN para alimentación). Por HDMI sale audio multicanal, de modo que también cubre necesidades multimedia sin accesorios extra.
La pieza que permite crecer es la SmartNIC NVIDIA ConnectX‑7. Con ella se interconectan dos sistemas con enlaces de hasta 200 Gbps, habilitando computación en clúster de baja latencia. Las fuentes también describen esta interfaz como ConnectX‑7 InfiniBand NIC, una manera de subrayar el enfoque en latencia mínima y ancho de banda sostenido. En la práctica, esto permite pasar de 200B a ~405B parámetros al unir dos nodos.
Además de esa unión de dos equipos, desde el punto de vista operativo es posible apilar varias unidades AI TOP ATOM y enlazarlas mediante ConnectX‑7 para ponerlas a trabajar de forma simultánea y facilitar la sincronización de carpetas en red. Para talleres de investigación o aulas avanzadas, disponer de “bloques” que se suman modularmente resulta especialmente práctico.
Software, sistemas operativos y utilidades
En software no hay concesiones: el equipo soporta NVIDIA DGX OS y Ubuntu Linux, y se integra con la NVIDIA AI software stack, es decir, el conjunto de herramientas, marcos y bibliotecas con el que se construyen y despliegan proyectos de IA de última hornada. Esto baja la barrera de entrada tanto para quienes ya vienen del ecosistema CUDA como para equipos docentes, y permite, por ejemplo, actualizar firmware en Linux de forma estándar.
GIGABYTE suma además su AI TOP Utility, una capa que simplifica flujos habituales: descarga de modelos, inferencia, RAG y machine learning desde una interfaz más directa. La propuesta pone énfasis en la privacidad y seguridad de los datos locales, algo que encaja con organizaciones que deben cumplir normativas o que simplemente prefieren mantener su información sensible en casa.
Diseño físico, consumo y formato
El conjunto cabe en un chasis de aproximadamente 1 litro. Es una caja sorprendentemente compacta con medidas oficiales de 150 × 150 × 50,5 mm y un peso de alrededor de 1,2 kg. La alimentación corre a cargo de un adaptador externo de 240 W, suficiente para sostener el rendimiento pico sin complicaciones, y, como detallan las fuentes, el sistema es compatible con tomas domésticas estándar sin necesidad de infraestructuras especiales.
Más allá del tamaño, GIGABYTE ha pensado en el despliegue rápido y ordenado: es viable apilar físicamente varias unidades y conectarlas con la SmartNIC adecuada, lo cual ayuda a construir un pequeño clúster en muy poco espacio. Para quienes trabajan por proyectos, poder “sumar cajitas” y retirar nodos según necesidades es oro puro.
Especificaciones clave del GIGABYTE AI TOP ATOM

- SoC – NVIDIA GB10
- CPU – 20 núcleos Armv9 con 10× Cortex‑X925 y 10× Cortex‑A725
- Arquitectura – NVIDIA Grace Blackwell
- GPU – Arquitectura Blackwell
- Núcleos CUDA – Generación Blackwell
- Núcleos Tensor – 5ª generación
- Núcleos RT – 4ª generación
- Rendimiento Tensor – 1.000 AI TOPS (FP4)
- VPU – 1× NVENC, 1× NVDEC
- Memoria del sistema – 128 GB LPDDR5X de 256 bits (≈273 GB/s)
- Almacenamiento – Hasta 4 TB SSD PCIe Gen5
- Vídeo – Salida HDMI 2.1a
- Audio – Audio multicanal por HDMI
- Red
- 1× 10GbE RJ45
- SmartNIC ConnectX‑7 para unir dos sistemas hasta 200 Gbps
- Wi‑Fi 7 y Bluetooth 5.3
- USB
- 1× USB 3.2 Gen 2×2 Type‑C (PD IN)
- 3× USB 3.2 Gen 2×2 Type‑C (hasta 20 Gbps)
- Consumo – Adaptador externo de 240 W
- Dimensiones – 150 × 150 × 50,5 mm
- Peso – 1,2 kg
Precio y disponibilidad
El GIGABYTE AI TOP ATOM ya figura en tiendas como Newegg, con un precio de salida desde aproximadamente 3.499,99 dólares para la versión con SSD PCIe 4.0 de 1 TB. Por encima se sitúan la opción de 4 TB PCIe 4.0 (unos 3.899,99 dólares) y la variante tope con 4 TB PCIe 5.0 (alrededor de 3.999,99 dólares). Como siempre, conviene confirmar disponibilidad con distribuidores locales y consultar la página oficial del producto y la nota de prensa para configuraciones y plazos.
Ecosistema y alternativas sobre la misma base
El aterrizaje de esta plataforma no se limita a GIGABYTE. MSI y ASUS ya han mostrado su propio mini PC sobre la misma referencia de NVIDIA DGX Spark, lo que confirma que estamos ante un estándar de facto en “IA de escritorio”. Para el usuario final, esto se traduce en elegir el ensamblador que mejor encaje por diseño, puertos, servicio y utilidades extra, sabiendo que el núcleo técnico (GB10) es el mismo.
Comparativa directa: AI TOP ATOM frente a DGX Spark
Con todo lo anterior, la comparativa se entiende mejor. DGX Spark es el concepto y la plataforma de referencia: define el formato de 1 litro, el uso del GB10 Grace Blackwell y el objetivo de llevar un petaFLOP FP4 a la mesa. Sobre esa base, el AI TOP ATOM de GIGABYTE es un producto final que cristaliza la idea con memoria unificada de 128 GB, almacenamiento rápido, puertos concretos y su utilidad propia para simplificar flujos de IA.
Así, en potencia bruta y alcance de modelos estamos ante cifras prácticamente equivalentes (1.000 TOPS FP4 y hasta 200B parámetros en un nodo, con ~405B en dos nodos conectados). Las diferencias prácticas se ven en la implementación concreta: utilidades incluidas (AI TOP Utility), combinación exacta de puertos, opciones de almacenamiento y, por supuesto, precio y disponibilidad. Si buscas la experiencia “lista para usar” firmada por un OEM, el ATOM encaja de lleno con esa idea.
Para cerrar el círculo, hay que recordar lo señalado por las fuentes en español: GIGABYTE habla explícitamente de apilamiento de varias unidades y de usos que van desde la educación al mundo científico, pasando por ciudades inteligentes y robótica. El espíritu Spark se mantiene intacto: potencia real de IA en formato mínimo y con escalabilidad inmediata cuando se necesita más músculo.
Queda claro que hablamos de un salto generacional en “IA de escritorio”: un mini PC como el GIGABYTE AI TOP ATOM hereda la esencia de NVIDIA DGX Spark (antes Project DIGITS), concentra 1 petaFLOP FP4 en un litro, ofrece 128 GB unificados con NVLink‑C2C, sube hasta ~405B parámetros al emparejar dos nodos por ConnectX‑7, y trae el stack de NVIDIA con DGX OS/Ubuntu y la utilidad AI TOP para facilitar descargas, inferencia, RAG y ML; si añadimos el 10GbE, el HDMI 2.1a, los USB 3.2 Gen 2×2 y los precios ya publicados en Newegg, tenemos una propuesta muy sólida para investigación, aulas y equipos que quieran acelerar sus ciclos de IA sin montar un servidor dedicado.
Redactor apasionado del mundo de los bytes y la tecnología en general. Me encanta compartir mis conocimientos a través de la escritura, y eso es lo que haré en este blog, mostrarte todo lo más interesante sobre gadgets, software, hardware, tendencias tecnológicas, y más. Mi objetivo es ayudarte a navegar por el mundo digital de forma sencilla y entretenida.