- S2D agrega discos locales en un clúster y ofrece caché, niveles y resiliencia gestionados automáticamente.
- Rendimiento y HA: SMB3 con RDMA, ReFS, CSV y hasta tolerancia a fallos por chasis y rack.
- Modelos flexibles: hiperconvergente o convergente, con escala de 2 a 16 nodos y hasta 4 PB por clúster.
- Gestión moderna con Windows Admin Center, QoS por VM, Health Service y automatización PowerShell.
Si administras Windows Server y te planteas modernizar el almacenamiento con una base definida por software, Storage Spaces Direct, o S2D para los amigos, es una de esas tecnologías que conviene tener muy a mano. Permite consolidar discos internos de varios servidores en un clúster y exponerlos como almacenamiento compartido con altas prestaciones, resiliencia y una gestión muy razonable para el día a día.
A grandes rasgos, hablamos de una característica integrada en Azure Local y en las ediciones Datacenter de Windows Server 2016, 2019 y 2022, además de la Azure Edition de Windows Server 2022. Con S2D puedes arrancar desde hardware estándar del sector y, en minutos, tener un clúster de almacenamiento listo para cargas virtualizadas, ya sea en arquitectura convergente o hiperconvergente.
Qué es Storage Spaces Direct
Storage Spaces Direct es una solución de almacenamiento definida por software que agrega las unidades locales de un grupo de servidores físicos para crear un pool común. Ese grupo de almacenamiento aplica niveles, caché, resiliencia y codificación de borrado de forma automática, de modo que el administrador se centra en crear volúmenes y servir datos, no en microgestionar discos.
La tecnología es pilar de Azure Local en versiones 21H2 y 20H2, y forma parte de Windows Server Datacenter 2016, 2019 y 2022. Funciona desde clústeres de 2 nodos y escala hasta 16 servidores, pudiendo combinar SSD, HDD, NVMe o memoria persistente dentro de la misma arquitectura.
Además del clúster físico tradicional, hay soporte para clústeres invitados formados por máquinas virtuales sobre nubes privadas o públicas. En producción, el despliegue invitado está soportado cuando se basa en Windows Server, una opción útil en escenarios multiinquilino o de laboratorio avanzados.
Cómo funciona S2D y su arquitectura
Debajo del capó, S2D se apoya en varias piezas del sistema: Failover Clustering, Volúmenes Compartidos de Clúster, SMB 3 con SMB Direct y Multichannel, y la propia tecnología de Storage Spaces. La novedad clave es el Software Storage Bus, el tejido que hace que todos los servidores vean las unidades locales de los demás como si fuesen propias.
Los servidores se conectan entre sí por Ethernet y forman un clúster sin necesidad de Fibre Channel ni SAS compartido. Al habilitar S2D, las unidades internas de cada nodo se combinan en un pool lógico gestionado por software. A partir de ahí, creas volúmenes que se montan como CSV y que permanecen accesibles incluso si falla un disco o un nodo completo.
En esos volúmenes puedes alojar archivos .vhd y .vhdx para máquinas virtuales, bases de datos o ficheros de usuario. El clúster puede operar como servidor de archivos de escalabilidad horizontal o como plataforma hiperconvergente con Hyper-V, colocando directamente las VM sobre los volúmenes.
Para acelerar la E/S, S2D emplea el Storage Bus Layer Cache, que asocia las unidades más rápidas a las más lentas. Este caché de lectura y escritura del lado servidor mejora latencia y rendimiento, explotando especialmente el potencial de NVMe sobre PCIe.
Componentes y piezas clave de la pila
- Hardware de red: S2D utiliza SMB3 con SMB Direct y SMB Multichannel sobre Ethernet. Se recomienda 10 GbE o superior con RDMA, ya sea iWARP o RoCE, para asegurar baja latencia y mayor rendimiento en la comunicación entre nodos, y puedes verificar rendimiento con pruebas con ntttcp en Windows.
- Hardware de almacenamiento: Se requieren entre 2 y 16 servidores aprobados con discos conectados directamente (SATA, SAS, NVMe o memoria persistente). En cada servidor debe haber al menos dos SSD y al menos cuatro unidades adicionales; los dispositivos SATA y SAS deben ir detrás de un HBA y expansor SAS.
- Failover Clustering: El clúster de conmutación por error es la base de la alta disponibilidad a nivel de servidor. Se encarga de la orquestación de nodos, la marca y desmarca de recursos y la continuidad del servicio.
- Software Storage Bus: Este bus de software forma el tejido de almacenamiento definido por software, eliminando la necesidad de SAN tradicionales. Piensa en él como el sustituto lógico de Fibre Channel o del SAS compartido, pero definido por software.
- Storage Bus Layer Cache: El caché distribuye lecturas y escrituras sobre medios veloces enlazados a medios más lentos. Así se absorbe ráfagas de I/O y se elevan las IOPS sostenidas sin complejidad extra para el administrador.
- Storage Pool: El pool de almacenamiento agrupa todas las unidades elegibles. Se crea y rellena de forma automática. La recomendación habitual es un pool por clúster con la configuración por defecto para simplificar operaciones.
- Storage Spaces: Los discos virtuales que creas sobre el pool pueden usar reflejo, codificación de borrado o combinaciones. En S2D es habitual configurar tolerancia a dos fallos simultáneos mediante reflejo a tres vías, con cada copia en un servidor diferente, y existe conciencia de dominios de error por chasis y rack.
- ReFS: El sistema de archivos ReFS está optimizado para virtualización y .vhdx. Ofrece aceleraciones para crear, expandir o combinar puntos de control, además de sumas de comprobación para detectar y corregir errores de bits, y niveles en tiempo real que mueven datos entre capas caliente y fría.
- CSV: Cluster Shared Volumes expone un único espacio de nombres accesible desde cualquier servidor. Para cada nodo, cada volumen se comporta como si estuviera montado localmente, lo que simplifica muchísimo el acceso concurrente.
- Scale-Out File Server: En escenarios convergentes, esta capa expone SMB3 a clientes remotos como otro clúster Hyper-V. De facto, convierte S2D en un NAS sencillo de escalar y administrar, útil para sincronizar carpetas en red.
Prestaciones, resiliencia y eficiencia
Con S2D, tanto en configuraciones híbridas como all-flash, se han registrado cifras que superan los 13,7 millones de IOPS por servidor en pruebas internas. La arquitectura embebida en el hipervisor y el caché integrado ofrecen latencias consistentes y muy bajas.
La tolerancia a fallos abarca discos, servidores y componentes, con disponibilidad continua. En despliegues grandes puedes configurar tolerancia por chasis y por rack, de forma que fallos físicos no afecten a la integridad general del clúster.
La eficiencia del almacenamiento se potencia con codificación de borrado, incluyendo innovaciones como Local Reconstruction Codes. Esto permite hasta 2,4 veces más eficiencia de capacidad, reduciendo consumo de CPU y devolviendo recursos a las máquinas virtuales.
Requisitos de hardware y red
Para una experiencia sólida en producción, hay varias pautas. Red de 10 GbE o superior con RDMA iWARP o RoCE, cableado y conmutadores compatibles, y configuración de SMB Direct y Multichannel verificadas.
En cada servidor, se recomiendan al menos dos SSD para caché y varias unidades de capacidad adicionales. El soporte abarca SATA, SAS, NVMe y memoria persistente; los dispositivos SATA y SAS deben ir tras HBA y expansor SAS.
En cuanto a número de nodos, S2D soporta desde 2 hasta 16 servidores. Para alta disponibilidad real, lo ideal es trabajar con 3 o más nodos, dado que perder un nodo en un clúster de 2 deja cero margen de maniobra.
Sobre capacidad máxima, la documentación reciente habla de hasta 400 unidades y 4 PB por clúster, mientras que fuentes anteriores mencionan límites menores como 1 PB de pool. Ten en cuenta que esos topes dependen de versión, firmware y validaciones del fabricante del hardware. Si llegas a casos de falta de espacio, consulta soluciones para no hay suficiente espacio de almacenamiento.
Modelos de implementación
Hiperconvergente: Un único clúster para cómputo y almacenamiento. Activando Hyper-V en los mismos hosts, las VM se alojan directamente sobre volúmenes de S2D. Reduce costes y complejidad en pymes y sedes remotas, al eliminar servidores de archivos intermedios.
Convergente o desagregado: Clústeres separados para almacenamiento y para cómputo. Encima de S2D se sitúa un Scale-Out File Server para exponer SMB3. Perfecto cuando necesitas escalar almacenamiento y procesado de forma independiente, típico de IaaS a gran escala.
Cuándo conviene usar S2D
Si quieres ampliar capacidad sin rediseñar toda la SAN, S2D encaja muy bien. Puedes escalar añadiendo discos o nuevos servidores, y el sistema incorpora automáticamente las unidades y reequilibra el pool.
Si varios equipos han de acceder al mismo conjunto de datos, el pool se comporta como un recurso compartido de red. Los usuarios pueden llegar al dato desde distintos orígenes sin preocuparse por su ubicación física, lo que facilita cargas distribuidas.
Cuando necesitas mezclar medios, S2D decide de manera automática qué tipo de unidad usar según el patrón de acceso. Datos calientes en medios rápidos y datos fríos en medios más lentos, optimizando coste y rendimiento de forma transparente.
Administración y monitorización
La gestión ha evolucionado mucho con Windows Admin Center, que se ha convertido en la consola de referencia. Permite ver salud de hosts, almacenamiento, rendimiento y alertas, y crear o administrar volúmenes de forma gráfica.
Para profundizar en el detalle, puedes revisar inventario de unidades, estado, firmware, ubicación, fabricante, tipo, número de serie y pertenencia a pools. Es ideal para identificar discos con problemas y actuar con rapidez antes de que afecten al servicio, por ejemplo para reconstruir una partición NTFS dañada.
Además, S2D integra controles de QoS de almacenamiento por VM, con límites mínimos y máximos de IOPS. El Health Service proporciona supervisión y alertas integradas, y nuevas API facilitan recoger métricas ricas de capacidad y rendimiento a nivel de clúster.
PowerShell sigue siendo la herramienta con más alcance para automatizar y diagnosticar. Comandos como Enable-ClusterS2D permiten activar la característica y ajustar comprobaciones para laboratorios cuando sea necesario.
Guía práctica de laboratorio: de cero a primer volumen
En un entorno de pruebas, puedes habilitar S2D con dos nodos para familiarizarte con la tecnología. En producción, mejor tres o más nodos y hardware certificado para asegurar tolerancia real a fallos y compatibilidad.
Prepara cada host con Windows Server, Hyper-V y la característica de clúster instaladas. Verifica desde el Administrador de clúster que los nodos y redes están saludables, con una red para la empresa y otra dedicada al tráfico de almacenamiento.
En cuanto a discos, deja el sistema operativo en su volumen y presenta al menos tres unidades de datos por nodo en estado sin particiones, inicializadas si procede. Evita reutilizar discos del sistema para el pool y, si usas SATA en laboratorio, asume que no está soportado en producción.
Abre PowerShell como administrador en el clúster y ejecuta: Enable-ClusterS2D -PoolFriendlyName S2D. Si tu laboratorio usa unidades no elegibles, añade -SkipEligibilityChecks para saltarte validaciones propias de producción.
Tras la configuración automática, verás el nuevo pool en la sección de almacenamiento del Administrador de clúster. Desde ahí podrás crear un disco virtual y, sobre él, un volumen con el asistente correspondiente.
Al crear el disco virtual, elige el pool y escoge la resiliencia: simple, mirror o parity. En mirror, puedes optar por two-way o three-way; a más copias, mayor tolerancia a fallos y más consumo de capacidad.
Selecciona el tamaño del disco virtual, confírmalo y, a continuación, crea el volumen. Para virtualización, Microsoft recomienda ReFS por sus optimizaciones con .vhdx y sus capacidades de integridad.
Una vez creado, añade el volumen como Cluster Shared Volume desde el Administrador de clúster. Verás aparecer la carpeta ClusterStorage en C: en cada nodo con acceso de lectura y escritura, lista para alojar cargas.
Desde el Administrador de Hyper-V, crea una VM en ese CSV y añádela al clúster. Podrás moverla en vivo entre nodos sin interrupciones, igual que si trabajases con una cabina SAN tradicional.
Versiones, límites y soporte
S2D está presente en Windows Server 2016, 2019 y 2022 Datacenter, y en Azure Local 20H2 y 21H2. En Windows Server Azure Edition 2022 también está disponible, con mejoras específicas para escenarios híbridos.
En cuanto a escala, la referencia actual es hasta 16 nodos y más de 400 unidades por clúster, con capacidad total por clúster de hasta 4 PB. Algunas fuentes anteriores aluden a límites de 1 PB de pool; asume que el tope depende del stack completo y de las validaciones de tu proveedor.
Para producción, emplea hardware validado por Microsoft y socios OEM, con versiones de firmware y drivers recomendadas. Mezclas aleatorias de discos, HBA y NIC pueden provocar incompatibilidades de rendimiento o soporte, así que mejor apoyarse en listas de compatibilidad actualizadas.
Redactor apasionado del mundo de los bytes y la tecnología en general. Me encanta compartir mis conocimientos a través de la escritura, y eso es lo que haré en este blog, mostrarte todo lo más interesante sobre gadgets, software, hardware, tendencias tecnológicas, y más. Mi objetivo es ayudarte a navegar por el mundo digital de forma sencilla y entretenida.
