- S2D aggrega i dischi locali in un cluster e fornisce caching, livelli e resilienza gestiti automaticamente.
- Prestazioni e HA: SMB3 con RDMA, ReFS, CSV e persino tolleranza ai guasti di chassis e rack.
- Modelli flessibili: iperconvergenti o convergenti, scalabili da 2 a 16 nodi e fino a 4 PB per cluster.
- Gestione moderna con Windows Centro di amministrazione, QoS per VM, servizio sanitario e automazione PowerShell.
Se gestisci Windows Server e stai pensando di modernizzarlo immagazzinamento Grazie alla sua base definita dal software, Storage Spaces Direct, o S2D in breve, è una di quelle tecnologie che vale la pena avere a portata di mano. Consente di consolidare i dischi interni di più server in un cluster e di esporli come storage condiviso. con elevate prestazioni, resilienza e una gestione molto ragionevole per l'uso quotidiano.
In termini generali, si tratta di una funzionalità integrata nelle edizioni Azure Local e Datacenter di Windows Server 2016, 2019 e 2022, nonché nell'edizione Azure di Windows Server 2022. Con S2D puoi avviare da hardware standard del settore e avere un cluster di storage pronto in pochi minuti per carichi di lavoro virtualizzati, sia in architettura convergente che iperconvergente.
Che cos'è Storage Spaces Direct
Storage Spaces Direct è una soluzione di archiviazione definita dal software che aggrega unità locali da un gruppo di server fisici per creare un pool comune. Tale pool di archiviazione applica automaticamente livelli, memorizzazione nella cache, resilienza e codifica di cancellazione., quindi l'amministratore si concentra sulla creazione di volumi e sulla distribuzione dei dati, non sulla microgestione dei dischi.
La tecnologia è un elemento fondamentale di Azure Local nelle versioni 21H2 e 20H2 e fa parte di Windows Server Datacenter 2016, 2019 e 2022. Funziona da cluster a 2 nodi e scala fino a 16 server, essendo in grado di combinare SSD, HDD, NVMe o memoria persistente all'interno della stessa architettura.
Oltre al cluster fisico tradizionale, è supportato anche il cluster guest costituito da Macchine virtuali su cloud privati o pubblici. In produzione, la distribuzione guest è supportata quando basata su Windows Server, un'opzione utile in scenari di laboratorio avanzati o multi-tenant.
Come funziona S2D e la sua architettura
Sotto il cofano, S2D si basa su diversi componenti del sistema: Failover Clustering, Cluster Shared Volumes, SMB 3 con SMB Direct e Multichannel e la tecnologia Storage Spaces stessa. La novità principale è il Software Storage Bus, la struttura che fa sì che tutti i server vedano le unità locali degli altri come se fossero le proprie.
I server si collegano tra loro tramite Ethernet e formano un cluster senza bisogno di Fibre Channel o SAS condiviso. Abilitando S2D, le unità interne di ciascun nodo vengono combinate in un pool logico. Gestito tramite software. Da lì, si creano volumi che vengono montati come CSV e rimangono accessibili anche in caso di guasto di un disco o di un nodo completo.
Su questi volumi è possibile ospitare file .vhd e .vhdx per macchine virtuali, database o file utente. Il cluster può funzionare come un file server scalabile o come una piattaforma iperconvergente con Hyper-V, posizionando le VM direttamente sui volumi.
Per velocizzare l'I/O, S2D utilizza la Storage Bus Layer Cache, che mappa le unità più veloci su quelle più lente. Questa cache di lettura-scrittura lato server migliora la latenza e le prestazioni., sfruttando in particolare il potenziale di NVMe rispetto a PCIe.
Componenti chiave e parti dello stack
- Hardware di rete: S2D utilizza SMB3 con SMB Direct e SMB Multichannel su Ethernet. Si consiglia 10 GbE o superiore con RDMA, iWARP o RoCE. per garantire bassa latenza e prestazioni più elevate nella comunicazione tra i nodie puoi controllare le prestazioni con test con ntttcp e Windows.
- Hardware di archiviazione: : Sono richiesti da 2 a 16 server approvati con unità collegate direttamente (SATA, SAS, NVMe o memoria persistente). Ogni server deve avere almeno due SSD e almeno quattro unità aggiuntive.; I dispositivi SATA e SAS devono essere posizionati dietro un HBA e un expander SAS.
- Clustering di failover: Il clustering di failover è il fondamento dell'elevata disponibilità a livello di server. È responsabile dell'orchestrazione dei nodi, della marcatura e della rimozione dei contrassegni delle risorse e della continuità del servizio..
- Software per bus di archiviazione: Questo bus software costituisce la struttura di archiviazione definita dal software, eliminando la necessità delle SAN tradizionali. Consideralo come la sostituzione logica di Fibre Channel o Shared SAS, ma definito dal software.
- Cache di livello del bus di archiviazione: La cache distribuisce le letture e le scritture sui supporti veloci collegati ai supporti più lenti. Ciò assorbe i picchi di I/O e aumenta gli IOPS sostenuti. senza ulteriore complessità per l'amministratore.
- Pool di archiviazione: Il pool di archiviazione contiene tutte le unità idonee. Viene creato e popolato automaticamente. La raccomandazione usuale è un pool per cluster con la configurazione predefinita per semplificare le operazioni.
- Deposito Spazi: I dischi virtuali creati nel pool possono utilizzare il mirroring, la codifica di cancellazione o una combinazione di queste. In S2D è comune configurare la tolleranza a due guasti simultanei tramite mirroring a tre vie, con ogni copia su un server diverso, e si ha consapevolezza dei domini di errore per chassis e rack.
- Refs: Il file system ReFS è ottimizzato per la virtualizzazione e .vhdx. Fornisce accelerazioni per la creazione, l'espansione o la combinazione di checkpoint, oltre a checksum per rilevare e correggere errori di bit e livelli in tempo reale che spostano i dati tra livelli caldi e freddi.
- CSV: Cluster Shared Volumes espone un singolo namespace accessibile da qualsiasi server. Per ogni nodo, ogni volume si comporta come se fosse montato localmente., il che semplifica notevolmente l'accesso simultaneo.
- Server di file scalabile: Negli scenari convergenti, questo livello espone SMB3 ai client remoti, ad esempio un altro cluster Hyper-V. Di fatto, trasforma S2D in un NAS facile da scalare e gestire, utile per sincronizzare le cartelle di rete.
Prestazioni, resilienza ed efficienza
Con S2D, sia in configurazioni ibride che all-flash, nei test interni sono state registrate cifre superiori a 13,7 milioni di IOPS per server. L'architettura dell'hypervisor incorporato e la cache integrata garantiscono latenze costanti e molto basse.
La tolleranza agli errori riguarda dischi, server e componenti, con disponibilità continua. Nelle distribuzioni di grandi dimensioni è possibile configurare le tolleranze per chassis e per rack, in modo che i guasti fisici non influiscano sull'integrità complessiva del cluster.
L'efficienza di archiviazione è migliorata grazie alla codifica di cancellazione, che include innovazioni come i codici di ricostruzione locale. Ciò consente un'efficienza della capacità fino a 2,4 volte maggiore., riducendo il consumo di CPU e restituendo le risorse alle macchine virtuali.
Requisiti hardware e di rete
Per un'esperienza di produzione solida, ci sono diverse linee guida. Rete da 10 GbE o superiore con RDMA iWARP o RoCE, cablaggio e switch compatibili e configurazione SMB Direct e Multichannel verificata.
Su ciascun server si consigliano almeno due SSD per la cache e diverse unità di capacità aggiuntiva. Il supporto copre SATA, SAS, NVMe e memoria persistente; I dispositivi SATA e SAS dovrebbero essere posizionati dopo l'HBA e l'espansore SAS.
In termini di numero di nodi, S2D supporta da 2 a 16 server. Per una reale elevata disponibilità, l'ideale è lavorare con 3 o più nodi., poiché la perdita di un nodo in un cluster di 2 non lascia alcun margine di manovra.
Per quanto riguarda la capacità massima, la documentazione più recente parla di un massimo di 400 unità e 4 PB per cluster, mentre fonti più vecchie menzionano limiti inferiori, come 1 PB per pool. Tieni presente che questi limiti dipendono dalla versione, dal firmware e dalle convalide. dal produttore dell'hardware. Se si riscontrano carenze di spazio, consultare le soluzioni per non c'è abbastanza spazio di archiviazione.
Modelli di distribuzione
IperconvergenteUn unico cluster per elaborazione e storage. Abilitando Hyper-V sugli stessi host, le VM sono ospitate direttamente su volumi S2D. Ridurre i costi e la complessità nelle PMI e nelle sedi remote, eliminando i file server intermedi.
Convergente o disaggregato: Cluster separati per storage ed elaborazione. Un file server Scale-Out si trova sopra S2D per esporre SMB3. Perfetto quando è necessario scalare l'archiviazione e l'elaborazione in modo indipendente, tipico dell'IaaS su larga scala.
Quando utilizzare S2D
Se si desidera espandere la capacità senza riprogettare l'intera SAN, S2D è la soluzione ideale. È possibile scalare aggiungendo dischi o nuovi servere il sistema incorpora automaticamente le unità e riequilibra la piscina.
Se più computer devono accedere allo stesso set di dati, il pool si comporta come una condivisione di rete. Gli utenti possono accedere ai dati da diverse fonti senza doversi preoccupare della loro ubicazione fisica., che facilita la distribuzione dei carichi.
Quando è necessario combinare supporti, S2D decide automaticamente quale tipo di unità utilizzare in base al modello di accesso. Dati caldi su supporti veloci e dati freddi su supporti più lenti, ottimizzando costi e prestazioni in modo trasparente.
Amministrazione e monitoraggio
La gestione si è evoluta notevolmente con Windows Admin Center, che è diventato la console di riferimento. Visualizza lo stato di salute, l'archiviazione, le prestazioni e gli avvisi dell'hoste creare o gestire volumi graficamente.
Per approfondire, è possibile esaminare l'inventario dell'unità, lo stato, il firmware, la posizione, il produttore, il tipo, il numero di serie e l'appartenenza al pool. È ideale per identificare i dischi problematici e intervenire rapidamente. prima che influiscano sul servizio, ad esempio per ricostruire una partizione NTFS danneggiata.
Inoltre, S2D integra controlli QoS di archiviazione per VM, con limiti IOPS minimi e massimi. Il Servizio Sanitario fornisce monitoraggio e avvisi integratie le nuove API semplificano la raccolta di metriche dettagliate su capacità e prestazioni a livello di cluster.
PowerShell rimane lo strumento più potente per l'automazione e la diagnostica. comandi come Enable-ClusterS2D ti consente di attivare la funzionalità e regolare i controlli per i laboratori quando necessario.
Guida pratica di laboratorio: da zero al primo volume
In un ambiente di test, è possibile abilitare S2D con due nodi per familiarizzare con la tecnologia. In produzione, sono preferiti tre o più nodi e hardware certificato. per garantire una reale tolleranza ai guasti e compatibilità.
Preparare ciascun host con Windows Server, Hyper-V e la funzionalità cluster installati. Verificare da Cluster Manager che i nodi e le reti siano integri, con una rete per l'azienda e un'altra dedicata al traffico di archiviazione.
Per quanto riguarda i dischi, lascia il sistema operativo sul suo volume e presenta almeno tre unità dati per nodo in uno stato non partizionato, inizializzate se necessario. Evitare di riutilizzare i dischi di sistema per il pool e se si utilizza SATA in laboratorio, si presuppone che non sia supportato in produzione.
Aprire PowerShell come amministratore sul cluster ed eseguire: Enable-ClusterS2D -PoolFriendlyName S2D. Se il tuo laboratorio utilizza unità non idonee, aggiungi -SkipEligibilityChecks per saltare le convalide di produzione.
Dopo la configurazione automatica, vedrai il nuovo pool nella sezione di archiviazione di Cluster Manager. Da lì puoi creare un disco virtuale e, su di esso, un volume con l'assistente corrispondente.
Quando si crea il disco virtuale, scegliere il pool e selezionare la resilienza: semplice, mirror o parità. Nello specchio, puoi scegliere tra due o tre vie; più copie ci sono, maggiore è la tolleranza agli errori e maggiore è il consumo di capacità.
Selezionare la dimensione del disco virtuale, confermarla e quindi creare il volume. Per la virtualizzazione, Microsoft consiglia ReFS per le sue ottimizzazioni con .vhdx e le sue capacità di integrità.
Una volta creato, aggiungi il volume come Cluster Shared Volume da Cluster Manager. Vedrai la cartella ClusterStorage apparire in C: su ogni nodo con accesso in lettura e scrittura, pronto per ospitare carichi.
Da Hyper-V Manager, crea una VM nel CSV e aggiungila al cluster. Potrai spostarlo in tempo reale tra i nodi senza interruzioni, proprio come se si lavorasse con un array SAN tradizionale.
Versioni, limiti e supporto
S2D è presente in Windows Server 2016, 2019 e 2022 Datacenter e in Azure On-Premises 20H2 e 21H2. Disponibile anche in Windows Server Azure Edition 2022, con miglioramenti specifici per gli scenari ibridi.
In termini di scala, il benchmark attuale è fino a 16 nodi e oltre 400 unità per cluster, con una capacità totale per cluster fino a 4 PB. Alcune fonti precedenti fanno riferimento a limiti di pool di 1 PB; presuppone che il limite dipenda dall'intero stack e dalle convalide del provider.
Per la produzione, utilizzare hardware convalidato da Microsoft e dai partner OEM, con versioni firmware e driver consigliato. Combinazioni casuali di dischi, HBA e NIC possono causare incompatibilità prestazioni o supporto, quindi è meglio fare affidamento sugli elenchi di compatibilità aggiornati.
Scrittore appassionato del mondo dei byte e della tecnologia in generale. Adoro condividere le mie conoscenze attraverso la scrittura, ed è quello che farò in questo blog, mostrarti tutte le cose più interessanti su gadget, software, hardware, tendenze tecnologiche e altro ancora. Il mio obiettivo è aiutarti a navigare nel mondo digitale in modo semplice e divertente.
