Le aziende hanno davanti a sè diverse sfide, tra cui quella di ripensare i Data Center. E l’ispirazione arriva proprio dagli HPC. Ecco come.
L’anno che è appena iniziato sarà all’insegna delle sfide. Le aziende sono chiamate ad uno sforzo notevole e dovranno consolidare il grande salto innovativo e tecnologico fatto nel 2020, anche a causa della grave crisi sanitaria in seguito alla pandemia da Coronavirus.
Un dato rilevante è che le aziende hanno compreso, per necessità in primis, che la tecnologia può essere una grande mano e che l’innovazione diventa reale e concreta se alla base si sono fatti gli investimenti giusti.
Di fronte a uno scenario come questo, il 2021 sarà l’anno del Cloud Computing, tecnologia che sarà il vero partner per le aziende per condurle verso quel consolidamento tecnologico di cui parlavamo prima. Il 2021 sarà l’anno delle conferme, dunque.
E se il Cloud Computing sarà il partner delle aziende, piccole e grandi, allora sarà utile fare qualche considerazione in merito, perché è opportuno focalizzare un aspetto che, nel corso dei prossimi mesi, e anni, sarà sempre più centrale.
Le aziende hanno compreso il valore del Cloud ed è grazie a questa tecnologia, che è un po’ la base del processo di trasformazione digitale, se molte organizzazioni hanno potuto garantire la “business continuity” in un momento in cui era difficile portare avanti il lavoro. E il lavoro, come concetto di elaborazioni di processi da una postazione fissa, è cambiato. Non è più e solo espletabile da un luogo fisico, ma può essere portato avanti da qualsiasi postazione si voglia. Come abbiamo visto, nel 2020 è cresciuto a dismisura il fenomeno dello smart working, sono oggi 6,5 milioni gli italiani che lavorano da casa. Ed è proprio grazie al Cloud Computing se tutto questo è possibile.
In un momento in cui si diffonde il Cloud Computing e si diffonde il ricorso ad applicazioni che consentono di portare avanti i processi lavorativi, è evidente che i data center si troveranno a gestire una mole di dati più grande di quella che erano soliti gestire. Forse è giunto il momento di ripensare i data center guardando ai HPC (High-performance computer), ossia i supercomputer, quelli in grado di elaborare una enorme mole di processi contemporaneamente. Perché sarà quella la strada a cui guardare nei prossimi mesi, e anni, e sarà quella impostazione tecnologica ad aiutare le aziende. Certo, forse in questo momento non è una scelta sostenibile, soprattutto dal punto di vista economico (basti pensare al costoso sistema di raffreddamento che queste macchine richiedono), ma i data center, come li conosciamo oggi, sulla spinta dell’edge computing, potrebbero essere sostituiti da data center di dimensione più piccola e più vicini alla fonte dei dati. Questo permetterebbe alle applicazioni basate sul cloud di ottenere tutti i benefici della nuova tecnologia 5G, riducendo la latenza e risparmiando larghezza di banda.
Da questo punto di vista Kingston Technology, leader mondiale nella produzione di schede di memoria, mette in evidenza quelle che possono essere le indicazioni che i gestori di data center possono seguire, guardando proprio ai HPC.
Coerenza e uniformità di funzionamento – Come sappiamo, piattaforme Cloud come Microsoft Azure o Amazon Web Services sono realizzate per poter gestire numerose applicazioni di tipo differente e in grado di utilizzare risorse e infrastrutture condivise. Invece, gli HPC sono progettati per esigenze specifiche. La maggior parte, secondo la Top 500, che elenca gli HPC più veloci al mondo, è impiegata nella ricerca del settore energetico; non manca un cospicuo numero di supercomputer impegnati nell’intelligence; e poi ci sono quelli dedicati alle previsioni meteorologiche. Si tratta di macchine personalizzate, elaborate e progettate con aziende come Intel, HP, Toshiba, per eseguire specifiche tipologie di calcoli su dataset molto specifici, sia in tempo reale che per applicazioni di elaborazione asincrona. Ecco, in sintesi, i manager dei datacenter di oggi devono porsi il tema degli ambiti di applicazione dei sistemi per meglio organizzare le macchine e gestire al meglio le prestazioni.
Ecco come organizzare i nuovi Data Center
I dati “in tempo reale”
L’elaborazione di dati in tempo reale richiede prestazioni altissime che solo gli HPC riescono a soddisfare, tale è la mole di dati da lavorare che arrivano, anche, da fonti diverse. Basti pensare me grandi macchine progettate per le previsioni meteorologiche che necessitano di una enorme mole di dati in tempo reale sulla base dei quali elaborare le previsioni. Sicuramente, anche questo sarà uno degli scenari a cui i manager di data center dovranno guardare. In questi casi, la progettazione di un sistema che utilizza dati in “tempo reale”, non richiede l’archiviazione di tutti i dati immessi nel sistema, ma dovrebbe utilizzare memorie di accesso casuale non volatili (NVRAM) e memorie dinamiche ad accesso casuale (DRAM), per l’elaborazione in tempo reale per la cache e l’elaborazione dei dati in transito in tempo reale, per poi inviare il risultato così elaborato allo storage.
Soglie di latenza
Se è vero che aumenta la mole di dati, è anche vero che deve aumentare, di pari passo, la velocità con cui gli stessi dati vengono elaborati. In tanti contesti, la velocità di elaborazione e il risultato che ne consegue dipende proprio dalla velocità. Basti pensare alla borsa, alle previsioni climatiche, i cui risultati possono incidere sulla vita di molte persone. Da tenere in considerazione che i computer di grandi dimensioni e i big data richiedono l’uso di grandi quantità di DRAM. Le elaborazioni portate avanti da unità a disco rigido (HDD) di grandi dimensioni spesso creano delle congestioni nei processi, al contrario delle RAM. Invece, le unità a stato solido, che sono disponibili in formati più compatti e che utilizzano il protocollo di comunicazione appositamente progettato per le memorie NAND Flash (NVMe), possono essere utilizzate come cache, garantendo prestazioni ottimali per una vasta gamma di carichi di lavoro. I cluster FPGA sono ulteriormente ottimizzati per ciascun carico di lavoro specifico, al fine garantire che i set dati di grandi dimensioni siano gestiti con prestazioni ottimali.
Livelli di sicurezza
I data center richiedono risorge energetiche continue per garantire la continuità del lavoro. La maggior parte dei data center, ad oggi, funziona con una struttura RAID di alto livello, al fine di garantire la continuità di funzionamento e la corretta esecuzione delle attività di scrittura quasi simultanea su array di storage differenti. La regola è quella dei salvataggi costanti e frequenti per garantire la continuità e questa la si ottiene con continui backup per salvaguardare i dati, tenendo conto anche della continua mole dei dati in tempo reale. Insomma, queste macchine necessitano di grandi risorse energetiche e di grande memoria. Da questo punto di vista, Kingston Technology ha la tecnologia e l’esperienza per fornire le soluzioni migliori per contribuire ala realizzazione dei data center del futuro, sempre più performanti.
La personalizzazione degli HPC, come abbiamo visto, è un parametro che permette di mettere a punto macchine in grado di essere molto efficienti per task specifici. ed è questa la parola chiave che deve accompagnare gli architetti dei nuovi data center a realizzare le vere macchine del futuro.
[In collaborazione con Kingston Technology]