Data Center Architecture

L'architettura moderna dei data center si è evoluta da un'infrastruttura on-premise a un'infrastruttura che collega i sistemi on-premise con le infrastrutture cloud, dove rete, applicazioni e carichi di lavoro sono virtualizzati in più cloud privati e pubblici. Questa evoluzione ha influenzato l'architettura dei data center, in quanto tutti i componenti di un data center non sono più co-localizzati e possono essere accessibili l'uno all'altro solo attraverso la rete Internet pubblica.

Diamo un'occhiata agli ultimi progressi nelle tecnologie di rete, calcolo e archiviazione dei data center.

Richiedi una Demo Guida all'acquisto di data center ibridi di IDC

Data Center Computing

I progressi nella virtualizzazione dei componenti dell'infrastruttura consentono al personale di attivare rapidamente i sistemi e le applicazioni in base alle esigenze. Ad esempio, gli ambienti hypervisor isolano le risorse di calcolo e di memoria utilizzate dalle macchine virtuali (VM) dalle risorse dell'hardware bare-metal. I sistemi di container forniscono sistemi operativi virtuali su cui eseguire le applicazioni. Sia le macchine virtuali che le applicazioni containerizzate sono portatili e possono essere eseguite on-premise o su un cloud pubblico, a seconda delle necessità.

 

Mentre la macchina virtuale e l'applicazione consentono una consegna più rapida dell'infrastruttura e dell'applicazione, l'edge computing risolve un problema diverso e sposta le risorse di calcolo ai margini, dove risiedono i dati, riducendo così i problemi di latenza e larghezza di banda che si verificano nel trasporto.

 

Un caso d'uso primario che l'edge computing risolve è l'elaborazione dei dati generati da dispositivi remoti dell 'Internet of Things. Le applicazioni in tempo reale, come l'elaborazione video e l'analisi utilizzata nelle auto a guida autonoma e nella robotica, necessitano di un'elaborazione effettuata vicino al bordo. Sono nati i micro data center, che sono unità distribuite e compatte. Queste unità raccolgono, elaborano, analizzano e archiviano i dati vicino ai dispositivi edge che raccolgono i dati e hanno bisogno del risultato dell'analisi in tempo reale.

 

I microprocessori che conosciamo oggi, che contengono diverse CPU in un singolo chip, hanno fatto molta strada dalla loro invenzione nei primi anni '70. Nel tempo, la velocità di elaborazione delle CPU generiche è aumentata e ha beneficiato della legge di Moore, che prevedeva un raddoppio del numero di transistor su un microchip ogni due anni. Ma la struttura delle CPU potrebbe non essere adatta ad alcuni compiti.

 

Con l'emergere dell'intelligenza artificiale (IA) e dell'apprendimento profondo delle macchine, è stato scoperto che le unità di elaborazione grafica (GPU) possono essere 250 volte più veloci delle CPU nell'addestramento delle reti neurali di apprendimento profondo. La loro struttura li rende più efficienti delle unità di elaborazione centrale (CPU) di uso generale per gli algoritmi che elaborano grandi blocchi di dati in parallelo.

Archiviazione del data center

L'archiviazione dei dati, sia propri che dei clienti, è una parte fondamentale dei compiti di un data center.  Man mano che l'archiviazione diventa più economica e più efficiente, l'uso di backup locali e remoti diventa più comune, aumentando ulteriormente l'archiviazione dei dati.

 

data center i proprietari dispongono di piani di ripristino di emergenza per recuperare i dati persi. Le tecniche di backup includono il salvataggio dei dati su un supporto fisico e la successiva archiviazione dei dati in locale o in remoto, il trasferimento diretto dei dati in un altro sito o il caricamento dei dati nel cloud. Ad esempio, i dati sono spesso distribuiti tra più data center fisicamente separati. In questo modo, se un data center viene compromesso da un incendio, da un terremoto o da un altro disastro naturale, le informazioni perse possono essere ripristinate dal contenuto del data center di backup.

 

I progressi nelle tecnologie di archiviazione dati come SDS (Software-defined Storage), NVMe e NVMe-oF stanno cambiando il modo in cui i data center archiviano, gestiscono e utilizzano i dati. La gestione dei dati tramite astrazione software (SDS) consente l'automazione e riduce i costi di gestione dei dati.

 

NVM Express (NVMe) e le unità a stato solido (SSD) stanno sostituendo i dischi rotanti tradizionali e le interfacce SATA e SAS utilizzate per accedervi, con una latenza inferiore e prestazioni migliori. Mentre NVMe si applica alle interfacce PCI Express in un sistema di archiviazione, NVMe over Fiber consente a un computer di accedere a dispositivi di archiviazione a livello di blocco collegati a un altro computer tramite un accesso diretto remoto alla memoria attraverso la rete. Ciò consente alle organizzazioni di creare reti di archiviazione ad alte prestazioni con latenze molto basse.

Reti del data center

I requisiti di larghezza di banda dei data center sono determinati dalle applicazioni e dal numero di sistemi interni ed esterni e di utenti collegati alla rete. I picchi devono essere monitorati attraverso le reti SAN (Storage Area Network), le reti LAN (Local Area Network), i collegamenti esterni e Internet, utilizzando strumenti di monitoraggio per valutare quando è necessario passare al circuito di dimensioni successive, ad esempio quando si raggiunge regolarmente il 50% della capacità.

 

I colli di bottiglia nel flusso di traffico possono verificarsi in qualsiasi punto di connessione. In particolare, i manager devono assicurarsi che i firewall, i bilanciatori di carico, gli IPS e i WAF siano in grado di supportare i requisiti complessivi di throughput. Per quanto riguarda la connettività WAN, i manager dovrebbero pianificare una larghezza di banda sufficiente a supportare picchi di traffico occasionali, per garantire che le richieste di voce e video, l'accesso a Internet, i requisiti dei servizi MPLS e SD-WAN siano soddisfatti. La larghezza di banda è una piccola spesa da pagare rispetto a un cattivo user experience.

 

Un'architettura di rete del data center è una topologia di rete ad albero composta da tre livelli di switch di rete. L'accesso è il livello più basso, dove i server si collegano a uno switch edge.

 

Il livello aggregato è un livello intermedio che interconnette tra loro più switch del livello di accesso. Gli switch di livello aggregato sono collegati tra loro da switch di livello core di livello superiore. Una pratica comune è quella di distribuire qui i firewall, i bilanciatori di carico e le schede di accelerazione delle applicazioni sugli switch.

 

Gli switch del livello core collegano il data center a Internet. Gli switch core hanno elevate capacità di commutazione e possono gestire raffiche di traffico. Per ridurre al minimo il numero di indirizzi di server individuali che gli switch core devono gestire, gli switch core instradano il traffico verso i batch o i pod, codificando i pacchetti di dati in modo tale che il core debba solo sapere verso quale pod indirizzare il traffico, anziché gestire le richieste dei singoli server.

 

Uno degli ultimi progressi nelle reti dei data center è rappresentato dalle tecnologie di sicurezza della rete hyperscale. Si tratta della capacità di migliorare e scalare in modo appropriato man mano che si aggiungono altre richieste al sistema. Più risorse possono essere allocate dinamicamente al sistema, dando vita a un sistema forte, scalabile e distribuito.

 

Le reti dei data center moderni utilizzano anche il Software-defined Networking (SDN), che consente ai manager di rete di configurare, gestire, proteggere e ottimizzare le risorse di rete nel software. SDN astrae un'infrastruttura di rete in un livello di applicazione, un piano di controllo e un piano dati. Il controllo della rete diventa quindi direttamente programmabile, consentendo il provisioning automatizzato e la gestione basata su criteri delle risorse di rete. I vantaggi dell'SDN includono la riduzione dei costi operativi, il controllo operativo centralizzato e la possibilità di scalare servizi come la sicurezza quando necessario.

L'evoluzione dell'architettura dei data center è in corso

I cambiamenti nelle tecnologie di calcolo, archiviazione e rete hanno avuto un impatto drammatico sul modo in cui i data center vengono architettati e gestiti.  Con la continua evoluzione della tecnologia, le organizzazioni devono assicurarsi di disporre di soluzioni per proteggere le loro superfici di attacco digitali in continua evoluzione.

×
  Feedback
Questo sito Web utilizza i cookie per motivi funzionali e a scopo di analisi e marketing. Continuando a utilizzare il sito Web, accetti implicitamente l'uso dei cookie. Per ulteriori informazioni, si prega di leggere la nostra Informativa sui cookie.
OK