Il data center è vivo e si rinnova insieme a noi. Nonostante il primo hype sul cloud computing e la conseguente enfasi sull’esternalizzazione dell’IT aziendale ne abbiano messo in discussione il senso, il data center oggi ha più che mai il diritto di esistere.
Passata la fase di radicale esaltazione del cloud, oggi, in quella più consapevole in cui si fanno largo diverse anime – dal cloud ibrido al multicloud, -, il data center nella sua accezione più moderna si colloca pienamente in un contesto di digital transformation.
Oggi si supera la concezione del data center come unico luogo fisico in cui collocare tutta l’infrastruttura IT, e lo si ridefinisce come parte dotata di precisa identità di un’infrastruttura distribuita su diversi repository.
Insomma, la definizione classica è ancora valida: un luogo fisico che ospita un’infrastruttura di elaborazione (server), di archiviazione (storage) e connessa (networking). Un luogo fisico messo a disposizione alle aziende dai cloud provider, per esempio, dai system integrator, dai rivenditori di servizi cloud, ma anche una struttura di proprietà (on premise) o totalmente controllata (cloud privato).
Nel data center moderno c’è tutto quello che c’era prima, e anche di più. Per quanto riguarda l’hardware, parliamo sempre della stessa tipologia di apparati (blade, rack, array storage, switch, router, firewall ecc.), di gruppi di continuità, di infrastrutture e materiali isolanti e di protezione, nel tempo notevolmente ottimizzati.
Oggi si progetta un data center seguendo precise direttive e protocolli ideati per garantire la massima sostenibilità ambientale e l’ottimizzazione delle risorse energetiche impiegate. Caratteristiche, queste, che permettono, insieme a diverse altre, una precisa categorizzazione dei data center secondo una “scala di livelli Tier” certificata da organi indipendenti.
Un data center Tier I è il minimo sindacale, un Tier IV è il massimo che si possa pretendere in termini di uptime garantito (99,99%). Questa categorizzazione persegue un unico obiettivo: più alto è il Tier è più il data center sarà affidabile e i dati aziendali saranno protetti.
Non a caso, da oggi Reevo vanta la certificazione Tier IV per tutti i tre data center a disposizione (2 a Milano e 1 a Roma): ciò a testimonianza della volontà di fornire il massimo della qualità ai propri clienti.
L’hardware strutturalmente è quello di sempre, ovviamente più performante, ma a un’occhiata più profonda delle specifiche si rivela anche più “intelligente”.
Ciò che è realmente cambiato è il software di gestione degli apparati e di condivisione delle risorse con gli altri luoghi dell’IT aziendale. Oggi nei data center si fa largo uso di infrastrutture software defined. Il software gestisce in modo evoluto gli apparati, regola dinamicamente le prestazioni e la comunicazione in base ai carichi di lavoro e ne automatizza la manutenzione. E ciò è possibile, ancora una volta, grazie agli algoritmi di intelligenza artificiale e, in particolare, di machine learning.
Per questo si parla di infrastruttura software defined, che siano server, storage o networking, tutto è orchestrato e gestito in maniera molto avanzata dal software. E tutto è finalizzato a pochi obiettivi: massime prestazioni nell’elaborazione e nell’archiviazione, massima protezione di dati e applicazioni, massima interoperabilità con le altre strutture It attraverso una rete affidabile e sicura.
La definizione di un percorso di digital transformation per un’azienda oggi non può prescindere da una riprogettazione dei data center esistenti, in ottica di tutela dell’investimento. Può essere opportuno sostituire gli apparati, ripensarne l’architettura, rivedere la connettività, la sicurezza e la ridondanza. Ancora, ci può essere bisogno di un consolidamento di diversi data center, riprogettando in modo più razionale la mappa dell’IT aziendale. Infine, è fondamentale ripensarne la gestione e i processi di intervento e manutenzione.
Un’azienda può avere il legittimo bisogno di rinvigorire un data center in loco o di costruirne alcuni presso le proprie sedi secondarie, il tutto all’interno di una progettazione di un ambiente multicloud, per esempio, o in un ambito ancora più articolato.
Le esigenze sono diverse e molto personali: solo un Cloud Service Provider può accompagnare un’azienda nella ridistribuzione della propria infrastruttura IT. Solo un operatore competente può scegliere il cloud più giusto (pubblico, privato, ibrido o multi) a seconda della tipologia di dati e di carichi di lavoro. Ma, in ogni caso, qualsiasi implementazione sia richiesta non si potrà fare a meno del buon vecchio caro data center, in versione rivista e aggiornata e, magari, con il massimo livello di certificazione!