Come funziona la classificazione TIER dei data center

La classificazione TIER dei data center è un sistema di valutazione che è stato elaborato e messo a punto dall’Uptime Institute che, negli ultimi tempi, da più parti viene indicato come obsoleto o poco aggiornato.

Vale la pena di chiarire il quadro della situazione per verificare se tali perplessità siano giustificate o meno. In primo luogo è bene sapere che l’Uptime Institute è attivo da più di venti anni: lo scopo di questa organizzazione è quello di certificare il modus operandi delle imprese impegnate nella realizzazione di data center.

L’istituto si riferisce a un sistema di classificazione, in funzione del quale viene definita la qualità delle infrastrutture. La suddivisione in TIER si associa a parametri che riguardano ridondanza e disponibilità del servizio, per garantire valutazioni oggettive.

Nel caso di TIER I, per esempio, non si ha alcuna ridondanza, con una disponibilità pari al 99.67%, che si traduce in un massimo di 28.8 ore di downtime ogni anno.

Nel caso di TIER II, invece, si ha una ridondanza parziale, con una disponibilità pari al 99.75%, che si traduce in un massimo di 22 ore di downtime ogni anno.

Nel caso di TIER III si ha una ridondanza N+1 (è possibile procedere alla manutenzione senza che vi sia la necessità di interrompere il servizio), con una disponibilità pari al 99.982%, che si traduce in un massimo di 1.6 ore di downtime ogni anno.

Nel caso di TIER IV, infine, il servizio è disponibile anche in presenza di guasti tecnici gravi, oltre che nel corso delle operazioni di manutenzione, con una disponibilità pari al 99.995%, che si traduce in un massimo di 0.8 ore di interruzione ogni anno.

Ebbene, dopo circa un ventennio di servizio pare che i dubbi attorno a questo sistema di classificazione siano sempre più consistenti.

Il cofondatore dell’azienda TechXact Mehdi Paryavi, per esempio, sostiene che l’Uptime Institute abbia dato vita a uno standard accettabile in relazione al proprio campo di attività, ma non adeguato per stabilire in concreto se un’infrastruttura abbia o meno la possibilità di realizzare i compiti per cui è nata.

Un aspetto che non viene considerato a sufficienza, secondo il data center architect di eBay Steve Hambruch, è l’infrastruttura sottostante, dal momento che la Power Usage Effectiveness non permette di segnalare se la massima capacità computazionale a disposizione possa essere sfruttata a dovere in determinate circostanze.

Un’altra delle critiche mosse ai TIER chiama in causa la loro eccessiva rigidità. Per motivare tale contestazione si ipotizza che un setup composto da due data center TIER II connessi con un sistema di failover capace di garantire un livello di disponibilità maggiore di quello di ognuna delle infrastrutture connesse non possa essere classificato e valutato in maniera corretta in relazione alle direttive del sistema.

Per questi motivi alcuni anni fa è stata fondata la International Data Center Authority, che si pone lo scopo di arrivare all’identificazione di uno standard comune che permetta di valutare le prestazioni di tutte le infrastrutture IT, che si tratti delle applicazioni software da cui dipendono i data center o degli impianti di raffreddamento.

Per esempio, la IDCA si differenzia rispetto all’Uptime Institute perché prevede di permettere il ricorso al framework in elaborazione anche a chi non fa parte dell’organizzazione. La struttura del framework, soprannominato Infinity Paradigm, è una piramide a sette livelli. Riuscirà a ridurre la confusione sugli standard?

Condividi