La crescente comunità di persone collegate ad internet impone sfide via via più grandi agli addetti ai lavori del digitale. Il boom dei dispositivi connessi alla rete ci permette ormai di accedere a servizi web in modi sempre diversi, generando una quantità di dati destinata a crescere con il tempo. Per le tech company che lavorano con i dati, non si tratta soltanto di un problema di storage, ma anche sicurezza e di continuità di servizio.
Quali sono le soluzioni aziendali per rimanere a galla in questo mare di file?
In questo articolo parleremo di Amazon S3 e di come questo servizio cloud riesca a semplificare la gestione dello storage di grandi quantità di dati in modo scalabile e ad un costo ridotto rispetto a qualsiasi altra soluzione di storage tradizionale.
Cos’è Amazon S3? Come funziona Amazon S3?
Partiamo dalle basi: S3 sta per Simple Storage Service.
Indice degli argomenti
Amazon S3 è un servizio di cloud computing che offre storage di oggetti scalabile, senza limiti di quantità e con una durevolezza del dato garantita al 99,999999999%.
Questa sorprendente percentuale ad undici nove viene rispettata grazie alla ridondanza dei data center tra diverse “Availability Zone” all’interno di varie “Region” del servizio AWS.
Ma cosa sono le Region? Cosa sono le Availability Zone?
Per svelare i segreti di Amazon S3 dobbiamo prima scoprire come funziona AWS.
Sbarazzandoci dei tecnicismi, possiamo dire che l’infrastruttura di AWS è una grande catena di data center distribuiti in tutto il globo che comunicano tra di loro attraverso internet.
Possiamo analizzare la gerarchia dei vari componenti di AWS partendo dal livello più alto: le Region.
Una Region rappresenta un insieme di data center localizzati in una specifica regione geografica del mondo, ed ognuna di loro è totalmente indipendente dalle altre.
Ecco una mappa delle Region di AWS:
I cerchi arancioni indicano le Region attualmente attive, tra cui la nuova Region italiana AWS Milano, mentre i verdi rappresentano le Region in fase di attivazione.
I numeri all’interno di ogni cerchio rappresentano invece il numero di “Availability Zone” all’interno di quella specifica Region.
Le Availability Zone sono i veri e propri data center, il cuore pulsante di AWS.
Si tratta di data center isolati ma connessi tra di loro attraverso dei collegamenti in fibra ottica a bassa latenza. Nella maggior parte delle Region sono presenti due o più Availability Zone, ed è qui che risiede il segreto dell’efficienza dei servizi AWS.
S3, per impostazione predefinita, replica i dati all’interno di almeno tre Availability Zone di una stessa Region, in modo che se anche un’intera Availability Zone venisse compromessa, ad esempio a causa di una calamità naturale, gli utenti della nostra applicazione non noterebbero alcun disservizio. Tutte la applicazioni ed i servizi web poggiati su S3 continuerebbero a funzionare come al solito.
E per completare il quadro della gerarchia, parliamo infine delle Edge Location.
Le Edge Location sono dei data center più piccoli rispetto alle Availability Zone, pensate per la distribuzione di contenuti a bassa latenza. Al momento esistono ben 205 edge location ed 12 cache edge regionali in 84 città e in 42 paesi.
Sebbene non facciano direttamente parte di Amazon S3, sono completamente integrate con il servizio e possiamo sfruttarle attivando la distribuzione CloudFront, il Content Delivery Network (CDN) di AWS.
Come abbiamo visto poco sopra e nella mappa, a loro volta le Edge Location si suddividono in due distinte unità:
La principale differenza tra le due unità è che le prime mantengono i file in memoria per un periodo di tempo maggiore rispetto alle seconde, fungendo come da “archivio” per le più piccole edge location.
Quindi, facendo il punto della situazione, possiamo riassumere la gerarchia di AWS in questo modo:
Adesso possiamo finalmente concentrarci sul funzionamento di Amazon S3 e sulle sue caratteristiche.
Più in alto abbiamo parlato di “storage di oggetti”, perché in Amazon S3 i nostri file vengono definiti oggetti e vengono memorizzati all’interno di contenitori definiti bucket. Vediamo di cosa si tratta.
Un bucket è un contenitore di oggetti in Amazon S3. È come se fosse una cartella nel nostro account AWS ed è necessario crearne uno prima di poter procedere con l’upload dei dati.
Dato che è possibile accedere ai nostri oggetti via web, il nome di ogni bucket è univoco per tutte le Region di AWS: non esistono due bucket con lo stesso nome.
I file caricati all’interno di un bucket vengono quindi definiti oggetti.
Su Amazon S3 un oggetto è un insieme di dati e metadati che viene identificato in modo univoco da una chiave e, nel caso in cui attivassimo la funzione Versioni Multiple (di cui parleremo tra poco), da una chiave e dal suo suo Version ID.
La struttura di un oggetto all’interno di un bucket è quindi la seguente:
Una chiave in Amazon S3 è una stringa che identifica un oggetto in modo univoco all’interno di un bucket e coincide con il nome dell’oggetto o con il suo “percorso”.
Le virgolette sono d’obbligo perché S3 usa un modello di storage piatto in cui non esistono cartelle e sottocartelle, ma possiamo comunque utilizzare prefissi e delimitatori per simulare la gerarchia di un file system tradizionale.
Ad esempio, se volessi archiviare la mia foto.jpg nella “cartella” delle foto ad alta risoluzione e la mia anteprima.jpg nella “cartella” delle foto a bassa risoluzione, potrei utilizzare questi percorsi:
Oltre a ricreare una gerarchia fittizia all’interno del bucket S3, questi percorsi rappresentano le chiavi dei miei due oggetti.
Riassumendo, ogni oggetto all’interno di un bucket può quindi essere identificato e raggiunto in questo modo:
Parliamo infine di alcune caratteristiche di Amazon S3.
Nonostante il nome suggerisca una grande semplicità, le diverse classi di storage e le funzioni di Amazon S3 lo rendono un prodotto versatile e adatto ad un’ampia gamma di casi d’uso. In basso riassumo tre importanti funzioni: la cross-region replication, il Versioning e le lifecycle policy, per affrontare immediatamente dopo le diverse classi di storage.
Ho già specificato che S3 per impostazione predefinita replica i dati tra diverse Availability Zone. Ma come funziona per le varie Region? È possibile replicare i dati anche tra Region diverse? La risposta è sì, e la funzione che lo permette prende il nome di Cross-Region Replication.
La Cross-Region Replication è la possibilità di replicare i nostri dati non solo tra le diverse Availability Zone, ma anche tra le varie Region, per questioni di latenza o di sicurezza.
Amazon ci tiene a specificare che i dati all’interno di una Region non vengono mai replicati tra le altre Region a meno che non venga esplicitamente richiesto dall’utente. Questo perché ogni paese ha una legislazione differente in materia di dati a cui sono sottoposti -ovviamente- anche i data center di AWS.
Detto questo, possiamo scegliere di replicare i nostri dati in una o più Region ad esempio per:
E sempre in materia di sicurezza introduciamo un ulteriore vantaggio di Amazon S3, il Versioning o Versioni Multiple.
Versioni Multiple è una funzione di S3, non attiva di default, che ci dà la possibilità di archiviare oggetti in più versioni, utile per:
Quindi, cosa succede se attivo la funzione Versioni Multiple?
Facciamo un esempio:
Attivo la funzione e carico la mia foto.jpg sul mio bucket S3.
In questo caso, al mio Oggetto verrà associata non solo una Chiave univoca, ma anche un Version ID.
Nel momento in cui sovrascrivo l’oggetto in questione, questo non viene eliminato: all’oggetto “sovrascritto” viene assegnato un diverso Version ID e la mia foto.jpg viene quindi archiviata con due Version ID differenti:
A questo punto, posso conservare ed avere accesso ad entrambe le versioni dello stesso oggetto all’interno dello stesso bucket s3.
Il meccanismo è simile in caso di eliminazione del file.
Quando elimino un oggetto in un bucket con il Versioning attivo, questo non viene realmente eliminato. All’oggetto viene assegnato un “delete marker“, e la versione “cancellata” dell’oggetto diventa la sua “versione corrente”.
In questo modo non corro il rischio di cancellare o sovrascrivere dati importanti perché posso accedere alle loro versioni meno recenti, e con le regole di ciclo vita posso associargli delle scadenze.
Le regole di ciclo vita permettono di gestire il ciclo vitale degli oggetti all’interno di un bucket seguendo delle regole da noi stabilite che vengono eseguite in automatico da S3. Nello specifico, possiamo definire due tipi di azioni:
Come anticipato sopra, possiamo utilizzare le regole di ciclo vita anche per spostare versioni meno recenti di un oggetto ad una classe di storage più economica dopo un determinato periodo di tempo. Infatti, esistono diverse classi di storage per diversi casi d’uso.
Le classi di storage in Amazon S3 sono state ideate con in mente diversi casi d’uso per una vasta varietà di settori. Attualmente esistono sei diverse classi, ognuna con costi e caratteristiche diverse. Ne riassumo qui le caratteristiche principali.
S3 Standard è la classe di storage per uso generico, ed ha tutte le caratteristiche di cui abbiamo discusso: ridondanza tra le Availability Zone, alta disponibilità e durevolezza del dato garantita al 99,999999999. È la classe più indicata per siti web, applicazioni o qualsiasi altro servizio che necessiti di storage ad accesso frequente.
Questa classe di storage è simile ad S3 Standard ma è indicata per i casi in cui non siamo sicuri della frequenza con cui accederemo ai nostri oggetti. Con Intelligent Tiering, Amazon S3 si occupa di monitorare per conto nostro la frequenza di accesso agli oggetti, spostando in automatico quelli ad accesso meno frequente in una classe di storage meno costosa, ovvero S3 Standard Infrequent Access.
Pensata per lo storage a lungo termine e ad accesso sporadico, ad esempio backup e disaster recovery, S3 Standard Infrequent Access mantiene le stesse prestazioni delle classi di storage di cui abbiamo parlato sopra ad un costo inferiore.
A differenza della precedente classe e delle altre, in questa classe di storage i dati vengono archiviati esclusivamente all’interno di una singola Availability Zone. S3 One Zone costa il 20% in meno di S3 Standard IA ed è pensato per l’archiviazione di file facilmente ricreabili o copie di backup secondarie.
S3 Glacier è una classe di storage economica pensata per l’archiviazione a lungo termine e ad accesso sporadico in cui, oltre allo storage, si paga una commissione per il recupero dei dati archiviati. In Glacier esistono tre diverse opzioni per il recupero dei dati:
Come S3 Glacier, quest’ultima classe di storage è pensata per l’accesso sporadico ma per tempi di archiviazione molto lunghi (7-10 anni) ed accessi meno frequenti (1-2 volte l’anno). S3 Glacier Deep Archive costa fino al 75% in meno rispetto ad S3 Glacier ed offre due opzioni per il recupero dei dati:
CTMobi è AWS Partner
Costruiamo insieme il tuo successo
[mautic type=”form” id=”3″]
Ascolta l'articolo |
Angelo Lombardo