Cine e expensive much, cloud storage? Anul trecut am avut un bucket B2 la Backblaze în care vărsam backup-uri incrementale (cu deduplicare) de pe un server. Primul backup a avut vreo 130GB, apoi pe parcursul unui an toate alea incrementale au ajuns undeva la vreo 250GB. Factura Backblaze a fost de circa 63 cenți pentru câte 3 luni o dată.
Recent, Cloudflare a lansat propriul serviciu de storage, R2, care poate fi cuplat în mod șmecher cu niște agenți proprii și serviciul de proxy HTTP(S) prin DNS încât să țin un site pe un hosting undeva dar atașamentele să le țin în R2 și să fie livrate direct de Cloudflare fără ca bucket-ul în întregime să fie făcut public. Limitele serviciului gratuit sunt foarte generoase, atât pentru operațiuni cu cost ridicat (creat obiecte, modificat) cât și pentru cele cu cost scăzut (citit). Momentan sunt vreo 11GB de atașamente acolo și costul este zero.
Deci explică-mi ce e expensive much la cloud storage dacă știi ce fel de storage să alegi pentru ce nevoi ai. Da, dacă alegi hot storage pentru mașini virtuale în cloud, ăla costă mai mult, dar colecția de filme și poze nu se încadrează acestui profil, nu?
[edit] Probabil trebuie să abordăm problema altfel. Majoritatea oamenilor au o idee sau pot măsura imediat câte date au - număr de fișiere și volum total. Însă aceste numere te bagă în ceață când vine vorba despre cloud storage, fiindcă îți trebuie informații mai detaliate pe care nu le ai, și atunci îți rămâne doar să vorbești din impresii și pe presupuneri de cele mai multe ori complet nefondate. De exemplu, traficul de 10GB/lună gratuit pentru un bucket R2 la Cloudflare ce înseamnă, e mult, e puțin? Io am cam 9TB de date în NAS, deci clar 10GB pe lună e mult prea puțin! Dar este oare?
Dacă vrei să îți faci idee despre cât din datele tale le accesezi în mod curent și câte stau acolo neatinse, îți trebuie un software care să îți analizeze storage-ul local și să îți spună: în ultima lună ai accesat 3000 de fișiere cu un volum total de 2GB, în ultimul an ai accesat 8000 de fișiere cu un volum total de 5GB, și stai pe niște TB de fișiere care nu au fost accesate de mai mult de 2 ani. Ceva în genul afișat de FolderSizes, sau poate JDiskReport. Cred că rezultatele vor fi puțin surprinzătoare pentru mulți data hoarderi, și un mult mai bun punct de pornire pentru a estima nevoile reale pentru stocare a datelor și împărțirea lor în storage tiers în funcție de frecvența accesului - hot, warm, cold. Fiindcă nu are rost să discutăm despre hot storage pentru live data care sunt accesate de zeci de ori pe zi, pentru niște TB de date pe care le-ai pus la păstrare acu' 12 ani și de-atunci ai uitat și că există dar le incluzi la totaluri și le consideri „foarte importante”.
Recent, Cloudflare a lansat propriul serviciu de storage, R2, care poate fi cuplat în mod șmecher cu niște agenți proprii și serviciul de proxy HTTP(S) prin DNS încât să țin un site pe un hosting undeva dar atașamentele să le țin în R2 și să fie livrate direct de Cloudflare fără ca bucket-ul în întregime să fie făcut public. Limitele serviciului gratuit sunt foarte generoase, atât pentru operațiuni cu cost ridicat (creat obiecte, modificat) cât și pentru cele cu cost scăzut (citit). Momentan sunt vreo 11GB de atașamente acolo și costul este zero.
Deci explică-mi ce e expensive much la cloud storage dacă știi ce fel de storage să alegi pentru ce nevoi ai. Da, dacă alegi hot storage pentru mașini virtuale în cloud, ăla costă mai mult, dar colecția de filme și poze nu se încadrează acestui profil, nu?
[edit] Probabil trebuie să abordăm problema altfel. Majoritatea oamenilor au o idee sau pot măsura imediat câte date au - număr de fișiere și volum total. Însă aceste numere te bagă în ceață când vine vorba despre cloud storage, fiindcă îți trebuie informații mai detaliate pe care nu le ai, și atunci îți rămâne doar să vorbești din impresii și pe presupuneri de cele mai multe ori complet nefondate. De exemplu, traficul de 10GB/lună gratuit pentru un bucket R2 la Cloudflare ce înseamnă, e mult, e puțin? Io am cam 9TB de date în NAS, deci clar 10GB pe lună e mult prea puțin! Dar este oare?
Dacă vrei să îți faci idee despre cât din datele tale le accesezi în mod curent și câte stau acolo neatinse, îți trebuie un software care să îți analizeze storage-ul local și să îți spună: în ultima lună ai accesat 3000 de fișiere cu un volum total de 2GB, în ultimul an ai accesat 8000 de fișiere cu un volum total de 5GB, și stai pe niște TB de fișiere care nu au fost accesate de mai mult de 2 ani. Ceva în genul afișat de FolderSizes, sau poate JDiskReport. Cred că rezultatele vor fi puțin surprinzătoare pentru mulți data hoarderi, și un mult mai bun punct de pornire pentru a estima nevoile reale pentru stocare a datelor și împărțirea lor în storage tiers în funcție de frecvența accesului - hot, warm, cold. Fiindcă nu are rost să discutăm despre hot storage pentru live data care sunt accesate de zeci de ori pe zi, pentru niște TB de date pe care le-ai pus la păstrare acu' 12 ani și de-atunci ai uitat și că există dar le incluzi la totaluri și le consideri „foarte importante”.
Last edited: