Depinde de datele pe care le ai. În zi de azi ai opțiuni de deduplicare, cu care mai economisești din spațiu, iar pentru backup ai variante ieftine în cloud.
Rulez eu un script open source (nici să mor nu-mi amintesc cum îi zice) care face deduplicare și arhivă incrementală, apoi duce delta-ul într-un bucket S3 la BackBlaze. Cei vreo 90GB de userdata (din care vreo 65GB mailuri) s-au redus inițial la vreo 23GB, care s-a uploadat în câteva ore. Din noiembrie până acum, spațiul total consumat e 45GB, care mă costă 0,65$ la fiecare 3 luni, iar upload-urile automate sunt foarte mici.
PS: backup are ca scop primordial să ajute readucerea unui sistem la starea funcțională după un incident. De-aia ai backup incremental cu versiuni pe ultimele câteva săptămâni, ca în caz de corupere a datelor să poți merge gradat în urmă în timp până găsești o copie fără integritatea bușită (și de preferat mai recentă decât RPO). Dar un sistem de backup e calificat să țină datele un timp limitat, gen 7 săptămâni. Stocarea datelor pe timp mult mai îndelungat (10 ani, 50 ani etc.) se face prin sisteme de arhivare, cu stocare lentă și acces extrem de rar, dar cu funcții suplimentare de indexare, catalogare, metadata management, conversie de format pe parcursul anilor, access logging și altele. Nu e doar stocare chioară și nu e backup.
Tocmai am avut un bid pentru un sistem universal de arhivare pentru petabytes de date medicale, cu retenție 7 ani de la decesul pacientului, cu implicații legale, și a fost un subiect foarte interesant. Informatica merge bine pentru date structurate dar au o licențiere per utilizare a sistemului, poate să devină scump; OpenText e bun la date nestructurate, dar scump. Mai ai variante DIY în Azure sau AWS cu stocare tot acolo sau în Google Cloud. Sunt și alte soluții open source, gen IRODS, dar depinde de tipul de date și nevoile de arhivare.
Rulez eu un script open source (nici să mor nu-mi amintesc cum îi zice) care face deduplicare și arhivă incrementală, apoi duce delta-ul într-un bucket S3 la BackBlaze. Cei vreo 90GB de userdata (din care vreo 65GB mailuri) s-au redus inițial la vreo 23GB, care s-a uploadat în câteva ore. Din noiembrie până acum, spațiul total consumat e 45GB, care mă costă 0,65$ la fiecare 3 luni, iar upload-urile automate sunt foarte mici.
PS: backup are ca scop primordial să ajute readucerea unui sistem la starea funcțională după un incident. De-aia ai backup incremental cu versiuni pe ultimele câteva săptămâni, ca în caz de corupere a datelor să poți merge gradat în urmă în timp până găsești o copie fără integritatea bușită (și de preferat mai recentă decât RPO). Dar un sistem de backup e calificat să țină datele un timp limitat, gen 7 săptămâni. Stocarea datelor pe timp mult mai îndelungat (10 ani, 50 ani etc.) se face prin sisteme de arhivare, cu stocare lentă și acces extrem de rar, dar cu funcții suplimentare de indexare, catalogare, metadata management, conversie de format pe parcursul anilor, access logging și altele. Nu e doar stocare chioară și nu e backup.
Tocmai am avut un bid pentru un sistem universal de arhivare pentru petabytes de date medicale, cu retenție 7 ani de la decesul pacientului, cu implicații legale, și a fost un subiect foarte interesant. Informatica merge bine pentru date structurate dar au o licențiere per utilizare a sistemului, poate să devină scump; OpenText e bun la date nestructurate, dar scump. Mai ai variante DIY în Azure sau AWS cu stocare tot acolo sau în Google Cloud. Sunt și alte soluții open source, gen IRODS, dar depinde de tipul de date și nevoile de arhivare.
Last edited: