Soluţie NAS pentru acasă

Pentru cei cu DIY NAS și surse fără suficiente SATA-uri pentru toate HDD-urile, recomand astea, dar cu mufa MOLEX tăiată și cositorite direct pe un cablu liber al sursei. Mufele MOLEX nu mai sunt ce-au fost.

Ca să nu vă treziți ca mine, cu două HDD-uri din RAID picate în același timp, că nu e fun, chiar dacă RAID-ul a supraviețuit.
 
Pentru cei cu DIY NAS și surse fără suficiente SATA-uri pentru toate HDD-urile, recomand astea, dar cu mufa MOLEX tăiată și cositorite direct pe un cablu liber al sursei. Mufele MOLEX nu mai sunt ce-au fost.

Ca să nu vă treziți ca mine, cu două HDD-uri din RAID picate în același timp, că nu e fun, chiar dacă RAID-ul a supraviețuit.

Sincer nu prea pricep cum de pretenții la mufe de 5 RON.

Interesant însă, mă gândesc că o sursă ar avea suficiente molexuri pentru HDDuri într-un NAS, că nu ai placă video fomistă şi altele de genul. Dar se explică dacă sursa este mai veche şi funcțională. Sincer ce aș face ar fi să folosesc un cablu de la o sursă modulară mai veche (sau căutat prin serviceuri de exemplu) apoi lipit pe unul din railurile sursei prezente dacă lipsesc mufele SATA şi sunt prea multe molex cu patru pini.

Eu am pățit ceva similar unde unul din cabluri era slăbit şi mi-au picat două SSD în raid şi două HDD de eram wtf. Carcasa mea are o placă mufată în spatele bayurilor de HDD şi doar vii şi bagi drives ca pe sertare, se slăbise conexiunea dintre molexul de la sursă şi placă şi picaseră fix alea conectate acolo. Până m-am prins mi-a luat vreo câteva zile de investigații, de fapt agățasem cablul insuficient pitit când am scos panoul din spate al carcasei să aspir de praf. Două minute cu letconul = np.




 
suficiente molexuri pentru HDDuri într-un NAS
Erau legate mai multe SATA la un molex. Conexiunea crăpa la molex->molex, nu la partea SATA (altfel nu se opreau ambele în același timp). Sursa e un Corsair de 430W care nu are multe de făcut (sistemul n-are placă grafică, încărcare medie sub 100W). Doar că-s 8 HDD-uri, dacă-mi arăți sursă bună cu atâtea SATA-uri, cu clips de fixare și sub 500W mă duc mâine să iau. Dar nu există, așa că trebuie adaptat.
 
Cablurile OFC in teorie au conductivitate mai buna, dar la toleranta acceptata intr-un PC acea conductivitate nu conteaza. De fapt cele pe care le folosim sunt otel cuprat, nici macar cupru in totalitate.
Daca are cineva nevoie mai am niste surse defecte, pot sa va dau mufe MOLEX cu tot cu cablu din ele.
 
Daca e s-o spunem p'aia dreapta, singurul avantaj al OFC (adevarat, nu chinezesc) e ca nu cocleste in timp. :wink:
 
Sunt diferente mai mari intre zilele de post si cele normale, iar in Craciun creste tensiunea si scade rezistenta miraculos.
 
M-am uitat dupa un sistem care sa consume ceva mai putin pe post de NAS si tocmai am testat un Intel G4400.
Fata de NAS-ul meu consuma estimat 55W cand sta pornit (fata de 85W) si vreo 70-75W cand scrie (fata de 110). Eu l-am testat doar cu 3 discuri si de-aia valorile sunt estimate, in NAS am 5. Iar sistemul asta are si o sursa dubioasa, asftel incat 62W (scriere, 3 discuri) fac 100VA.
Performanta e buna, scrie pe vechituri de 500GB (ce am gasit prin beci) in RAID5 cu 115MB/sec, iar procesorul sta lejer. Din pacate placa de baza nu are decat 4 porturi SATA, asa ca nu am putut sa testez cu discurile mele O sa ma uit dupa o placa cu 6 porturi si probabil o sa fac schimbul.
IMG_20170807_195410.jpg
 
CrashPlan renunță la piața consumer. Eu am ceva date la ei în cloud, dar nimic critic. Nu folosesc opțiunea de backup pe alte calculatoare, deci nu am cercetat ce se va întâmpla cu varianta asta. Cu ocazia asta cred că va trebui să-mi fac ordine pe NAS și să caut altceva. Faptul că va trebui să meargă și pe linux restrânge și mai mult opțiunile.
 
Eu tocmai mă pregăteam să mai bag vreo 2TB la ei, dar se pare că nu mai e cazul. Cel mai trist pentru mine e că nu vor mai merge nici backup-urile peer to peer, care erau mai importante pentru mine decât cloud-ul lor. Tool-uri pentru offsite backup care să meargă în stilul crashplan nu prea sunt.
 
Cand te mananca, te scarpini.

Ma tot gandesc cum sa fac NAS-ul cat mai eficient si ultima idee era sa il elimin ca platforma fizica si sa il rulez ca masina virtuala pe desktopul meu pe care oricum mai am si alte masini virtuale, asa ca una in plus nu ar fi o problema. Economic ar fi tot computerul respectiv minus discuri, ca alea doar se muta. Asa ca m-am apucat sa testez ideea.

Prima data am facut un volum nou ZFS de test. Mirror cu 2 discuri vechi, 500 GB si 320GB puse intr-un docking station dual USB3 atasat la NAS-ul existent (FreeNAS 11). Am scris si cateva zeci de GB, ca sa am ce testa, cu 114 MB/sec pana se umplea memoria din NAS si apoi cu 67-70MB sustinut la infinit. Grozav.

Pe desktop am activat a doua placa de retea (Realtek-ul onboard) si am alocat-o masinii virtuale cu FreeNAS. Am cuplat docking station la desktop si am alocat cele 2 discuri masinii virtuale (cu extra steps in linia de comanda). Am instalat un FreeNAS nou in masina virtuala si am pornit-o, apoi am incercat sa intru in consola de administrare prin browser: esec total. Din diverse motive orice apel catre placa de retea cu masina virtuala se trimitea catre cealalta placa de retea. Dupa lupte seculare, a mers (nu sunt 100% sigur de ce, setarile le facusem corect de la bun inceput). Am gasit volumul facut pe NAS-ul fizic si l-am importat, am setat SMB si totul merge uns.

OK, nu chiar uns: performanta e dezamagitoare: daca la scriere aveam 70MB/sec sustinut, acum atat la scriere cat si la citire am 50MB/sec si ocupare a procesorului excesiva, intre 60 si 90%. In Task Manager Windows raporteaza o incarcare de ~ 90% la cele 2 discuri. O sa incerc si cu ele cuplate pe SATA, nu ma astept la minuni.

Si toate astea pentru ca nu exista driver ZFS pentru Windows.

LE: cu ceva bibilit prin setari in VirtualBox si FreeNAS am ajuns la o ocupare a procesorului gazda de 55-60% si un transfer de ~ 50-70MB/sec. Mai bine, dar mai e mult pana departe.

LLE: si 80MB/sec de pe un alt calculator din retea.

Partea mai putin fericita e ca power management la discuri nu functioneaza.
 
Eu tot aș da 30 de lei pe lună pentru performanța aia în plus :frown:. Dock pe USB nu sună prea reliable, dar presupun că nu asta va fi soluția finală.
 
Dock pe USB era doar pentru ca in NAS-ul real am 6 porturi SATA si 5 discuri, asa ca nu puteam pune astea doua pentru teste, iar in desktopul meu mai am libere 3 porturi SATA dar imi era lene sa mai opresc calculatorul si sa le montez intern. Oricum fiind facute in aceleasi conditii testele sunt relevante: nu USB-ul e limitarea.

Performanta nu e critica, NAS-ul il folosim maxim 3 oameni si de obicei doar unul: eu. Din cauza asta il opresc cu zilele, dar are un ciclu de boot extrem de lung, peste 2 minute, si la fel la shutdown. Ocupa si spatiu prin birou, un port in switch (care altfel nu ar exista), mai face si un pic de zgomot, inca niste cabluri, platforma e un pic cam veche (AMD A10-5300, parca), e doar o placere minora si inca suportabila. As fi vrut sa consolidez toata treaba ca sa mai simplific lucrurile, iar performanta nu e insuficienta ci doar surprinzatoare - chiar nu ma asteptam sa mearga atat de prost si nu vad nici un motiv care sa justifice (lipsa de) performanta.
 
Eu n-am folosit ZFS pana acum. E adevarat ce zice aici, ca nu se poate creste capacitatea decat cu cate minim 3 discuri odata (adica 2 storage si 1 paritate)? Atunci de ce sa mai folosesti ZFS si nu RAID-ul 5 clasic din BIOS/controller?

PS: Ai postat in timp ce scriam.

Mai am o nelamurire:
NAS-ul n-are suspend to ram?
 
Ce zice acolo e altceva decat ai inteles tu, dar e adevarat (ce scrie). Intrebarea e buna, dar similara cu "daca am un camion de 20 de tone de ce mi-as lua masina care are maxim 800kg masa utila?". ZFS e util si chiar necesar in unele scenarii, e inutil in altele, nu e solutia universala pentru nimic si nu pretinde ca este. Are avantaje si dezavantaje fata de RAID clasic, dezavantajele mai ales pentru ca dezvoltarea e extrem de incetinita de cand si-a bagat dracu' coada (Oracle).
 
Back
Top