- Joined
- Aug 1, 2004
- Messages
- 8,518
Întotdeauna există un downside. De obicei deduplicarea are nevoie de multă memorie (ca să poată identifica blocurile duble trebuie să aibă idee care-s blocurile pe care le are deja scrise, așa că trebuie să țină un index, și trebuie să încapă în memorie ca să ai performanță cât de cât); dar problema mai complicată e că transformă ceea ce putea fi I/O secvențial (pentru că fișierul ar fi fost scris cât de cât la rând) în I/O random (pentru că blocurile deduplicate sunt în alte zone de disc), iar pe HDD-uri asta e foarte trist, pentru că înseamnă throughput scăzut de zeci de ori fără un controller deștept sau un SSD pentru caching.