Som Plus-medlem får du: Tillgång till våra Plus-artiklar | Egen blogg och Portfolio | Fri uppladdning av dina bilder | Rabatt på kameraförsäkring och fotoresor | 20% rabatt på Leofoto-stativ och tillbehör | Köp till Sveriges mest lästa fototidning Fotosidan Magasin till extra bra pris.

Plusmedlemskap kostar 349 kr per år

Annons

Kan man defragmentera hårddisken för ofta?

Produkter
(logga in för att koppla)
Brejdol skrev:
En hårddisk är gjord för att snurra på... Så länge den inte blir för varm eller rörs fysiskt (stötar) så ska den faktiskt klara att vara på dygnet runt. De flesta nya diskar idag har en MTBF (meantime before failure) på nästan 1 000 000 timmar! Det är 114 år...


Beräknad MTBF gäller enbart under produktlivslängden.
Om hårddisken beräknas hålla 5 år (givet av tillverkaren) betyder det att den måste bytas ut var 5:e år om angiven MTBF ska var giltig.

Eller utryckt på annat sätt: Om hårddisken byts ut var 5:e år kan man förvänta sig ( om man har tur) 1 000 000 driftstimmar innan fel uppstår.

Om hårddisken används efter sin beräknade livslängd, är risken för fel betydligt högre och ökar i takt med åldern.
 
ASK skrev:
Beräknad MTBF gäller enbart under produktlivslängden.
Om hårddisken beräknas hålla 5 år (givet av tillverkaren) betyder det att den måste bytas ut var 5:e år om angiven MTBF ska var giltig.

Eller utryckt på annat sätt: Om hårddisken byts ut var 5:e år kan man förvänta sig ( om man har tur) 1 000 000 driftstimmar innan fel uppstår.

Om hårddisken används efter sin beräknade livslängd, är risken för fel betydligt högre och ökar i takt med åldern.

Tillverkarna har börjat minska garantitiden från 3 till 2 och nu 1 år.

MTBF brukar dock vara 5 år.

Jag haft 10-12 hårddiskar i drift i olika datorer de sista åren. En eller två har smällt per år (utom i år då TRE smällt, en efter bara 30 dagar och en laptopdisk) trots att jag tagit en del ur drift pga uppgradering. Den äldsta i drift är från 1998-1999.

Jag defragmenterar väldigt sällan (1 gång per år) och jag blir besviken varje gång; storleksvinsten är minimal, oftast 0% och prestandaökningen har uteblivit helt enligt testprogram.

Att defragmentera innebär ju att i princip hela disken läses ut och skriv tillbaka på annat ställe ofta flera gånger. Givetvis sliter detta mycket hårdare på disken än vanlig användning. Dessutom blir disken mycket varm av kontinuerlig använding. Hårddiskar gillar inte höga temperaturer.

Om man absolut ska defragmentera: Något som jag dock har märkt är bra för defragmentering är att helt enkelt kopiera en hel hårddisk till en annan. Det går mycket snabbare.
 
Senast ändrad:
Kanske lite OT

Utan att ha läst alla inlägg;
Jag ser ingen risk med att defragga för ofta. Diskslitage behöver du inte bry dig om. Jag gör det a l d r i g. Har aldrig märkt skillnad i snabbhet för detta vare sig under FAT eller NTFS.

Om du upplever att du har långsam diskaccess så köp en snabbare hårddisk(hdd) samt ett PCI IDE kort som möjliggör dagens hastigheter. Idag för privat användning är det väl SATA som är det snabbaste med teorestiska 150MB/s och 7200rpm (pris/prestanda).
Har man dessutom för lite RAM minne i kombination med långsam hdd så blir det riktigt ordenligt segt eftersom operativsystemet hamnar att skriva till swap fil på hdd:n extra mycket.

Det gör stor skillnad på en dator som har långsam hdd. Jag har en gammal dator för FTP/Terminal Services och det blev ett ordentligt lyft i snabbhet efter att ha satt in ett PCI kort som gör att jag kunde använda ATA133 (par år sedan).
 
Defragmentering är normalt sett inte nödvändigt på ett modernt filsystem, och det har mest urartat till något folk gör av rent religiösa skäl. Det enda idag använda filsystem som det finns någon vinning i att defragmentera är FAT32, eftersom det får klart undermåliga prestanda vid hög fragmentering.

Folk får gärna för sig att det "optimala" är att alla data i filsystemet är hoptryckt i ett kontinuerligt block i skivans utkanter. Det är delvis sant, men ändå ett märkligt resonemang. Man får kortvariga prestandavinster, men eftersom filerna berövas all tillväxtmån kommer varje skrivoperation där en fil ökar i storlek att leda till fragmentering. Det leder inom en inte alltför lång tid till sämre prestanda än man hade innan, så om man inte har extrema krav på filsystemprestanda i kombination med en riktigt slö disk (t.ex. en 5400-varvare med mycket liten cache) och är beredd på att lägga orimligt mycket tid på att köra defragmenteringsprogram, är regelbunden defragmentering normalt sett inte att rekommendera. Däremot är det inte särskilt farligt, bara en poänglös och tidskrävande tvångshandling.

Tvärtom är den optimala strukturen för normal användning att filerna ligger var för sig i kontinuerliga block, jämnt spridda över diskytan med lite ledigt utrymme sinsemellan. Det ger obetydligt sämre prestanda än den hopkomprimerade struktur man har precis efter en defragmentering, men till skillnad från det sistnämnda hålls prestanda på en bra nivå över en lång tid. Moderna filsystemimplementationer ser faktiskt själva till att strukturera diskanvändningen på just det sättet; exempelvis är defragmentering i det närmaste meningslöst i OS X 10.2 och senare eftersom filsystemet är självoptimerande. Enda haken är att det förutsätter att man har en viss mängd ledigt utrymme för att ge optimala prestanda.
 
samuel_k skrev:
Defragmentering är normalt sett inte nödvändigt på ett modernt filsystem, ...
Däremot är det inte särskilt farligt, bara en poänglös och tidskrävande tvångshandling.
...
Yepp, precis som att hänga här på FS i tid och otid;-)
 
Och vidare...

Det finns ju massor av olika sätt hårddisken kan defragmenteras på också. Om man använder alla program man har installerade ingefär lika mycket fungerar det bra med att defragmentera efter filstrukturen. Dvs den går igenom och placerar om alla filer i bokstavsorning och mappstruktur i bokstavsordning. Problemet med detta är att om en ny fil läggs till högt upp i hierarkin så måste allt under flyttas "frammåt". Detta förutsätter att man har en speciel partition för program annars blir det ingen effektiv lösning.

Jag brukar köra på defragmentering efter disc access. Då läggs alla filer som jag använder oftast inom samma område. Då jag bara har program på programpartitionen läggs exempelvis photoshop och firefox intill varandra så slipper läsarmerna röra sig så mycket.

De mest avancerade programmen vet vart på diskskivorna som det är optimalast att ha det mest använda datat. Det är oftast i mitten av skivorna då läsarmen bara behöver förflytta sig max ett halvt steg om man vill ha access till en inte lika använd fil.

Det program jag är mest nöjd med heter O&O Defrag. Det har även en inställning som gör att datat kontrolleras när processorn och hårddisken är obelastad enviss tid. Då tar det för programmet några sekunder att åtgärda normalt användande. Man slipper alltså köra det manuellt om man inte vill.

Finns säkert fler bra lösningar men det bästa är ändå att se till att data som man har stor omsättning på ligger på en egen disk. Då kommer operativsystemet alltid kännas piggt.
 
ANNONS
Upp till 6000:- Cashback på Sony-prylar