Annons

Kan man defragmentera hårddisken för ofta?

Produkter
(logga in för att koppla)
Tomasz skrev:
Alla ni som oroar er över mekaniskt slitage i datorn: Det går säkert 100 tangentbord på en hårddisk, om man räknar enbart mekaniskt slitage. Ni har säkert bytt dator oräkneligt antal gånger innan det börjar "glappa i lagren" på den första.
Att diskar pajar beror så gott som alltid på fel i elektroniken.

Men visst kan man defragmentera för ofta. Det stjäl prestanda medan man gör det, och om man defragmenterar från morgon till kväll så känns disken slö medan man jobbar...

Håller med. Att diskar går sönder beror ofta på tillverkningsfel. Ofta byter man ju disk oftare nu än förr också, eftersom det blir billigare o billigare per MB.
Ingen som använder Ghost, Zenworks eller något annat image program för snabb återställning av disk?
Själv använder jag det säkert 1 ggn i månaden eftersom jag delar dator med min dotter och hon gärna slänger bort saker. Vips....på 15 minuter läser jA tillbaka hela Windows XP, Office samt alla program/inställningar, färdig defragmenterat o allt.
 
Senast ändrad:
Ghost är suveränt. Jag har liknande problem som du, och löser dem med Ghost. Ingen rädsla för att installera saker på prov heller, återställning är garanterad och hyfsat snabb.
 
Det finns de som fått disken sabbad bland annat pågrund av konstant defragmenterande. Ni verkar tro att hårddiskar är hållbara saker, om man sköter dem ja, defragmentera varje dag är inte att sköta dem :)
Vid normalt datoranvändande räcker en defragmentering i månaden, det finns ingen vinst utöver det mer än möjligtvis placebo.
 
Jag tror inte ni ser hela helheten. Vissa påvisar elektroniken som första fel, problemen är mycket större än så, det mekaniska kommer alltid först, vare sig man vill det eller inte. Hårddiskar är uppbyggda för att klara en hög tolerans när det gäller datafel, därav sparar egentligen hårddiskar mer data än man själv kan utnyttja, och då talar jag inte om diverse filallokeringstabeller och indexering; utan om rena felkorrigeringsdata.
Man kan tydligt se att en väl använd hårddisk presterar sämre iom ett högre procentuellt fel av datan.
Detta beror så klart på läsarmarnas mekanik och rörelse, stegmotorns förslitning och lagrens försämring. Man märker även på äldre diskar att de kalibrerar sig själv oftare än nyare (eftersom hårddiskar tror att felläsningarna den stöter på beror på termisk förändring i materialet).
Att defragmentera hårddiskar väldigt ofta och tok-läsa/skriva många filer till en hårddisk väldigt ofta är den primära orsaken till fel.
Uppstår dessa fel ofta skyddar hårddisken sig själv mot skador genom att helt enkelt inte starta upp, eller i vissa fall genom att inte läsa/skriva till den då den ändå snurrar. Dessa kallar gemene man för "elfel" och man tror att hårddisken havererat. Det är därför man (alltid) kan rädda data från en "havererad" hårddisk.
Skulle man köra på i rödljus skulle man inte kunna detta pga större mekaniskt fel.

Döm själva. Öka livslängden eller öka prestandan - man får alltid välja något dåligt för att få något bra.

(Och att en hårddisk läser/skriver snabbare till icke-fragmenterade hårddiskar har att göra med att läshuvudet inte behöver röra sig till andra delar av dataskivan för att läsa sin information, datan ligger seriellt lagrad. Detta kallas söktid och har mindre med hårddiskens rotationshastighet att göra.

Till de som sliter 100 tangentbord på en hårddisk: Köp Logitech..
Till de som sliter 100 hårddiskar på ett tangentbord: Köp inte IBM Deskstar..
 
Senast ändrad:
av alla diskar jag har haft som har krashat har det in 9 fall av 10 varit mekaniken som gett upp. Skurna lager (för taskig kylning), läsararmar som gett upp, motor som gett upp, m.m. Min erfarenhet säger mig att elektroniken är det sista som går sönder, om man inte misshandlar den med stötar o.s.v.
 
mazatael skrev:
Det defragmenteringen gör är att den flyttar data närmare mitten på hårdisken samt att den packar den tätt. Mitten av hårddiskskivan (oftast är det flera skivor) är ungefär dubbelt så snabb som de yttersta delarna, vilket gör att en defragmentering efter att du raderat många stora filer kan snabba upp datorn avsevärt.

Nej.. Det är de yttre delarna av hårddiskens skiva som är de snabbaste ställena att läsa/skriva från. Man minskar även medelsöktiden där.

http://partition.radified.com/partitioning_2.htm
 
Hur skulle man hinna slita ut 100 tangentbord? Jag har haft samma i över 10 år, och använder det varje dag (Microsoft Natural Keyboard Pro), men även om jag köpte ett för 19:- så tror jag att det håller mer än ett år iaf. Sen när det gäller defrag, hoppas att ni som kör det ofta har UPS, inte kul om strömmen skulle gå när man gör det.
 
Sen när det gäller defrag, hoppas att ni som kör det ofta har UPS, inte kul om strömmen skulle gå när man gör det.
Jag trodde att data som flyttas, inte tas bort från sin gamla plats förrän det skrivits på det nya stället. På samma sätt som när du flyttar en fil till en annan disk. Har jag fel?
 
Nej, du har inte fel. Det är b.l.a. därför som det krävs ca 15 procent ledigt utrymme för att defragmentera.
 
Det beror på program och inställning skulle jag säga.

I t.ex. Norton Speeddisk kan man ställa in den funktionen, då läser hårddisken data, skriver den på annat ställe, läser från nya stället för att kolla att allt är på plats innan cyklen repeteras.
 
15% ... tss skräpprogram, riktiga defragmenteringsverktyg ska klara sig med betydligt mindre :)
 
Jag defraggar 1 gång i månaden efter att jag städat registret och rensat HD'n på skräpfiler.
 
mipert skrev:
Jag brukar köra defrag (windows inbyggda) nästan varje dag. Inte för att det behövs men det är så enkelt att göra medan jag pysslar med något annat en stund.

Finns det risker med det?

*Okunnig om datorer*

Det finns _ett_ kritiskt tillfälle varje gång en fil defragmenteras, så den filen, och/eller flera andra kan "försvinna" från hårddisken. Tillfället varar i storleksordningen 1ms per fil, och är då den filens nya position skall skrivas till disken. Om strömmen går just då, så är det troligen adjöss med den filen.

I övrigt är det säkert att defragmentera hur ofta som helst.

UNIX-baserade operativsystem (såsom MacOS X, Solaris, FreeBSD, Linux etc) defragmenterar inte alls, eller hela tiden (beroende på hur man ser det): Så fort datorn inte har något vettigt för sig, så defragmenteras hårddiskens senaste förändringar automatiskt.

På så sätt hålls prestandan konstant på maximum.

En näst-intill perfekt defragmenterad disk är lättare att defragmentera (& hålla defragmenterad) än en som inte defragmenterats på länge. Mängden arbete som krävs för att defragmentera ökar nämligen exponentiellt mot hur fragmenterad hårddisken är. En nästintill defragmenterad hårddisk kasnek har 2 filer som behöver defragmenteras, men en hårddisk som stått i 2 månader, kaske har 200.000 filer som måste defragmenteras.

Kan man, så rekommenderar jag därför att man defragmenterar så ofta som möljigt.

Program som Diskeeper kan se till så datorn är konstant defragmenterad genom att göra det som krävs varje gång exvis skärmsläckaren går in, vilket jag rekommenderar, och det motsvarar UNIXs automatiska defragmentering.
 
Istället för att defragmentera med jämna mellanrum så kan man ju låta diskdefragmenteraren analysera diskarna då och då. Då får man ju ett meddelande ifall den anser att man bör eller inte behöver defragmentera.
 
mipert skrev:
Jag brukar köra defrag (windows inbyggda) nästan varje dag. Inte för att det behövs men det är så enkelt att göra medan jag pysslar med något annat en stund.
Defragmentering var en bra sak på tidiga Windows-versioner. De hade ett enkelt sätt att sköta sina filer på och man kunde gå in och storstäda lite då och då.

Moderna operativsystem har betydlig mer avancerade filsystem och det är inte längre lika självklart att det är en bra sak att defragmentera sin hårddisk. Ofta är det så att om man defragmenterar sin hårddisk så kommer den att bli dålig väldigt snabbt igen. Helt enkelt därför att moderna filsystem är fragmenterade till sin natur och de fungerar således ''bäst'' när de är lite fragmenterade. När man då defragmenterar så gör du vissa vinster men du förstör den inbygda optimeringen. Disken kan inte längre sköta sig själv och du blir dömd till att ständigt defragmentera din dator. En del väljer att göra det ändå och det är helt OK med mig :)

Det finns ett betydligt enklare sätt att hålla sina dator städad; fyll inte diskarna till mer än 70-80%. Det är nämligen så att moderna datorer kan hålla hygglig ordning på filerna automagiskt om de bara har lite tomt utrymme kvar. Om du börjar att fylla diskarna så händer betydligt värre saker än att filerna blir fragmenterade. Det finns osynliga filer på disken som är stödfiler till operativsystemet och det är inte lika trivialt att defragmentera de filerna. Fyller du disken så blir de stödfilerna fragmenterade och då får du definitivt prestandaproblem.

Jag är lat och disk är billigt så jag väljer den enkla lösningen.
 
flutte skrev:
UNIX-baserade operativsystem (såsom MacOS X, Solaris, FreeBSD, Linux etc) defragmenterar inte alls, eller hela tiden (beroende på hur man ser det): Så fort datorn inte har något vettigt för sig, så defragmenteras hårddiskens senaste förändringar automatiskt.
Det svårt att säga något generellt om UNIX eftersom det är en stor värld. Du har rätt så tillvida att fragmenteringen sällan är ett problem i UNIX så länge du inte fyller diskarna men det beror snarare på designen av filsystemen. Samma sak gäller för modern Windows.

Det man måste förstå i sammanhanget är man idag journalför alla ändringar som görs i en fil. Det gör man för att filerna inte ska kunna bli korrupta; eller rättare sagt... om en fil blir korrupt så kan man gå tillbaka till den senaste fungerande versionen. Det vill säga att man har inte längre en kontinuerlig fil på disken utan en massa små ändringar som är spridda lite varstans. Det kostar i prestanda men man tycker att den ökade säkerheten är värd mer. När man väl har gjort det valet så har man sett till att göra det bästa av situationen. Man har insett att den ökade säkerheten fragmenterar filerna och således har man optimerat systemet med hänseende på det.
 
En hårddisk är gjord för att snurra på... Så länge den inte blir för varm eller rörs fysiskt (stötar) så ska den faktiskt klara att vara på dygnet runt. De flesta nya diskar idag har en MTBF (meantime before failure) på nästan 1 000 000 timmar! Det är 114 år...

Hamnar man i det läget att man inte vågar använda disken för att man är rädd att den går sönder tycker i alla fall jag att man är fel ute; man måste ju ändå ha backup på allt viktigt, i alla lägen.

Har man en disk som bara används för "slutlagring" av stora filer behöver den ju i princip inte defragmenteras. NTFS är faktiskt extremt när det gäller filfragmentering; Läs/skrivprestanda på C:, som alltid är den partition det läs- och skrivs mest på, går ner mycket snabbt om man inte håller den i trim. (Det finns tonvis av dokumentation av detta på nätet.)

NTFS flyttar aldrig på något; en fil tilldelas ett bestämt utrymme, om den växer och inte får plats i det tilldelade utrymmet sparar NTFS på första lediga plats, vilket snabbt förvandlar C: till ett lapptäcke av filer som läsarmen måste jazza runt för att hitta på.

Man kan hjälpa datorn lite på traven genom att välja cluster-storlek efter vad som ska finnas på disken. Regeln är att ju större filer disken ska hålla, ju större bör clusterstorleken vara. 4096 är bra för alla lagringspartitioner alltså.

Defragmenterar man ofta går det ju mycket snabbare. Gör man det en gång om året kan den få jobba i ett antal timmar... Det blir ju i princip samma arbete den utför! Att tro att man sparar disken genom att defragmenetera sällan verkar konstigt tycker jag.

Den defragmenterare som följer med windows är faktiskt en väldigt gammal version av Diskeeper, använd en nyare så går det mycket fortare.
 
Mycket tyckande och gissande i den här tråden.
Jag gissar i alla fall att Brejdol har helt rätt, ett av dom bästa inläggen i hela den här tråden.
 
Brejdol skrev:
Defragmenterar man ofta går det ju mycket snabbare.
Vad går snabbare? Det går snabbare att läsa en kontinuerlig fil men det tar längre tid att skriva till en NTFS-disk om den består av kontinuerliga filer; beroende på hur algoritmerna ser ut. Dessutom kommer de filerna som skrivs till en NTFS-disk med kontinuerliga filer att bli mer fragmenterade än nödvändigt. Det är därför som man är dömd till kontinuerlig defragmentering när du väl har börjat att göra det.

Precis som med fotograferingen så handlar filsystem mycket om avvägningar och det är upp till var och en att göra sina egna avvägningar. Så länge man inte fyller en NTFS-disk så fungerar den smärtfritt för normalt bruk utan att man behöver att vidta några speciella åtgärder. Dessutom är det så gott som omöjligt att helt defragmentera en disk som är fylld till mer än 88% (beroende på MFT-filens storlek).
 
ANNONS
Köp en spegellös systemkamera från Canon och få ett 50mm objektiv på köpet hos Götaplatsens Foto.