Som Plus-medlem får du: Tillgång till våra Plus-artiklar | Egen blogg och Portfolio | Fri uppladdning av dina bilder | Rabatt på kameraförsäkring och fotoresor | 20% rabatt på Leofoto-stativ och tillbehör | Köp till Sveriges mest lästa fototidning Fotosidan Magasin till extra bra pris.

Plusmedlemskap kostar 349 kr per år

Annons

Avslöjad med brallorna nere

Produkter
(logga in för att koppla)
NAS (där två diskar speglar varandra) och en molntjänst. Skiter det sig med NASen har du kvar filerna i molnet.

Såvida det inte blir knas med syncen eller NASen råkar ut för ransomware så att filerna i molnet också blir rappakalja eller vice versa.

Spegligen hjälper ju egentligen bara redundansen så att du inte får något avbrott vid mindre problem såsom diskhaveri. Vid t ex elfel, översvämning, brand eller dylikt hjälper det föga (har iofs fortfarande inte sett flera diskar grillade i samma maskin pga elfel men risken finns ju).

Lägg till en USB-HDD på annan fysisk adress, givetvis avstängd. Eller ännu hellre två.
 
En NAS är svaret!
Själv har jag en Synology (som jag starkt rekommenderar) med 5 diskar i. Har stått och snurrat i bortåt 10 år nu. Under den perioden har jag bytt 2 hårddiskar i den.

Det är inte helt enkelt att alltid ha en säker backup
Det där med att ha en backup på annan ort är smart om man har en dataförbindelse till backupen. Annars kommer den aldrig att innehålla det senaste.

Själv har jag en backup i ett brandsäkert skåp i andra änden av huset. Den backupen lider av att inte bli uppdaterad så ofta som vore önskvärt.

Molnet är ju enkelt, men hur säkert är det?

Det är en intressant fråga!

Det jag skulle vilja se är några bra tester på är olika molntjänsters prestanda. Det ingår ju sånt ofta nu och senast med mitt backupprogram men jag har hittills avstått p.g.a. den dåliga prestandan. Det tog lång tid att ladda upp mina testfiler och jag tror inte jag vill enbart vara hänvisad till en restore från molnet om jag inte var råsäker på hur lång tid en sådan skulle ta och om det går att lita på överhuvudtaget. Andra har förhoppningsvis mer positiva erfarenheter. Molnerbjudandet var ju inte gratis direkt heller utan ett evighetsprenumerationserbjudande som verkar bli allt vanligare nu som affärsmodell.
 
Pinsamt, men jag får skylla på min amatörmässiga erfarenhet. Köpte i vintras en extern hårddisk, en LaCie med serienummer NL6ED7QN. Nu kan jag inte nå den från min MacBook Air. När jag kopplar in den i USB-porten så ger den bara ifrån sig en kort ton varannan sekund.
1. Finns någon idé därute hur jag ska rädda mina nedladdade foton?
2. Hur ska jag bäst spara mina foton framöver?

Tacksam för varje tips!! / Börje
Hade samma problem två gånger med symtom du beskriver - ett kort ljud varannan sekund. Båda gångerna var det USB sladden som var orsaken.
 
Såvida det inte blir knas med syncen eller NASen råkar ut för ransomware så att filerna i molnet också blir rappakalja eller vice versa.
Alla backuper som gjordes innan en ransomwareattack går fortfarande att läsa. Ett backupsystem ska göra inkrementella backuper och inte skriva över gamla.
 
Vill du berätta lite mer om vad NAS är och hur du löpande hanterar din lagring?



Den korta beskrivningen. Ditt egna moln hemma. Med två hårddiskar (helst) som speglar varandra. Kraschar den ena finns allt kvar på den andra.

Du kommer åt ditt NAS från alla enheter. Dator, telefon osv

Man kan använda den till massa annat om man vill. T ex mailserver eller strömma sin media. Oändligt med möjligheter.

Beror på vad du vill ha och behöver. Man kan bygga egen. Men om man bara är en glad amatör räcker t ex en NAS från Synology som är det största märket/tillverkaren. Man köper diskar själv och sätter i.
 
Alla backuper som gjordes innan en ransomwareattack går fortfarande att läsa. Ett backupsystem ska göra inkrementella backuper och inte skriva över gamla.

Då vill det ju till att det inte är molntjänstleverantören som drabbats och sedan syncas till dig :cool: Långsökt men inte omöjligt.

"Moln" är alltid "någon annans dator". Minst en version av backupen ska vara offsite och offline (dvs avstängd och frånskild galvaniskt - både nät och kraft).
 
Då vill det ju till att det inte är molntjänstleverantören som drabbats och sedan syncas till dig :cool: Långsökt men inte omöjligt.
Backuper synkas inte. Att göra backup på filer innebär att man kopierar från sin primära lagring till en backuplagring. Inte tvärtom.
Det enda tillfället då man läser från en backup till sin primära lagring är vid återställning.

Man kan återställa enskilda filer (det enda jag har behövt göra, och det pga egen klantighet som raderade fel fil) eller ett helt filsystem, och allt däremellan. Man kan återställa till en temporär disk om man vill gardera sig för fel i backupen.
"Moln" är alltid "någon annans dator". Minst en version av backupen ska vara offsite och offline (dvs avstängd och frånskild galvaniskt - både nät och kraft).
Jag tycker inte att det är helt nödvändigt, men det gör förstås backupen lite säkrare. Det blir dock bökigare att göra regelbundna backuper då.
 
Backuper synkas inte. Att göra backup på filer innebär att man kopierar från sin primära lagring till en backuplagring. Inte tvärtom.
Det enda tillfället då man läser från en backup till sin primära lagring är vid återställning.

Man kan återställa enskilda filer (det enda jag har behövt göra, och det pga egen klantighet som raderade fel fil) eller ett helt filsystem, och allt däremellan. Man kan återställa till en temporär disk om man vill gardera sig för fel i backupen.

Jag tycker inte att det är helt nödvändigt, men det gör förstås backupen lite säkrare. Det blir dock bökigare att göra regelbundna backuper då.

Backup per definition innebär väl bara att du har given data i flera olika exemplar? Om man sedan väljer att ha versionshantering eller inte har väl inte med begreppet som sådant att göra?

Så, hur många versioner måste du spara? Alla? Om du upptäcker att något är raderat "för sent" så är du ju körd ifall du inte sparar förevigt.

Jag syncar från datorn till NAS, offsite-offline och en extern HDD där jag måste bekräfta ändringar (jag vet ju vad jag ändrat och inte, sällan jag raderar något som redan är backat). Alla är aldrig inkopplade eller igång samtidigt. Jag är medveten om nackdelarna som finns med denna metod men är å andra sidan heller inte beroende av någon särskild programvara för att återställa.

Slutligen gäller ju att man testar sina backuper så att det faktiskt går att återställa.
 
Backup per definition innebär väl bara att du har given data i flera olika exemplar? Om man sedan väljer att ha versionshantering eller inte har väl inte med begreppet som sådant att göra?

Så, hur många versioner måste du spara? Alla? Om du upptäcker att något är raderat "för sent" så är du ju körd ifall du inte sparar förevigt.
Filer som redan har backupats påverkas inte av skadade, eller raderade, filer vid en senare backup.
Med inkrementella backuper gör man nya backuper av ändrade filer hela tiden tills backuplagringen är full. Då brukar man ta bort de äldsta backuperna för att skapa utrymme för nya backuper. Man behöver aldrig ha flera kopior av samma fil i en backup.
Jag syncar från datorn till NAS, offsite-offline och en extern HDD där jag måste bekräfta ändringar (jag vet ju vad jag ändrat och inte, sällan jag raderar något som redan är backat). Alla är aldrig inkopplade eller igång samtidigt. Jag är medveten om nackdelarna som finns med denna metod men är å andra sidan heller inte beroende av någon särskild programvara för att återställa.
Med synkronisering har man inte en chans att undvika att skadade filer replikeras i backupen. Undvik det!
Slutligen gäller ju att man testar sina backuper så att det faktiskt går att återställa.
Ja, det ingår i god datahantering att testa backuperna med jämna mellanrum.
 
Filer som redan har backupats påverkas inte av skadade, eller raderade, filer vid en senare backup.
Med inkrementella backuper gör man nya backuper av ändrade filer hela tiden tills backuplagringen är full. Då brukar man ta bort de äldsta backuperna för att skapa utrymme för nya backuper. Man behöver aldrig ha flera kopior av samma fil i en backup.

Med synkronisering har man inte en chans att undvika att skadade filer replikeras i backupen. Undvik det!

Ja, det ingår i god datahantering att testa backuperna med jämna mellanrum.

Alltså sparar du alla backuper och har ingen retention policy. Har du en retention på t ex 1 år så kommer du inte att ha kvar en fil som raderades för 2 år sedan. Det hänger ju då på att du upptäcker att den saknas inom retention-perioden. Alltså krävs det att du sparar flera fullbackuper - annars är du beroende av att en hel kedja filer är intakta (fullbackup+inkrementella). Då tappar jag hellre några filer pga t ex bitröta än att sumpa allt.

Jodå, eftersom jag måste bekräfta alla förändringar som syncen upptäcker (på filnivå).
 
Alltså sparar du alla backuper och har ingen retention policy. Har du en retention på t ex 1 år så kommer du inte att ha kvar en fil som raderades för 2 år sedan. Det hänger ju då på att du upptäcker att den saknas inom retention-perioden. Alltså krävs det att du sparar flera fullbackuper - annars är du beroende av att en hel kedja filer är intakta (fullbackup+inkrementella). Då tappar jag hellre några filer pga t ex bitröta än att sumpa allt.
Retention policy behövs inte. Man sparar alla inkrementella backuper tills backuplagringen är full. Då antingen växlar man till en ny backuplagring eller raderar den äldsta backupen.

Det går utmärkt att ha en kedja av inkrementella backuper. Med hårda länkar till kataloger på föregående backup ser varje inkrementell backup ut som en fullbackup. Det spar väldigt mycket plats på backuplaringsmediat jämfört med att ha en serie av fulbackuper. Det spar mycket tid för varje backupkörning också.

Om filsystemet inte kan göra hårda länkar till kataloger så blir det lite mindre smidigt, men det går ändå att göra ett fungerande backupsystem.
Jodå, eftersom jag måste bekräfta alla förändringar som syncen upptäcker (på filnivå).
Det kan bli en jädrans massa bekräftelser om många filer har ändrats.

Att synkronisera två lagringsmedia är inte samma sak som att göra backup. Backup är envägs, av uppenbara skäl.
 
Senast ändrad:
Retention policy behövs inte. Man sparar alla inkrementella backuper tills backuplagringen är full. Då antingen växlar man till en ny backuplagring eller raderar den äldsta backupen.

Det går utmärkt att ha en kedja av inkrementella backuper. Med hårda länkar till kataloger på föregående backup ser varje inkrementell backup ut som en fullbackup. Det spar väldigt mycket plats på backuplaringsmediat jämfört med att ha en serie av fulbackuper. Det spar mycket tid för varje backupkörning också.

Om filsystemet inte kan göra hårda länkar till kataloger så blir det lite mindre smidigt, men det går ändå att göra ett fungerande backupsystem.

Det kan bli en jädrans massa bekräftelser om många filer har ändrats.

Att synkronisera två lagringsmedia är inte samma sak som att göra backup. Backup är envägs, av uppenbara skäl.

Du behöver inte förklara för mig vad en inkrementell backup är för något :) Du är beroende av att hela kedjan är okej - det är inte jag eftersom jag har "glada frigående filer" som kan läsas av vilket OS som helst som kan montera filsystemet.

Som jag sa så raderar jag ytterst sällan något som hunnit backupas, jag rensar innan jag tar backupen istället (då ligger filerna fortfarande kvar på minneskorten ifall jag skulle råka ta bort för mycket). Därför blir det inte särskilt mycket att bekräfta och det tar inte särskilt lång tid.

Säger vem? :) Backup per definition är att ha flera exemplar och har inget med hur lång retention man har - isf hade din icke-oändliga backupkedja inte heller räknats som backup.
 
Du behöver inte förklara för mig vad en inkrementell backup är för något :) Du är beroende av att hela kedjan är okej - det är inte jag eftersom jag har "glada frigående filer" som kan läsas av vilket OS som helst som kan montera filsystemet.
Om inte "hela kedjan" är OK, så är det något fel på backuprutinerna.
Min backupdisk monteras som vilken disk som helst och själva backuperna kan man läsa med vanliga filsystemsverktyg (ls, cp, t.ex.).
Varje mapp i backupmappen representerar en tid, en "snapshot" av hur den primära disken såg ut när backup gjordes vid den tiden. Eftersom det går att göra hårda länkar till mappar i det filsystem jag använder, så behöver man inte spara alla filer flera gånger, men det ser ut som om man har gjort det när man bläddrar bland backuperna. Den här metoden spar utrymme, men framförallt tid eftersom de inkrementella backuperna går fortare än fullbackuper. I backupsystemet ser de ut som fullbackuper.
Som jag sa så raderar jag ytterst sällan något som hunnit backupas, jag rensar innan jag tar backupen istället (då ligger filerna fortfarande kvar på minneskorten ifall jag skulle råka ta bort för mycket). Därför blir det inte särskilt mycket att bekräfta och det tar inte särskilt lång tid.
Svårt att automatisera. Mitt backupsystem att gör backup en gång i timmen. Ingen handpåläggning behövs.
Om vad?
Backup per definition är att ha flera exemplar och har inget med hur lång retention man har - isf hade din icke-oändliga backupkedja inte heller räknats som backup.
Haka inte upp dig på retention. Det är oviktigt i det här sammanhanget. Synkronisering är inte backup, och om "synkroniseringen" är envägs så är den inte synkronisering.
 
Om inte "hela kedjan" är OK, så är det något fel på backuprutinerna.
Min backupdisk monteras som vilken disk som helst och själva backuperna kan man läsa med vanliga filsystemsverktyg (ls, cp, t.ex.).
Varje mapp i backupmappen representerar en tid, en "snapshot" av hur den primära disken såg ut när backup gjordes vid den tiden. Eftersom det går att göra hårda länkar till mappar i det filsystem jag använder, så behöver man inte spara alla filer flera gånger, men det ser ut som om man har gjort det när man bläddrar bland backuperna. Den här metoden spar utrymme, men framförallt tid eftersom de inkrementella backuperna går fortare än fullbackuper. I backupsystemet ser de ut som fullbackuper.

Svårt att automatisera. Mitt backupsystem att gör backup en gång i timmen. Ingen handpåläggning behövs.

Om vad?

Haka inte upp dig på retention. Det är oviktigt i det här sammanhanget. Synkronisering är inte backup, och om "synkroniseringen" är envägs så är den inte synkronisering.

Det behöver ju inte vara backuprutinerna det är fel på, kan lika gärna vara filsystemet eller lagringsmediat.

Du har alltså en fullbackup, och sedan en ziljard snapshots där varje snapshot enbart är beroende av fullbackupen+det egna snapshotet - inte de tidigare i kedjan. Är det rätt uppfattat?

Din definition av "backup" förutsätter oändlig retention. Därför spelar det roll eftersom definitionen haltar annars. Återigen - "backup" betyder att man har datat i flera exemplar. Hur man åstadkommer det har inte med den saken att göra.
 
Det behöver ju inte vara backuprutinerna det är fel på, kan lika gärna vara filsystemet eller lagringsmediat.
Då har man använt fel media eller fel filsystem.
Du har alltså en fullbackup, och sedan en ziljard snapshots där varje snapshot enbart är beroende av fullbackupen+det egna snapshotet - inte de tidigare i kedjan. Är det rätt uppfattat?
Nästan. Varje inkrementell backup är "beroende" av alla tidigare backuper. Glöm dock alla tankar på skillnaden mellan fullbackup och inkrementell backup.

När jag började använda backupsystem tidigt 1980-tal så skiljde man på fullbackuper och inkrementella backuper. Efter ett antal inkrementella backuper så gjorde man en ny fullbackup. Anledningen var att ju fler inkrementella backuper man hade desto fler backupband behövde man söka igenom för att leta rätt på en viss fil som skulle återställas.

Med det backupsystem jag använder nu så är det ett icke-problem eftersom alla backuper ser ut som fullbackuper, fastän de är inkrementella. Nyckeln är hårda länkar till mappar.
Din definition av "backup" förutsätter oändlig retention. Därför spelar det roll eftersom definitionen haltar annars. Återigen - "backup" betyder att man har datat i flera exemplar. Hur man åstadkommer det har inte med den saken att göra.
Nej, det förutsätter inte "oändlig retention", men tillräcklig. Gå tillbaka några steg i kommentarskedjan och läs min beskrivning av hur det fungerar.

Hur man gör backupen spelar roll. Ju mer handpåläggning som krävs desto större risk för tråkiga fel som påverkar backupens kvalitet.
 
Då har man använt fel media eller fel filsystem.

Nästan. Varje inkrementell backup är "beroende" av alla tidigare backuper. Glöm dock alla tankar på skillnaden mellan fullbackup och inkrementell backup.

När jag började använda backupsystem tidigt 1980-tal så skiljde man på fullbackuper och inkrementella backuper. Efter ett antal inkrementella backuper så gjorde man en ny fullbackup. Anledningen var att ju fler inkrementella backuper man hade desto fler backupband behövde man söka igenom för att leta rätt på en viss fil som skulle återställas.

Med det backupsystem jag använder nu så är det ett icke-problem eftersom alla backuper ser ut som fullbackuper, fastän de är inkrementella. Nyckeln är hårda länkar till mappar.

Nej, det förutsätter inte "oändlig retention", men tillräcklig. Gå tillbaka några steg i kommentarskedjan och läs min beskrivning av hur det fungerar.

Hur man gör backupen spelar roll. Ju mer handpåläggning som krävs desto större risk för tråkiga fel som påverkar backupens kvalitet.

Alltså kan ett fel på ett ställe på lagringsmediat/filsystemet/ett snapshot stjälpa hela din backupkedja. Ju längre kedjan blir, desto större risk för att det ska inträffa.

Du skrev ju att synkronisering inte kunde vara backup. Backup är att ha datan i flera exemplar och har inte att göra med metoden man framställer dessa exemplar med.
 
Nästan. Varje inkrementell backup är "beroende" av alla tidigare backuper. Glöm dock alla tankar på skillnaden mellan fullbackup och inkrementell backup.

Om du, som du påstår, nyttjar hårda länkar så är ju en backup inte alls beroende av någon/några föregångare. "Beroendet" finns ju bra där när en nya backup tillverkas. Så snart den hårda länken är skapad så är ju backupen självförsörjande.
 
ANNONS
Upp till 6000:- Cashback på Sony-prylar