Annons

Smidig backuplösning sökes

Produkter
(logga in för att koppla)
Jag antar att detta med att ha sin backup hos pappa (eller någon annan) bygger på att båda parter har officiella IP-adresser och kan sätta upp portforwarding i eventuella brandväggar?

Eller funkar det även för den som får privat IP (10.x.x.x, 172.16-31.x.x, 192.168.x.x) av sin ISP? Kör man i såfall via nån server hos t.ex. Crashplan?

Du behöver ha en extern mappning. Men, oftast har du ju det, även om du inte ser det. CP-klienten reder ut de flesta NAT/PAT/uPNP-scenarion själv.
 
Nu börjar mina foton och filmer fylla upp mina diskar och söker nu efter en smidig backuplösning. Jag har nu ca 2 TB i film och fotomaterial.

1.
Jag vill ha externa hårddiskar som är smidiga att ta med sig när man är ute på fältet och som jag enkelt & smidigt kan göra backup på när jag kommer hem (Blir det krångligt blir det inte av)

2.
Gärna 2 externa hårddiskar på minst 1TB var

3.
Jag vill kunna ha mina orginalfiler och backup på olika stället i fall det skulle bli stulna eller börja brinna.

Finns det någon som har någon bra lösning?

Jag har anammat följande tänk:

http://thelightroomlab.com/2009/05/my-photo-storage-system-two-external-hard-drives/

Till det har jag en backup till Crashplan på alla bilder. Hängslen och livrem som inte kostar skjortan.
 
Du behöver ha en extern mappning. Men, oftast har du ju det, även om du inte ser det. CP-klienten reder ut de flesta NAT/PAT/uPNP-scenarion själv.

I mitt fall så får jag en privat adress av min ISP, d.v.s. jag är inte nåbar utifrån Internet eftersom jag NAT'as via min ISP (dessutom NAT'ar jag själv i min egen router förstås).
 
I mitt fall så får jag en privat adress av min ISP, d.v.s. jag är inte nåbar utifrån Internet eftersom jag NAT'as via min ISP (dessutom NAT'ar jag själv i min egen router förstås).

Då kan du inte agera _server_ för en CP-lösning, men att vaa _klient_ är inga problem.
 
Har nu testat Crashplan och det verkar hur bra som helst men jag har alldeles för dålig uppkoppling. Mitt bredband har 7-10 Mbit/s upp men kommer endast upp i 489 kbps? Datorn har nu stått i ett dygn och jag har fortfarande 3 månader kvar innan uppladdningen är klar och efter det har jag 2 TB till som jag skall ladda upp :(.

Det lutar åt att jag skaffar mig en NAS. Jag har redan backup på datorn så det är egentligen alla mina externa hårddiskar som jag vill göra backup på. Finns det någon butik i Göteborg som är kunniga på detta? Det är alltid lättare att prata med någon. Vet inte vad jag hade gjort om något skulle hända med mina bilder och filmer (Använder Mac)
 
Har nu testat Crashplan och det verkar hur bra som helst men jag har alldeles för dålig uppkoppling. Mitt bredband har 7-10 Mbit/s upp men kommer endast upp i 489 kbps? Datorn har nu stått i ett dygn och jag har fortfarande 3 månader kvar innan uppladdningen är klar och efter det har jag 2 TB till som jag skall ladda upp :(.

Det lutar åt att jag skaffar mig en NAS. Jag har redan backup på datorn så det är egentligen alla mina externa hårddiskar som jag vill göra backup på. Finns det någon butik i Göteborg som är kunniga på detta? Det är alltid lättare att prata med någon. Vet inte vad jag hade gjort om något skulle hända med mina bilder och filmer (Använder Mac)

Med lite tålamod och en del "skruvande" på inställningarna kan man få upp farten till i snitt 1000 kbps. Det tar fortfarande ett bra tag att ladda upp, men som nätlagringsalternativ tycker jag det funkar. Jag har laddat upp runt 400 GB och nu när det väl är gjort är det smidigt att bara fylla på.

Just nu har jag dock problem med tjänsten eftersom något är fel hos Crashplan. Det verkar dock enbart gälla mitt konto och de jobbar på det. Bortsett från detta strul tycker jag det funkat bra.
 
Jag kör Livedrive, obegränsat lagringsutrymme men låter som dyrare än Crashplan. Jag betalar typ 500:- per år. Sen kan man lägga till extra datorer, nätverksdiskar och annat men dom tar betalt för varje enhet. Direktanslutna USB diskar ingår dock så i teorin kan det ju bli ett par TB.

Jag har 250GB där, man får sikta på några veckor inledningsvis när man backar upp första gången för att vara realistisk med normalt bredband

Det finns app för iPhone (säkert till android också) där man tex kan titta på bilder eller streama musik om man nu håller på med sånt. Webinterface för att ladda ner enskilda filer eller directoryn osv.

Sen har dom en dyrare tjänst som kompletterar, den fungerar ungefär som dropbox fast i större skala.

Tycker det funkar bra, appen som laddar upp data håller sig lugn o tyst och kan pausas om man vill det av någon anledning.

Kanske värt kolla upp Livedrive iaf (?).
 
Jag har Telia ADSL 12-24 och om jag just nu mäter med bredbandskollen har jag uppströms 1,89 Mbit/s
Jag kör Livedrive och att ladda upp mina 488 GB tog ganska precis 2 månader.
 
Har nu testat Crashplan och det verkar hur bra som helst men jag har alldeles för dålig uppkoppling. Mitt bredband har 7-10 Mbit/s upp men kommer endast upp i 489 kbps? Datorn har nu stått i ett dygn och jag har fortfarande 3 månader kvar innan uppladdningen är klar och efter det har jag 2 TB till som jag skall ladda upp :(.
Om man bor i USA kan man göra den initiala backupen mot en egen disk som man kopplar till sin dator. Sen skickar man den disken till Crashplan som kopierar den till sin backupserver. Därefter går det ganska fort att göra varje ny inkrementell backup.

Om någon liknande tjänst dök upp som även vill ta emot diskar skickade från Sverige så vore den inte så dum.
 
Server 2008 R2

Hej.
Jag kör med Livedrive, och den initilala backupen tog ca en vecka (250GB), men det har fungerat väldigt bra de gånger jag har testat att återläsa filer.
Som extra livlina har jag en extern disk som jag kör en kopia till ungefär varje månad.
Det kan snabba på en total återläsning avsevärt om oturen är framme (stöld, brand....).
Den externa disken förvarar jag på jobbet.
För den dagliga säkerheten kör jag med Windows Server 2008 R2, som har så kallad delta-backup.
Nu har den backupen gått i 300 dagar, med en fullbackup varje dag, och den tar inte mer än ca 400GB i anspråk av diskytan.
Och då har jag återläsningsmöjlighet för varje enskild dag, mycket bra.
Detta är bara för min interna säkerhet, om jag råkar radera eller förstöra någon fil oavsiktligt.
Nu kör du MAC, och vill kanske inte blanda in en Windows server, men i annat fall så kan man faktiskt köpa en så kallad OEM-licens ganska billigt, och just denna backupfunktion är riktigt bra.
Jag lagrar alltså alla mina filer på Windows-servern, och sedan kör den sin backup till en extent ansluten USB-disk.
M.V.H
/Tobias
 
För den dagliga säkerheten kör jag med Windows Server 2008 R2, som har så kallad delta-backup.
Nu har den backupen gått i 300 dagar, med en fullbackup varje dag, och den tar inte mer än ca 400GB i anspråk av diskytan.

Dock, OM något skulle hända med den ursprungliga backupfilen så kan du inte återställa NÅGRA filer. Alltså bör man inte köra en diff-backup konstant, utan periodiskt köra en ny fullbackup.
 
Japp, det bör man tänka på, men samtidigt faller det fiffiga med en lång historik om man påbörjar en ny "master-fil", och jag har hittlis inte varit med om att filen blir oläsbar av okänd anledning.
Så jag håller inte med om att man bör skapa en ny "master-fil" periodiskt, för då faller hela tanken med den typen av backup.
Kör man däremot en annan typ av backup, med traditionella diffar så bör man köra en ny fullbackup med jämna mellanrum, men det bygger på en annan struktur på datat.
Men man bör vid alla typer av backuplösningar ha flera livlinor.
Denna backup i Server 2008 R2 är dock väldigt utrymmesbesparande för att erhålla ett skydd mot oavsiktliga raderingar, eller förstörda filer.
Servern står ju också hemma, så man måste ju ytterliggare skydd mot brand och stöld.
Men just för att enkelt kunna återställa ögonblicksmisstag tycker jag att det är en suverän lösning, och skulle denna inte fungera så får man ta tillbaka filen från någon av de andra backupkällorna.
Dock finns det bara stöd för ett schemalagt backupjobb som standard, men de flesta klarar sig med det, och det finns naturligtvis andra vägar att gå.
M.V.H
/Tobias
 
och jag har hittlis inte varit med om att filen blir oläsbar av okänd anledning.
/Tobias

Ordet "hittils" är anledningen till att jag inte rekommenderar någon att köra enbart denna backuptyp.

Vill du ha en "lång historik", och fortfarande en vettig backupstrategi så är det ju bara att ställa in VSS därefter, och köra säkerhetskopior även på denna info.
 
Japp, det bör man tänka på, men samtidigt faller det fiffiga med en lång historik om man påbörjar en ny "master-fil", och jag har hittlis inte varit med om att filen blir oläsbar av okänd anledning.
Så jag håller inte med om att man bör skapa en ny "master-fil" periodiskt, för då faller hela tanken med den typen av backup.
Man bör väl spara undan backupen med jämna mellanrum och starta en ny. De backuper man sparar undan arkiverar man på annan plats.
 
Japp, ni har helt rätt i det med VSS och att ta backup på backupfilerna.
Men för att göra det enkelt så föreslår jag ändå primärt någonting automatiskt som ligger externt, typ Livedrive eller Crashplan, det är nog enda sättet för många att hålla igång det, annars faller det lätt i glömska.
Sedan kompletterar man med att ta regelbundna backuper till en eller flera externa diskar, antingen helt manuellt, eller via ett script.
Dessa diskar förvarar man på annan plats.

Många har ju inte ens en central server hemma, och då kanske det faller med "riktiga" backupprogramvaror, men har man det så kan en serverbackup vara ett komplement för snabba återställningar.

M.V.H
/Tobias
 
Ja, lättanvänt och automatiskt är a och o för att ett backupsystem ska användas regelbundet. Jag vill inte hålla på och administrera backuper.
 
Ja, lättanvänt och automatiskt är a och o för att ett backupsystem ska användas regelbundet. Jag vill inte hålla på och administrera backuper.

Det är väldigt många som resonerar som dig, många av er får problem dagen D då det är dags att återskapa backupen. A och O är att backupen tas och att den går att återställa, resten är bara lull lull runt omkring.

/Karl
 
Lättanvänt och automatiskt är förutsättningen för att backup ska tas. Annars håller jag med.

I professionella sammanhang brukade jag (på den tiden jag sysslande med sånt) köra en verifiering på backupbandet[*] efter varje backup. Numera brukar jag kolla lite då och då om det går att läsa en eller annan fil.



[*] Ja, det var länge sen ...
 
Numera brukar jag kolla lite då och då om det går att läsa en eller annan fil.
Absolut bästa metoden, verifieringen kollar bara att datat skrivits riktigt till disken. Det kontrollerar inte om programmet i sig klarar av att läsa tillbaka filer.
När jag jobbade proffisionellt med sådant hade vi så pass klumpiga användare att vi var tvugna att läsa tillbaka minst en fil i veckan. Så det fungerade perfekt som verifiering.

Det var ett större backupföretag som hade en blunder i sin krypteringssalgoritm för ett par år sedan. Företagen körde med verifiering och allt hade skrivits rätt till diskarna, men det gick inte att läsa tillbaka backuperna för krypteringsalgoritmen var så säker att den inte gick att dekryptera. Det hela rättades givetvis till men att läsa tillbaka en fil lite då och då är helt klart det bästa.
Hos privatanvändare är det alldra vanligaste felet att användaren inte vet hur man läser tillbaka filer från backuper, vilket inte heller är optimalt.

/Karl
 
ANNONS
Köp en spegellös systemkamera från Canon och få ett 50mm objektiv på köpet hos Götaplatsens Foto.