Min lösning är en liten mac-server hemma med extern raid-5.
Totalt 9TB där 5TB nyttjat och 3TB är kritiskt.
Dessa 3TB är uppdelade på tre olika backup-set.
Dessa backas upp olika dagar med skilda intervall och skilda antal revisioner.
Jag använder
Duplicati för detta.
Och allt över sftp till en Synology-NAS med 2 x 8TB enterprise nas-diskar uppsatta i raid-1. Denna är placerad i en annan del av landet. Den enda tjänst som den NASen kör är ssh/sftp och accessen till den är nedlåst till endast mitt IP, i brandväggen som skyddar nätet där den står.
Min server är krypterad med FileVault.
Den lokala raid-5'an är också krypterad.
Duplicati skapar 50MB block som krypteras i realtid, skickas över ssh, men ligger på icke-krypterade diskar på NASen. Detta för att bibehålla säkerheten men göra det enklare vid återskapning av data om något skulle gå fel.
Återläsningen av data är verifierad och verifieras lite då och då för att säkerställa att den fungerar som den ska.
Hade jag ingen egen server, hade jag satsat på en av de större Synology NAS hemma och sedan backat upp den till minst en annan plats ytterligare men till en enklare NAS.
Antingen med Duplicati eller egen tjänst mellan Synology-enheterna
Förslag på enkla sätt.
Hemma: Stor Synology som kan byggas ut. Externt eller internt.
Annan plats: Enkel Synology med två stora diskar, vilken sedan kan byggas ut med externa diskar.
Backa upp data hemifrån till annan plats.
Eller:
Hemma: Stor Synology med Duplicati som kan byggas ut. Externt eller internt.
Valfri molntjänst. Google Drive, Dropbox, Amazon, etc
Backa upp data hemifrån till molntjänsten.