Skip to content

Backupkonzepte

Je mehr wir uns auf Computer verlassen und wesentliche Teile unseres Lebens, unser Erinnerung nur noch digital existieren, desto wichtiger wird der Schutz dieser Daten sowohl gegen unbefugten Zugriff als auch gegen Verlust oder mutwillige Zerstörung.

Ich hatte in der Vergangenheit bereits das eine oder andere Mal berichtet, wie ich meine Daten sichere - nicht immer sehr fleißig und mit größter Konsequenz, weil die Bequemlichkeit oft vorgeht, aber über die Jahre dann doch überall irgendwie.

"Backupkonzepte" vollständig lesen

Plattentausch im NAS

Das von mir genutzte Synology-NAS DS 213 ist mittlerweile rund viereinhalb Jahre alt und hat mir seit seiner Einrichtung Ende 2012 gute Dienste geleistet - wobei ich die vielfältigen Möglichkeiten bisher in keiner Weise ausgenutzt habe und das Gerät derzeit nur für Backups des heimischen Servers und aller anderen Rechner nutze.

NAS - Network Storage Drive
Symbolbild - das ist kein DS213 … © blickpixel - Fotolia
"Plattentausch im NAS" vollständig lesen

Backups in die Cloud (duply und S3)

Eigentlich wollte ich schon vor gut drei Jahren, im Januar 2013, über dieses Thema schreiben, als ich die ersten Backup-Jobs dieser Art eingerichtet habe, aber irgendwie ist aus dem angefangenen Entwurf nie ein fertiger Blogeintrag geworden. - Nun denn, auf ein neues.

Nicht nur der heimische Rechner will regelmäßig gesichert werden; auch bei dedizierten Servern oder vServern ist ein regelmäßiges Backup vonnöten, um im Falle eines Falles nicht ohne (Code und) Daten dazustehen. Früher war es üblich, dass zu einem Server auch ein - meist per FTP zugänglicher - Backupplatz gehörte, der genügend Raum für ein Backup (auch über mehrere Generationen) bot. Mittlerweile müssen solche Angebote aber nicht selten kostenpflichtig hinzugebucht werden oder stehen gar nicht mehr zur Verfügung. Zwar ist es natürlich möglich, die Datensicherung auf einen anderen (eigenen oder fremden) Server durchzuführen, wobei sich die Maschine im heimischen Keller in der Regel wegen der geringen Upload-Bandbreiten nicht anbietet - schließlich will man nicht nur sichern, sondern notfalls auch wiederherstellen können. Eine Alternative ist aber Cloud-Speicher, bspw. Amazons S3 (Simple Storage Service). Die Kosten sind bei inkrementiellen Backups überschaubar: ein Gigabyte Speicherplatz kostet pro Monat ungefähr 3 Cent, dazu kommen noch geringen Kosten für Zugriffsoperationen in der Größenordnung von einem halben Cent pro 1.000 Zugriffe und für den ausgehenden Traffic - also vor allem für einen Restore - 9 Cent pro GB, jeweils zzgl. MWSt. Wöchentliche inkrementielle Backups mit monatlichen Vollbackups für vier Server kommen auf gut 10$.

"Backups in die Cloud (duply und S3)" vollständig lesen

Synology DiskStation DS213

Lange habe ich an einem Backupkonzept für meine heimischen Rechner gearbeitet. Wichtige Voraussetzung war dabei immer eine möglichst niedrige Hemmschwelle, das Backup auch wirklich laufen zu lassen. Softwareseitig bin ich über die Jahre bei TrueImage gelandet; hardwareseitig hatte ich verschiedene Varianten durchprobiert: mal auf eine zweite Festplatte, dann hatte ich ein bill preisgünstiges NAS besorgt, das aber ein so störendes Laufgeräusch produzierte, dass an einen Dauerbetrieb nicht zu denken war. Dann hatte ich eine ganze Zeit jeweils eine große 1-TB-Platte für den Heimserver einer- und für Desktop und Laptop andererseits; ganz nett, aber nach einiger Zeit hatten die Platten überraschend viele Fehler, und die über USB an den Heimserver angekoppelte Festplatte führte dazu, dass beim Reboot der Kernel nicht gefunden wurde (ohne dass ich bei drei oder vier umfangreichen Debug-Anläufen den Grund dafür gefunden hätte).

Mitte November letzten Jahres habe ich dann - inspiriert u.a. durch Rince - beschlossen, endlich einmal etwas Geld in die Hand zu nehmen und eine richtige Lösung zu finden. So traf denn eine Woche nach dem verlinkten Blogbeitrag eine Synology DiskStation DS213 bei mir ein - und ich bin sehr zufrieden. Obschon ich sie letztlich nur als “Datengrab” nutze und die vielen sonstigen Features gar nicht ausprobiert habe, arbeitet sie zuverlässig, extrem leise, mit Stromsparmodus und “Wakeup” beim Datenzugriff über das Netzwerk sehr flott (Gigabit-LAN) und bietet eine solche Menge an Erweiterungsoptionen, dass ich wahrscheinlich noch jahrelang damit spielen kann. :-)

Insgesamt eine lohnende Investition, auch wenn das fertige Paket aus der DiskStation und zwei WD “Red” 3-TB-Platten durchaus nicht umsonst zu haben war. Ich bin damit dennoch sehr zufrieden und kann das nur empfehlen.

[Dieser Eintrag wurde nachträglich im Mai 2014 veröffentlicht.]

Backup mit duply und duplicity

Niemand will Backup. Alle wollen Restore.

(Kristian Köhntopp zitiert einen Vertriebler - Fachbegriffe der Informatik #125)

Regelmäßige Backups sind wichtig und auch durch redundante Systeme wie RAIDs nicht zu ersetzen; ganz abgesehen davon, daß bei einem RAID 1 gerne die - meistens ja zum selben Zeitpunkt wie die erste in Betrieb genommene - zweite Platte beim notwendigen Rebuild zusammenbricht, schützt ein RAID auch nur gegen Datenverlust durch Ausfall einer Festplatte, aber weder gegen versehentliches oder böswilliges Löschen, Überschreiben oder Verändern von Daten, noch kann es gegen einen fatalen Schaden des gesamten Systems (Brand, Diebstahl, …) schützen. Backups sollten daher

  • regelmäßig durchgeführt werden,
  • versioniert sein (so daß man einen längeren Zeitraum zurückgehen kann) und
  • off-site transferiert werden können.

Zumindest dann, wenn man keine Kontrolle über die Infrastruktur hat, auf der die Backups gespeichert und über die sie transportiert werden, sollten Backups auch verschlüsselt sein. Diese letzte Anforderung ist typisch für sog. "Rootserver", also Mietserver, zu denen bei üblichen Angeboten auch ein sog. "Backupspace", also Speicherplatz auf einem Storage gehört, auf den zumeist nur per (unverschlüsseltem) FTP zugegriffen werden kann. Selbst wenn man dem Provider und seinen Mitarbeitern vertraut, kann man nicht ausschließen, daß auch Dritte - andere Kunden, … - zumindest den unverschlüsselten Datenverkehr zwischen dem zu sichernden Server und dem Storage "belauschen" können. Wenn man seine Backups also unverschlüsselt überspielt, kann die gesamte Konfiguration samt aller Paßworte usw. usf. mitgelesen werden.

Schließlich gibt es eine letzte Anforderung für sinnvolle Backups: sie sollten, einmal eingerichtet, möglichst wenig Aufwand bedeuten, optimalerweise automatisiert sein, denn nur dann werden sie auch wirklich regelmäßig durchgeführt.

Alle zuvor genannten Anforderungen erfüllt das Tool duplicity, für das die c’t bereits anno 2006 ein Frontend namens ftplicity entwickelt hat, das nunmehr unter dem Namen duply weiterentwickelt wird. duply unterscheidet sich u.a. dadurch von ftplicity, daß es nicht nur die Konfiguration der Übertragung via FTP unterstützt, sondern auch auf anderem Weg (was dann auch die Namensänderung erklärt).

duplicity sichert Dateien und Verzeichnisse in (nicht gepackte!) tar-Archive, verschlüsselt diese vermittels GnuPG und überträgt die Sicherungen in kleinen Häppchen auf verschiedenen Wegen (lokal, FTP, SCP, rsync, …) auf das Sicherungsmedium; dabei werden inkrementielle Backups über den rsync-Algorithmus erstellt, d.h. nicht alle veränderten Dateien gesichert, sondern ggf. nur ein diff, was wiederum Platz und Bandbreite spart. duplicity dürfte in den meisten Distributionen paketiert sein, duply ist es in Debian ab Squeeze, kann aber in jedem Fall trivial installiert werden.

"Backup mit duply und duplicity" vollständig lesen

Backup und Backupkonzepte

Die vergangene Woche war für manchen Online-Anbieter eine ganz schwarze. Nicht nur, daß in den Webserver der DLRG eingebrochen wurde und die dort vorhandenen Daten samt des Backups mutwillig gelöscht wurden, einen kleinen Anbieter von Internetzugängen und -diensten auf im wesentlichen ehrenamtlicher Vereinsbasis hat es noch härter gebeutelt: in das von bawue.net mitgenutzte Rechenzentrum wurde eingebrochen und in erheblichem Umfang Technik entwendet oder mutwillig zerstört. Ein kompletter Ausfall der Dienste, teilweise über Tage, und erheblicher Datenverlust war die Folge, von immenser, nächtelanger Arbeit für das Admin-Team ganz zu schweigen. :-(

Leider wieder ein sehr trauriger Anlaß zur Mahnung und zum Überdenken des eigenen Backupkonzeptes. Der "worst case" ist oft "worse", als man denken würde.

tweetbackcheck