Skip to content

Backupkonzepte

Je mehr wir uns auf Computer verlassen und wesentliche Teile unseres Lebens, unser Erinnerung nur noch digital existieren, desto wichtiger wird der Schutz dieser Daten sowohl gegen unbefugten Zugriff als auch gegen Verlust oder mutwillige Zerstörung.

Ich hatte in der Vergangenheit bereits das eine oder andere Mal berichtet, wie ich meine Daten sichere - nicht immer sehr fleißig und mit größter Konsequenz, weil die Bequemlichkeit oft vorgeht, aber über die Jahre dann doch überall irgendwie.

Grundsätzliche Überlegungen

Backups nutzen nur, wenn sie möglichst aktuell sind und sich auch möglichst leicht wieder einspielen lassen.

Backups werden nur genutzt, wenn sie möglichst wenig manuellen und zeitlichen Aufwand erfordern.

Daraus ergibt sich die Notwendigkeit einer möglichst weitgehenden Automatisierung. Hinzu kommen Überlegungen zur Datensicherheit (Unbefugte sollen auf die Backups nicht zugreifen können), auch bei der Übertragung, und auch zur Redundanz (was nützt ein Backup, wenn Einbrecher oder Feuersbrunst zusammen mit Rechner und Daten auch das Backup zerstören?).

Jedenfalls für mich bedarf es auch unterschiedlicher Konzepte für (Miet-)Server in einem Rechenzentrum gegenüber Rechnern in der heimischen Wohnung, für im Dauerbetrieb befindliche Maschinen (Server) gegenüber Laptops oder Desktoprechnern und für Linuxrechner gegenüber Windowsmaschinen.

Für das alles gibt es eine Vielzahl von Lösungen. Ich möchte meine hier vorstellen.

Backups von Mietservern

Oft ist - oder war jedenfalls früher - bei Mietangeboten für Server ein (meist nur über FTP erreichbarer) “Backupspace” inkludiert. Teilweise kann man solchen kostenpflichtig hinzubuchen. Nicht immer überzeugte das Konzept; bei 1&1, einem nicht gerade kleinen Anbieter, waren Backupserver nicht nur ab und an nicht erreichbar (was man dem Support jeweils mitteilen musste - das blieb sonst mehrere Tage lang so), es ist mir dort auch direkt zweimal passiert, dass die Daten auf dem Backupspace plötzlich “weg” waren (ebenfalls ohne dass es darüber eine Benachrichtigung gegeben hätte). Ich nutze daher dort, wo es keinen kostenlosen Backupspace gibt, Amazons Simple Cloud Storage Service‎ S3, und dort, wo es Backups gibt, lege ich regelmäßig ein Zweitbackup via S3 an. Damit habe ich auch zugleich ein “Offsite-Backup”.

Früher habe ich die Backups teilweise nach Hause geholt - das Problem daran ist (und war insbesondere zu Zeiten von DSL-2000 & Co.), dass der Download über Nacht schnell geht, aber der Upload für ein mögliches Restore keinen Spaß macht.

Für das Backup verwende ich duply (bzw. duplicity). Damit sichere ich im Prinzip die komplette Platte, täglich inkrementell und einmal monatlich vollständig. Vorher dumpe ich die mySQL-Datenbanken in gepackte Textdateien, um sie in einem definierten Zustand vorliegen zu haben. duply verschlüsselt die Backups mit einem GPG-Schlüssel, so dass das Übertragungsprotokoll letztlich egal ist; auch FTP geht. Einmal eingerichtet, ist der Aufwand gering; es läuft eben alles automatisch.

Mein Vorgehen habe ich bereits 2011 bzw. 2016 hier im Blog beschrieben:

Die Beschreibungen sind - gerade bei dem Text aus 2011 - vielleicht nicht auf dem allerneuesten Stand, lassen sich aber mit leichten Anpassungen immer noch so umsetzen.

Alternativen zu duply wären bspw.

Ein Nachteil verbindet alle diese Lösungen: die Backups werden vom jeweiligen Server auf den Backupspace übertragen, was bedeutet, dass die Zugangsdaten auf dem zu sichernden Server gespeichert sind. Wenn ein Eindringling dort Root-Rechte erlangt, kann er auf die Zugangsdaten zugreifen und so auch das Backup zerstören.

Backups im heimischen Netz

Zuhause ist die IT-Landschaft vielfältiger: es gibt einen Linux-Server, der ständig durchläuft, und mehrere Windows-Rechner, die nur bei Bedarf betrieben werden, und es gibt auch keine dicke Anbindung ins Netz, mit der man mal eben ein paar (zig) GB wegsichern kann, sondern nur VDSL-50 (und vorher DSL-16000). Außerdem muss ich auch meinen Backupspeicher selbst zur Verfügung stellen und für funktionsfähige Hard- und Software sorgen.

Hier läuft daher als Backupspace eine Synology DiskStation DS213 (ein NAS) mit (mittlerweile) zwei 4-TB-Platten als Raid. Der Server greift über FTP darauf zu; hier verwende ich wie “draußen im Netz” duply (bzw. duplicity) und sichere täglich. Auf den Windowsrechnern ist jeweils Truecrypt von Acronis installiert, das ebenfalls verschlüsselte inkrementelle und volle Backups unterstützt. Sicherungen nehme ich einmal wöchentlich manuell vor; dafür habe ich einen Task in meinem Taskplaner angelegt. Der Zugriff auf das NAS erfolgt einfach über SMB, d.h. als Sicherungsziel wird ein Windows-Netzlaufwerk angegeben. Hier stellt sich dann natürlich das Problem des unbefugten Zugriffs in verschärfter Weise, zumal einerseits kein Rootzugriff erforderlich ist, sondern nur Benutzerrechte, und die Windows-Passwörter schon aus Gründen der Bequemlichkeit im lokalen Netz nicht besonders stark sind: ein Cryptotrojaner würde tatsächlich nicht nur den Rechner, sondern auch das Backup zerstören.

Da außerdem auch Einbrüche oder ein Brand - so ungern man das hört - in der eigenen Wohnung deutlich wahrscheinlicher sind als in einem Rechenzentrum, ist ein “Offsite-Backup” besonders wichtig, aber leider auch schwerer umzusetzen. Regelmäßige Uploads von am Ende mehreren TB erscheinen mir über eine typische asymetrische Heimanbindung wenig sinnvoll. Nach langem Nachdenken bin ich dann auf eine - wie ich finde - so einfache wie geniale Idee verfallen: ich sichere schlicht (automatisch) jede Woche (und zwar nach meinen wöchentlichen Backups) den Inhalt des NAS auf eine von zwei USB-Festplatten, die ich dann ins Büro mitnehme und dort im Schreibtisch einschließe (und dafür die dort eingeschlossene Platte der vergangenen Woche mit nach Hause nehme). Ich habe also immer ein externes Backup, das nicht viel älter als eine Woche ist - ohne ein Bankschließfach dafür zu benötigen.

Das heimische Backupkonzept hat sicherlich noch Optimierungspotential. Ich könnte bspw. die Frequenz der Backups erhöhen und sie dergestalt automatisieren, dass sie jedesmal beim Herunterfahren erfolgen. Allerdings dauern Backup und dessen Verifizierung doch länger (im Bereich von Viertelstunden oder mehreren Stunden); außerdem möchte ich vorher alle Programme schließen und vor allem meine verschlüsselten Partitionen unmounten, um sie weder doppelt noch in einem inkonsistenten Zustand zu sichern. Außerdem könnte ich mir mehr Gedanken über den Zugriff auf die Backups machen oder gar einen zentralen Backupserver einrichten, der sich die Backups von den einzelnen Maschinen zieht, ohne dass man auf diesen etwas tun muss. Bisher bin ich aber ganz zufrieden mit meiner Lösung.

Kommentare, Vorschläge, Erfahrungsberichte und Diskussion.

Das ist meine Lösung.

Und wie geht ihr mit dem Problem um, sowohl was ggf. gehostete Server oder auch nur die Datenbank eures Blogs betrifft als auch zuhause?

Trackbacks

Markus Ritzmann am : Markus Ritzmann via Twitter

Vorschau anzeigen
Hat "Backupkonzepte" gelesen: https://t.co/uiegvUVUou #AutomatischerTweet

Radio (In)Security am : Radio (In)Security via Twitter

Vorschau anzeigen
In der folgenden Sendung sprechen wir über Backups. Der Artikel erklärt Backupkonzepte recht gut https://t.co/YTTQZfJNGw

Kommentare

Ansicht der Kommentare: Linear | Verschachtelt

Herr Rau am :

Herr Rau

Datensicherung bei mir: Über die Backupfunktion des heimischen Dateiservers auf eine von zwei externen Festplatten, manuell unregelmäßig ausgelöst, wobei eine der beiden Platten außerhalb der Wohnung aufbewahrt wird. Fast alle meine Daten sind auf dem Server, auf den beiden Laptops. mit denen ich sonst so arbeite, ist fast nichts Wichtiges. Ausnahme: Die mit VeraCrypt verschlüsselten Container für Empfindliches. Die kopiere ich manuell. Nich toft genug, aber stets so, dass ich es verschmerzen kann. — Wichtig ist mir der unmittelbare Zugriff auf die Daten von jedem System aus, also geht so etwas wie TimeMachine nicht.

Ab und zu mache ich Stichproben, ob der Server auch wirklich alles beim Backup richtig macht. Der behält wohl selber den Überblick, was sich geändert hat. Sieht immer okay aus.

Dirk Deimeke am :

Dirk Deimeke

Ich werde das auch noch in einem Blogartikel zusammenfassen.

Borgbackup kann Daten verschlüsseln und komprimieren. Das Hauptfeature ist aber eine funktionierende Deduplizierung. Die ist so gut gelungen, dass ich meinem root-Server alle 30 Minuten ein Fullbackup gönne (es dauert etwa 60 Sekunden). Das geht für Linux und Mac gleichermassen, bei Windows kenne ich mich nicht aus.

Letztes Backup: Original Size: 449.91 GB Compressed Size: 418.80 GB (kleinste Kompressionsstufe) Deduplicated Size: 650.52 MB (das sind die Daten, die übertragen werden)

Alle Backups: Original Size: 26.74 TB Compressed Size: 24.89 TB Deduplicated Size: 358.18 GB (das ist der Speicherplatz der belegt wird)

Das initiale Backup dauert natürlich sehr lang, danach werden aber nur noch veränderte Daten gesichert.

Ich mache täglich mehrere Male ein Backup meines Homeverzeichnisses auf das NAS via Borgbackup und mache von dem ein rsync auf einen Server via SSH. Das klappt gut und ist auch bei geringer Bandbreite zeitlich gut machbar.

Zusätzlich zum NAS mache ich auch noch ein Backup auf einer externen USB-Platte. So habe ich von den meisten Daten drei Kopien.

Ein grosser Teil meiner Arbeit liegt auch noch in Git-Repositories oder bei meiner Frau in selbstgehosteten Nextcloud-Verzeichnissen.

Zu Borg kann ich Dir noch diese beiden Links empfehlen:

Kompressionsstufen im Vergleich

und

Verteiltes Backup-Konzept mit Borg

Wenn Du MySQL oder MariaDB einsetzt, wirf mal einen Blick auf MyDumper.

Thomas Hochstein am :

Thomas Hochstein

Deduplizierung und vor allem diese hohe Backupfrequenz klingt sehr interessant!

mitch am :

mitch

Meine Antwort würde die Bevölkerung zwar nicht verunsichern, ist aber so lang geworden, dass ich jetzt einfach zurückgebloggt habe ;-)

nebenbei:

Überprüfe https://netz-rettung-recht.de/archives/2002-Backupkonzepte.html auf mögliche Trackbacks ...
• Kein Trackback: Konnte Verbindung zu netz-rettung-recht.de auf Port 80 nicht herstellen.

Thomas Hochstein am :

Thomas Hochstein

Oh! - Keine Ahnung, warum es mit dem Trackback nicht geklappt hat … Vielleicht hat der Webserver zu langsam reagiert und es gab einen Timeout?

Dirk Deimeke am :

Dirk Deimeke

Das sieht sehr nach einem Bug aus.

Einen Trackback kann man nicht auf Port 80 hinterlassen, wenn der Link auf https (Port 443) zeigt.

Thomas Hochstein am :

Thomas Hochstein

Schon, aber trotzdem sollte der TCP-Connect auf Port 80 funktionieren (und ich redirecte dann auf https …).

mitch am :

mitch

Folge s9y denn solchen Redirects? Du sitzt da doch an der Quelle.

Und weißt Du zufällig, ob schon irgendwas in der Pipeline ist wegen des Bugs „angemeldeter User -> Kommentarvorschau -> Kommentar weg”? ;-)

Thomas Hochstein am :

Thomas Hochstein

Der Bug ist lange gefixt, nur noch nicht released.

Siehe dazu bspw. https://wiki.th-h.de/notes:s9y und konkret den Bugfix in https://github.com/s9y/Serendipity/pull/503 - den Fix kannst Du trivial manuell übernehmen.

Thomas Hochstein am :

Thomas Hochstein

Gerne! :-)

Ich habe einige Fixes für besonders ärgerliche Fehler für den 2.1.x-Branch ge-cherry-pickt (das klingt jetzt irgendwie nach Hipster-Denglisch): https://github.com/th-h/Serendipity/commits/thh-2.1

Bei den meisten lohnt sich ein Blick; bis auf die beiden letzten sind sie auch schon im 2.1-Branch des s9y-Repositories angekommen. In der Regel sind die notwendigen Änderungen sehr übersichtlich.

Kommentar schreiben

HTML-Tags werden in ihre Entities umgewandelt.
Markdown-Formatierung erlaubt
Standard-Text Smilies wie :-) und ;-) werden zu Bildern konvertiert.
BBCode-Formatierung erlaubt
Gravatar, Favatar, Pavatar, Twitter, Identica, Identicon/Ycon Autoren-Bilder werden unterstützt.
Formular-Optionen
tweetbackcheck