<?xml version="1.0" encoding="utf-8" ?>

<rss version="2.0" 
   xmlns:rdf="http://www.w3.org/1999/02/22-rdf-syntax-ns#"
   xmlns:admin="http://webns.net/mvcb/"
   xmlns:dc="http://purl.org/dc/elements/1.1/"
   xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
   xmlns:wfw="http://wellformedweb.org/CommentAPI/"
   xmlns:content="http://purl.org/rss/1.0/modules/content/"
   >
<channel>
    
    <title>Netz - Rettung - Recht (Artikel mit Tag Backup)</title>
    <link>https://netz-rettung-recht.de/</link>
    <description>Bloggen seit Juni 2003</description>
    <dc:language>de</dc:language>
    <generator>Serendipity 2.5.0 - http://www.s9y.org/</generator>
    <pubDate>Mon, 14 Aug 2023 06:23:30 GMT</pubDate>

    <image>
    <url>https://netz-rettung-recht.de/templates/2k11/img/s9y_banner_small.png</url>
    <title>RSS: Netz - Rettung - Recht - Bloggen seit Juni 2003</title>
    <link>https://netz-rettung-recht.de/</link>
    <width>100</width>
    <height>21</height>
</image>

<item>
    <title>Synology DS220+</title>
    <link>https://netz-rettung-recht.de/archives/2401-Synology-DS220+.html</link>
            <category>Bits'n'Bytes</category>
    
    <comments>https://netz-rettung-recht.de/archives/2401-Synology-DS220+.html#comments</comments>
    <wfw:comment>https://netz-rettung-recht.de/wfwcomment.php?cid=2401</wfw:comment>

    <slash:comments>3</slash:comments>
    <wfw:commentRss>https://netz-rettung-recht.de/rss.php?version=2.0&amp;type=comments&amp;cid=2401</wfw:commentRss>
    

    <author>nospam@example.com (Thomas Hochstein)</author>
    <content:encoded>
    &lt;p&gt;In den Jahren 2011 und 2013 hat sich jeweils einiges an der heimischen IT-Infrastruktur - im &lt;a href=&quot;https://netz-rettung-recht.de/plugin/tag/heimnetz&quot; title=&quot;&quot;&gt;Heimnetz&lt;/a&gt; - getan. 2011 habe ich - mehrere Jahre nach dem Umzug - in unserer neuen Wohnung einen &lt;a href=&quot;https://netz-rettung-recht.de/archives/1664-Ein-neuer-Homeserver.html&quot; title=&quot;&quot;&gt;Server eingerichtet&lt;/a&gt; und die alte Maschine an anderem Orte in den Ruhestand geschickt; außerdem habe ich die gesammelten Daten von primär einem, letztlich aber mehreren alten Rechner gesammelt auf meinen aktuellen &lt;a href=&quot;https://netz-rettung-recht.de/archives/1647-Digitale-Archivalien.html&quot; title=&quot;&quot;&gt;Desktoprechner übertragen&lt;/a&gt; und eine aktuelle Version meines damaligen (und jetzigen) &lt;a href=&quot;https://netz-rettung-recht.de/archives/1645-Was-lange-waehrt-...-Agent-6.0.html&quot; title=&quot;&quot;&gt;Mail- und Newsreaders&lt;/a&gt; installiert. 2013 kamen ein &lt;a href=&quot;https://netz-rettung-recht.de/archives/1697-HP-OfficeJet-Pro-8600.html&quot; title=&quot;&quot;&gt;Multifunktionsgerät&lt;/a&gt; (Drucker/Scanner/&lt;a href=&quot;https://netz-rettung-recht.de/archives/1698-Faxen-via-DECT.html&quot; title=&quot;&quot;&gt;Fax&lt;/a&gt;) und ein &lt;a href=&quot;https://netz-rettung-recht.de/archives/1696-Synology-DiskStation-DS213.html&quot; title=&quot;&quot;&gt;NAS&lt;/a&gt; - eine &lt;em&gt;DiskStation&lt;/em&gt; von &lt;em&gt;Synology&lt;/em&gt; - hinzu (und ein neuer &lt;a href=&quot;https://netz-rettung-recht.de/archives/1715-Smaug-ein-neuer-Rechner.html&quot; title=&quot;&quot;&gt;Desktop&lt;/a&gt;, der Vorgänger meines aktuellen Geräts).&lt;/p&gt;

&lt;p&gt;Überraschend viel davon ist geblieben: der nunmehr mehr als 11 Jahre alte Homeserver, für den schon ein Ersatz bereitsteht, den ich irgendwann einmal einrichten müsste; die Datenstruktur auf meinem Desktoprechner und &lt;em&gt;Agent&lt;/em&gt; als News- und Mailclient; bis vor zwei Jahren der Drucker; und auch das NAS. Im Prinzip war ich mit letzterem und meinem &lt;a href=&quot;https://netz-rettung-recht.de/archives/2002-Backupkonzepte.html&quot; title=&quot;&quot;&gt;Backupkonzept&lt;/a&gt; auch ganz zufrieden; 2017 hatte ich nach einem (mutmaßlichen) Plattenschaden mal neue, etwas größere Platten (4&amp;#160;TB statt 3&amp;#160;TB) eingebaut, aber nach diesem &lt;a href=&quot;https://netz-rettung-recht.de/archives/1978-Plattentausch-im-NAS.html&quot; title=&quot;&quot;&gt;Plattentausch&lt;/a&gt; ging alles weiter seinen geregelten Gang.&lt;/p&gt;

&lt;p&gt;Dieser Gang war allerdings in den letzten Monaten etwas holprig, denn oft mangelte es an Platz, sowohl auf dem NAS als auch (vor allem) auf den USB-Platten für das externe Backup. Auf das NAS laufen Backups des Homeservers (täglich, automatisch, inkrementiell mit jedem Monat einem neuen Vollbackup), des Desktops und zweier Laptops (manuell, üblicherweise wöchentlich). Und mit der Zeit wurden (vor allem auf dem Desktop, aber auch den Laptops) die Platten größer, die Datenmengen wuchsen und man musste den Platzbedarf etwas im Blick haben. Zuerst erforderten die externen Backups regelmäßige manuelle Eingriffe (Löschen aller vorigen Versionen, damit das neue Backup passt), was schon nervig genug ist; ein Backup von 2-3&amp;#160;TB über USB 2.0 kann schnell länger als 24 Stunden dauern, und wenn das Backup dann fehlschlägt, muss man der Software beim Löschen des angefangenen Backups und der noch auf der Platte befindlichen Vorversion(en) das Händchen halten und das Backup dann später neu starten. Das ist ein deutlich größerer Aufwand als &amp;#8220;einmal pro Woche morgens die Platte abstöpseln, ins Büro mitnehmen und am Abend die aus dem Büro mitgebrachte andere Platte wieder anstöpseln&amp;#8221; und führt daher dazu, dass das externe Backup eher so alle 4-6 Wochen anstatt wöchentlich erfolgte. Und erst das, dann aber tatsächlich auch der knapper werdende Platz auf dem NAS führten dazu, dass ich erst die Anzahl der inkrementiellen Backups heruntergesetzt habe und dann immer fauler mit den Backups wurde - auch weil diese gerade als Vollbackup mit Validierung so lange dauerten, dass morgens der Rechner nicht zur Verfügung stand, weil das über Nacht gestartete Backup noch nicht fertig war. (Und weil ich die verschlüsselte Platte mit privaten Daten vor dem Backup dismounte, damit der Container ordentlich gesichert wird, kann ich dann nicht richtig arbeiten.) So fanden dann auch die Sicherungen von Desktop und Laptop mehr monatlich - beim Laptop aufgrund der seltenen Nutzung eher quartalsweise - als wöchentlich statt. Alles sehr unbefriedigend.&lt;/p&gt;

&lt;p&gt;Dann las ich Anfang Februar zufällig bei &lt;em&gt;Isotopp&lt;/em&gt; einen Blogbeitrag über eine &lt;a href=&quot;https://blog.koehntopp.info/2022/02/01/time-to-grow-the-file-server.html&quot; title=&quot;https://blog.koehntopp.info/2022/02/01/time-to-grow-the-file-server/&quot;&gt;Erweiterung des Fileservers&lt;/a&gt; - weil der Nachwuchs eine größere Platte im Laptop hat und daher mehr Backupplatz benötigt wird. Da wurden mal eben zwei zusätzliche 10-TB-Platten als RAID eingebaut. Und nachdem ich das gelesen hatte, habe ich mich ernsthaft gefragt, warum ich nicht einfach schon vor Jahren schlicht größere Festplatten gekauft habe. Gut, ich habe keinen Platz, um sie dazuzustecken, ich müsste die Platten austauschen, aber das ist kein großes Problem, und es ist nicht so, dass ich mir das nicht leisten könnte. Und deutlich größere Platten würden das Platzproblem schlicht lösen; mir war gar nicht recht präsent, welche Plattengrößen jetzt üblich und erschwinglich sind, zumal ich im Desktop nicht viel Platz brauche. Kaum hatte ich mir das gedacht, erinnerte ich mich daran, dass mich neben dem Platzmangel auch die fehlende Leistung des NAS zunehmend störte; es dauerte alles lange, die CPU war immer ausgelastet, und der Weboberfläche konnte man beim Start einer App gemütlich zuschauen und mal schnell einen neuen Kaffee holen. Nach 9 Jahren durfte es auch da vielleicht mal etwas Neues sein.&lt;/p&gt;

&lt;p&gt;Eigentlich wollte ich darüber in Ruhe nachdenken und mich dann am Wochenende entscheiden, aber die Sache ließ mir keine Ruhe - eine kurze Recherche ergab, dass man problemlos Platten mit 10&amp;#160;TB, 12&amp;#160;TB oder mehr bekommt, und auch die Auswahl bei der Vielzahl der auf der Website von &lt;em&gt;Synology&lt;/em&gt; angebotenen Geräte fiel mit passenden Filtern und den angebotenen Assistenten leicht: mindestens zwei Platten sollten es sein, und Hot-Swap-fähig sollte das Gerät auch sein. Nach kurzer Bedenkzeit - es müssen nicht drei oder vier Platten sein; optisch gefällig wäre schon schön; und ich muss zwar nicht sparen, aber auch nicht verschwenden - fiel dann noch am selben Tag die Entscheidung für ein &lt;em&gt;Synology DS220+&lt;/em&gt; und zwei 12-TB-Platten von &lt;em&gt;Western Digital&lt;/em&gt;. Am Folgetag entschloss ich mich dann in der Mittagspause, das Konzept des externen Backups auf USB-Platten fortzuführen und kaufte noch zwei 14-TB-USB-Platten von &lt;em&gt;Western Digital&lt;/em&gt; dazu. Bis Freitag war dann auch alles da, und ich konnte abends mit der Installation beginnen (um am Wochenende die Daten umzukopieren).&lt;/p&gt;

&lt;p&gt;Allerdings hatte ich die Rechnung ohne den Wirt gemacht: trotz vielem hin und her erkannte das NAS nur eine Festplatte. Und nachdem ich die Platten im laufenden Betrieb getauscht hatte, ging natürlich gar nichts mehr. Eine Neuinstallation mit vertauschten Platten schlug fehl; der dritte Versuch - wieder in der ursprünglichen Konfiguration - brachte auch wieder das ursprüngliche Ergebnis. Und wenn man aufmerksam lauschte, hörte man auch das typische Klicken einer Platte, die anzufahren versucht, aber nicht anläuft. Offenbar war eine der Platten &amp;#8220;dead on arrival&amp;#8221;. Das kann natürlich passieren, nervte mich aber einigermaßen - zumal der Samstagvormittag schon mit diversen Besorgungen gefüllt war. Aber es half ja nichts, und so schob ich noch einen Besuch bei der örtlichen Filiale des Computerhändlers meines Vertrauens ein und kaufte eine dritte 12-TB-Platte. Wieder zuhause setzte ich sie ein &amp;#8230; und endlich lief alles so, wie es laufen sollte, und ich konnte mein neues NAS endlich einrichten.&lt;/p&gt;

&lt;p&gt;Damit war ich sehr zufrieden: alles läuft so flott und flüssig, und es ist soviel Platz! Jetzt noch schnell ein letztes Backup des alten NAS auf die mobile Platte, das dann Überspielen, und dann ist alles fertig. Nur &amp;#8230; passte das Backup natürlich nicht auf die USB-Platte. Wie immer. Also musste ich das Backup dann nach vielen Stunden abbrechen, die alten Versionen löschen und es dann neu starten. Und das dauerte. Und dauerte.&lt;/p&gt;

&lt;pre&gt;&lt;code&gt;Datensicherungsaufgabe: USB-Sicherung 1
Sicherungsziel: usbshare1
Start: Mo, 7 Feb 2022 19:37:33
Dauer: 3 Day 2 Hour 11 Minute 3 Second 
&lt;/code&gt;&lt;/pre&gt;

&lt;p&gt;Glücklicherweise hatte ich bereits am Wochenende begonnen, die Daten einfach &amp;#8220;manuell&amp;#8221; umzukopieren. Beide NAS exportieren die entsprechenden Verzeichnisse als Netzlaufwerke, also per SMB, und so kann man im Prinzip schlicht alles über den Windows-Explorer von einem aufs andere Verzeichnis verschieben. Das ging ganz gut und war nach wenigen Stunden erledigt. Die unter einem anderen Account laufenden Dateien des Server-Backups ließen sich nicht auf diese Weise verschieben - Windows mäkelte, dass es nicht zwei Verbindungen unter verschiedenen Nutzerkennungen zum selben Gerät vornehmen könne, und ich hatte keine Lust, eine Lösung dafür zu suchen. Warum nicht einfach vom Server aus die Dateien umkopieren? Gesagt, getan &amp;#8230; und nachdem SFTP/SCP dafür nicht das richtige Tool schien, habe ich mich auch da für SMB entschieden. Ein wenig Googeln führte zu folgender einfacher Lösung:&lt;/p&gt;

&lt;pre&gt;&lt;code&gt;mkdir /mnt/nasalt
mkdir /mnt/nasneu
mount -t cifs -o user=serveruser //nasalt/home /mnt/nasalt
mount -t cifs -o user=serveruser,vers=2.0 //nasneu/home /mnt/nasneu
cp -av /mnt/nasalt/backups/* /mnt/nasneu/backups/
&lt;/code&gt;&lt;/pre&gt;

&lt;p&gt;Auch das war binnen vergleichsweise kurzer Zeit erledigt.&lt;/p&gt;

&lt;p&gt;Für &lt;em&gt;duply&lt;/em&gt; und &lt;em&gt;duplicity&lt;/em&gt; auf dem Server reichte die Änderung des Backupziels; ähnlich funktionierte das mit &lt;em&gt;Acronis True Image&lt;/em&gt; für Desktop und Laptop, wobei dort nach der Änderung des Backup-Ziels das dort bereits vorhandene Backup noch eingebunden werden musste. Das nächste Backup machte dann einfach dort weiter, wo es auf dem alten NAS aufgehört hatte, und zumindest gefühlt ging es auch schneller.&lt;/p&gt;

&lt;p&gt;Danach habe ich direkt die erste externe Sicherung durchgeführt, und die ging nicht nur gefühlt schneller, sondern war - mit schnellerer CPU und USB 3 statt USB 2 - sehr, sehr deutlich spürbar flotter. Die beiden folgenden Screenshots zeigen u.a. die Dauerlast der CPU auf beiden Geräten im Vergleich; auf dem neuen NAS ist sie nicht einmal halb so hoch.&lt;/p&gt;

&lt;ul class=&quot;s9y_gallery plainList&quot;&gt;&lt;li class=&quot;s9y_gallery_item&quot;&gt;&lt;a  class=&quot;serendipity_image_link&quot;  rel=&quot;lightbox[2401]&quot; href=&quot;https://netz-rettung-recht.de/uploads/articles/2022/ds-213.jpg&quot; title=&quot;&quot;&gt;&lt;!-- s9ymdb:1226 --&gt;&lt;img class=&quot;s9y_gallery_image&quot; src=&quot;https://netz-rettung-recht.de/uploads/articles/2022/ds-213.serendipityThumb.jpg&quot; alt=&quot;&quot;&gt;&lt;/a&gt;&lt;/li&gt;&lt;li class=&quot;s9y_gallery_item&quot;&gt;&lt;a  class=&quot;serendipity_image_link&quot;  rel=&quot;lightbox[2401]&quot; href=&quot;https://netz-rettung-recht.de/uploads/articles/2022/ds-220.jpg&quot; title=&quot;&quot;&gt;&lt;!-- s9ymdb:1227 --&gt;&lt;img class=&quot;s9y_gallery_image&quot; src=&quot;https://netz-rettung-recht.de/uploads/articles/2022/ds-220.serendipityThumb.jpg&quot; alt=&quot;&quot;&gt;&lt;/a&gt;&lt;/li&gt;&lt;/ul&gt;

&lt;p&gt;Nachdem mehr als drei Tage später (!) die Sicherung des alten NAS auf USB-Platte abgeschlossen war, habe ich von dieser Platte die letzten noch fehlenden Daten auf das neue NAS überspielt und dann das alte NAS (und die nicht mehr benötigten alten USB-Platten) neu initialisiert. Jetzt kann die alte &lt;em&gt;Synology DS213&lt;/em&gt; mal zeigen, was ein solches Gerät wirklich kann, statt nur als Fileserver für Backups zu dienen: sie soll nämlich in Zukunft an ihrem neuen Standort (bei der &lt;em&gt;FRITZ!Box&lt;/em&gt;) als Medienserver für den Hausstand dienen, zunächst einmal für Musik, späer vielleicht auch für Fotos und Videos. Dafür konnte ich dann die NAS-Funktion in der &lt;em&gt;FRITZ!Box&lt;/em&gt; deaktivieren und die dort angehängte externe USB-Platte anderweitig verwenden.&lt;/p&gt;

&lt;p&gt;Bislang gefällt mir die neue Lösung, die sich auch in der &lt;a href=&quot;https://th-h.de/me/rechner/#peripherie&quot; title=&quot;Meine Rechner | th-h.de&quot;&gt;Beschreibung auf meiner Website&lt;/a&gt; widerspiegelt, ausnehmend gut.&lt;/p&gt;

&lt;p&gt;&lt;em&gt;Titelbild © blickpixel - Fotolia&lt;/em&gt;&lt;/p&gt;
&lt;img src=&quot;https://ssl-vg03.met.vgwort.de/na/278b8e18e7c5405980991992c8fbd366&quot; width=&quot;1&quot; height=&quot;1&quot; alt=&quot;&quot;&gt; 
    </content:encoded>

    <pubDate>Thu, 17 Feb 2022 05:15:00 +0000</pubDate>
    <guid isPermaLink="false">https://netz-rettung-recht.de/archives/2401-guid.html</guid>
    <category>backup</category>
<category>heimnetz</category>
<category>synology</category>

</item>
<item>
    <title>Backupkonzepte</title>
    <link>https://netz-rettung-recht.de/archives/2002-Backupkonzepte.html</link>
            <category>Bits'n'Bytes</category>
    
    <comments>https://netz-rettung-recht.de/archives/2002-Backupkonzepte.html#comments</comments>
    <wfw:comment>https://netz-rettung-recht.de/wfwcomment.php?cid=2002</wfw:comment>

    <slash:comments>11</slash:comments>
    <wfw:commentRss>https://netz-rettung-recht.de/rss.php?version=2.0&amp;type=comments&amp;cid=2002</wfw:commentRss>
    

    <author>nospam@example.com (Thomas Hochstein)</author>
    <content:encoded>
    &lt;p&gt;Je mehr wir uns auf Computer verlassen und wesentliche Teile unseres Lebens, unser Erinnerung nur noch digital existieren, desto wichtiger wird der Schutz dieser Daten sowohl gegen unbefugten Zugriff als auch gegen Verlust oder mutwillige Zerstörung.&lt;/p&gt;

&lt;p&gt;Ich hatte in der Vergangenheit bereits das eine oder andere Mal berichtet, wie ich meine Daten sichere - nicht immer sehr fleißig und mit größter Konsequenz, weil die Bequemlichkeit oft vorgeht, aber über die Jahre dann doch überall irgendwie.&lt;/p&gt;

&lt;h3 id=&quot;grunds-tzliche-berlegungen&quot;&gt;Grundsätzliche Überlegungen&lt;/h3&gt;

&lt;p&gt;Backups nutzen nur, wenn sie möglichst aktuell sind und sich auch möglichst leicht wieder einspielen lassen.&lt;/p&gt;

&lt;p&gt;Backups werden nur genutzt, wenn sie möglichst wenig manuellen und zeitlichen Aufwand erfordern.&lt;/p&gt;

&lt;p&gt;Daraus ergibt sich die Notwendigkeit einer möglichst weitgehenden Automatisierung. Hinzu kommen Überlegungen zur Datensicherheit (Unbefugte sollen auf die Backups nicht zugreifen können), auch bei der Übertragung, und auch zur Redundanz (was nützt ein Backup, wenn Einbrecher oder Feuersbrunst zusammen mit Rechner und Daten auch das Backup zerstören?).&lt;/p&gt;

&lt;p&gt;Jedenfalls für mich bedarf es auch unterschiedlicher Konzepte für (Miet-)Server in einem Rechenzentrum gegenüber Rechnern in der heimischen Wohnung, für im Dauerbetrieb befindliche Maschinen (Server) gegenüber Laptops oder Desktoprechnern und für Linuxrechner gegenüber Windowsmaschinen.&lt;/p&gt;

&lt;p&gt;Für das alles gibt es eine Vielzahl von Lösungen. Ich möchte meine hier vorstellen.&lt;/p&gt;

&lt;h3 id=&quot;backups-von-mietservern&quot;&gt;Backups von Mietservern&lt;/h3&gt;

&lt;p&gt;Oft ist - oder war jedenfalls früher - bei Mietangeboten für Server ein (meist nur über FTP erreichbarer) &amp;#8220;Backupspace&amp;#8221; inkludiert. Teilweise kann man solchen kostenpflichtig hinzubuchen. Nicht immer überzeugte das Konzept; bei 1&amp;amp;1, einem nicht gerade kleinen Anbieter, waren Backupserver nicht nur ab und an nicht erreichbar (was man dem Support jeweils mitteilen musste - das blieb sonst mehrere Tage lang so), es ist mir dort auch direkt zweimal passiert, dass die Daten auf dem Backupspace plötzlich &amp;#8220;weg&amp;#8221; waren (ebenfalls ohne dass es darüber eine Benachrichtigung gegeben hätte). Ich nutze daher dort, wo es keinen kostenlosen Backupspace gibt, Amazons &lt;em&gt;Simple Cloud Storage Service‎&lt;/em&gt; &lt;strong&gt;S3&lt;/strong&gt;, und dort, wo es Backups gibt, lege ich regelmäßig ein Zweitbackup via &lt;em&gt;S3&lt;/em&gt; an. Damit habe ich auch zugleich ein &amp;#8220;Offsite-Backup&amp;#8221;.&lt;/p&gt;

&lt;p&gt;Früher habe ich die Backups teilweise nach Hause geholt - das Problem daran ist (und war insbesondere zu Zeiten von DSL-2000 &amp;amp; Co.), dass der Download über Nacht schnell geht, aber der Upload für ein mögliches Restore keinen Spaß macht.&lt;/p&gt;

&lt;p&gt;Für das Backup verwende ich &lt;em&gt;duply&lt;/em&gt; (bzw. &lt;em&gt;duplicity&lt;/em&gt;). Damit sichere ich im Prinzip die komplette Platte, täglich inkrementell und einmal monatlich vollständig. Vorher dumpe ich die mySQL-Datenbanken in gepackte Textdateien, um sie in einem definierten Zustand vorliegen zu haben. &lt;em&gt;duply&lt;/em&gt; verschlüsselt die Backups mit einem GPG-Schlüssel, so dass das Übertragungsprotokoll letztlich egal ist; auch FTP geht. Einmal eingerichtet, ist der Aufwand gering; es läuft eben alles automatisch.&lt;/p&gt;

&lt;p&gt;Mein Vorgehen habe ich bereits 2011 bzw. 2016 hier im Blog beschrieben:&lt;/p&gt;

&lt;ul&gt;
&lt;li&gt;&lt;p&gt;&lt;a href=&quot;https://netz-rettung-recht.de/archives/1651-Backup-mit-duply-und-duplicity.html&quot; title=&quot;&quot;&gt;Backup mit duply und duplicity&lt;/a&gt;&lt;/p&gt;&lt;/li&gt;
&lt;li&gt;&lt;p&gt;&lt;a href=&quot;https://netz-rettung-recht.de/archives/1699-Backups-in-die-Cloud-duply-und-S3.html&quot; title=&quot;&quot;&gt;Backups in die Cloud (duply und S3)&lt;/a&gt;&lt;/p&gt;&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;Die Beschreibungen sind - gerade bei dem Text aus 2011 - vielleicht nicht auf dem allerneuesten Stand, lassen sich aber mit leichten Anpassungen immer noch so umsetzen.&lt;/p&gt;

&lt;p&gt;Alternativen zu &lt;em&gt;duply&lt;/em&gt; wären bspw.&lt;/p&gt;

&lt;ul&gt;
&lt;li&gt;&lt;p&gt;&lt;a href=&quot;http://borgbackup.readthedocs.io/&quot; title=&quot;&quot;&gt;BorgBackup&lt;/a&gt;, ein Fork von &lt;a href=&quot;https://attic-backup.org/&quot; title=&quot;Home - Software&quot;&gt;Attic&lt;/a&gt;&lt;/p&gt;&lt;/li&gt;
&lt;li&gt;&lt;p&gt;&lt;a href=&quot;https://obnam.org/&quot; title=&quot;Obnam - backup software&quot;&gt;Obnam&lt;/a&gt; von &lt;a href=&quot;https://liw.fi/&quot; title=&quot;Lars Wirzenius&quot;&gt;Lars Wirzenius&lt;/a&gt;&lt;/p&gt;&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;Ein Nachteil verbindet alle diese Lösungen: die Backups werden vom jeweiligen Server auf den Backupspace übertragen, was bedeutet, dass die Zugangsdaten auf dem zu sichernden Server gespeichert sind. Wenn ein Eindringling dort Root-Rechte erlangt, kann er auf die Zugangsdaten zugreifen und so auch das Backup zerstören.&lt;/p&gt;

&lt;h3 id=&quot;backups-im-heimischen-netz&quot;&gt;Backups im heimischen Netz&lt;/h3&gt;

&lt;p&gt;Zuhause ist die IT-Landschaft vielfältiger: es gibt einen Linux-Server, der ständig durchläuft, und mehrere Windows-Rechner, die nur bei Bedarf betrieben werden, und es gibt auch keine dicke Anbindung ins Netz, mit der man mal eben ein paar (zig) GB wegsichern kann, sondern nur VDSL-50 (und vorher DSL-16000). Außerdem muss ich auch meinen Backupspeicher selbst zur Verfügung stellen und für funktionsfähige Hard- und Software sorgen.&lt;/p&gt;

&lt;p&gt;Hier läuft daher als Backupspace eine &lt;a href=&quot;https://netz-rettung-recht.de/archives/1696-Synology-DiskStation-DS213.html&quot; title=&quot;&quot;&gt;Synology DiskStation DS213&lt;/a&gt; (ein NAS) mit (&lt;a href=&quot;https://netz-rettung-recht.de/archives/1978-Plattentausch-im-NAS.html&quot; title=&quot;&quot;&gt;mittlerweile&lt;/a&gt;) zwei 4-TB-Platten als Raid. Der Server greift über FTP darauf zu; hier verwende ich wie &amp;#8220;draußen im Netz&amp;#8221; &lt;em&gt;duply&lt;/em&gt; (bzw. &lt;em&gt;duplicity&lt;/em&gt;) und sichere täglich. Auf den Windowsrechnern ist jeweils &lt;em&gt;Truecrypt&lt;/em&gt; von Acronis installiert, das ebenfalls verschlüsselte inkrementelle und volle Backups unterstützt. Sicherungen nehme ich einmal wöchentlich manuell vor; dafür habe ich einen Task in meinem &lt;a href=&quot;https://netz-rettung-recht.de/archives/1784-Aufgabenverwaltung-To-Do-Listen.html&quot; title=&quot;&quot;&gt;Taskplaner&lt;/a&gt; angelegt. Der Zugriff auf das NAS erfolgt einfach über SMB, d.h. als Sicherungsziel wird ein Windows-Netzlaufwerk angegeben. Hier stellt sich dann natürlich das Problem des unbefugten Zugriffs in verschärfter Weise, zumal einerseits kein Rootzugriff erforderlich ist, sondern nur Benutzerrechte, und die Windows-Passwörter schon aus Gründen der Bequemlichkeit im lokalen Netz nicht besonders stark sind: ein Cryptotrojaner würde tatsächlich nicht nur den Rechner, sondern auch das Backup zerstören.&lt;/p&gt;

&lt;p&gt;Da außerdem auch Einbrüche oder ein Brand - so ungern man das hört - in der eigenen Wohnung deutlich wahrscheinlicher sind als in einem Rechenzentrum, ist ein &amp;#8220;Offsite-Backup&amp;#8221; besonders wichtig, aber leider auch schwerer umzusetzen. Regelmäßige Uploads von am Ende mehreren TB erscheinen mir über eine typische asymetrische Heimanbindung wenig sinnvoll. Nach langem Nachdenken bin ich dann auf eine - wie ich finde - so einfache wie geniale Idee verfallen: ich sichere schlicht (automatisch) jede Woche (und zwar nach meinen wöchentlichen Backups) den Inhalt des NAS auf eine von zwei USB-Festplatten, die ich dann ins Büro mitnehme und dort im Schreibtisch einschließe (und dafür die dort eingeschlossene Platte der vergangenen Woche mit nach Hause nehme). Ich habe also immer ein externes Backup, das nicht viel älter als eine Woche ist - ohne ein Bankschließfach dafür zu benötigen.&lt;/p&gt;

&lt;p&gt;Das heimische Backupkonzept hat sicherlich noch Optimierungspotential. Ich könnte bspw. die Frequenz der Backups erhöhen und sie dergestalt automatisieren, dass sie jedesmal beim Herunterfahren erfolgen. Allerdings dauern Backup und dessen Verifizierung doch länger (im Bereich von Viertelstunden oder mehreren Stunden); außerdem möchte ich vorher alle Programme schließen und vor allem meine verschlüsselten Partitionen unmounten, um sie weder doppelt noch in einem inkonsistenten Zustand zu sichern. Außerdem könnte ich mir mehr Gedanken über den Zugriff auf die Backups machen oder gar einen zentralen Backupserver einrichten, der sich die Backups von den einzelnen Maschinen zieht, ohne dass man auf diesen etwas tun muss. Bisher bin ich aber ganz zufrieden mit meiner Lösung.&lt;/p&gt;

&lt;h3 id=&quot;kommentare-vorschl-ge-erfahrungsberichte-und-diskussion-&quot;&gt;Kommentare, Vorschläge, Erfahrungsberichte und Diskussion.&lt;/h3&gt;

&lt;p&gt;Das ist meine Lösung.&lt;/p&gt;

&lt;p&gt;Und wie geht ihr mit dem Problem um, sowohl was ggf. gehostete Server oder auch nur die Datenbank eures Blogs betrifft als auch zuhause?&lt;/p&gt;
&lt;img src=&quot;https://ssl-vg03.met.vgwort.de/na/8aafbc2e3fdf477799c60bc73faa2faa&quot; width=&quot;1&quot; height=&quot;1&quot; alt=&quot;&quot;&gt; 
    </content:encoded>

    <pubDate>Mon, 17 Jul 2017 05:45:00 +0000</pubDate>
    <guid isPermaLink="false">https://netz-rettung-recht.de/archives/2002-guid.html</guid>
    <category>backup</category>
<category>heimnetz</category>

</item>
<item>
    <title>Plattentausch im NAS</title>
    <link>https://netz-rettung-recht.de/archives/1978-Plattentausch-im-NAS.html</link>
            <category>Bits'n'Bytes</category>
    
    <comments>https://netz-rettung-recht.de/archives/1978-Plattentausch-im-NAS.html#comments</comments>
    <wfw:comment>https://netz-rettung-recht.de/wfwcomment.php?cid=1978</wfw:comment>

    <slash:comments>1</slash:comments>
    <wfw:commentRss>https://netz-rettung-recht.de/rss.php?version=2.0&amp;type=comments&amp;cid=1978</wfw:commentRss>
    

    <author>nospam@example.com (Thomas Hochstein)</author>
    <content:encoded>
    &lt;p&gt;Das von mir genutzte &lt;em&gt;Synology&lt;/em&gt;-NAS &lt;em&gt;DS 213&lt;/em&gt; ist mittlerweile rund viereinhalb Jahre alt und hat mir seit seiner &lt;a href=&quot;https://netz-rettung-recht.de/archives/1696-Synology-DiskStation-DS213.html&quot; title=&quot;Synology DiskStation DS213 | Netz - Rettung - Recht&quot;&gt;Einrichtung&lt;/a&gt; Ende 2012 gute Dienste geleistet - wobei ich die vielfältigen Möglichkeiten bisher in keiner Weise ausgenutzt habe und das Gerät derzeit nur für Backups des heimischen Servers und aller anderen Rechner nutze.&lt;/p&gt;

&lt;div class=&quot;serendipity_imageComment_center&quot; style=&quot;width: 849px&quot;&gt;&lt;div class=&quot;serendipity_imageComment_img&quot;&gt;&lt;!-- s9ymdb:458 --&gt;&lt;img class=&quot;serendipity_image_center&quot; width=&quot;849&quot; height=&quot;566&quot;  src=&quot;https://netz-rettung-recht.de/uploads/articles/2017/NAS-Symbolbild.jpg&quot;  alt=&quot;NAS - Network Storage Drive&quot;&gt;&lt;/div&gt;&lt;div class=&quot;serendipity_imageComment_txt&quot;&gt;Symbolbild - das ist kein DS213 &amp;#8230;  © blickpixel - Fotolia &lt;/div&gt;&lt;/div&gt;

&lt;p&gt;Bislang verlief das in jeder Hinsicht ereignislos &amp;#8230; bis vergangene Woche plötzlich die erste Platte ohne Vorwarnung aus dem RAID herausfiel, was mich - als ich die Mail erhielt - einigermaßen auf- und das NAS so sehr erschreckte, dass es sogar vergaß, zu piepsen.&lt;/p&gt;

&lt;p&gt;Nach Hause zurückgekehrt nahm ich mich der Sache an und dokterte etwas daran herum, nachdem es den Eindruck machte, dass die Platte nicht defekt, sondern &amp;#8220;nur&amp;#8221; aus dem RAID-Verbund gefallen war. Eine Reinitialisierung des RAIDs ging aber offenbar über die Möglichkeiten der Oberfläche und meine geringen Fähigkeiten auf der via SSH zugänglichen Shell hinaus. Jedenfalls endete die Angelegenheit - nach Entfernung der Platte aus dem RAID via Shell und dem Versuch eines Rebuilds - mit der Meldung, dass die Systeminstallation auf Platte 1 fehlgeschlagen sei.&lt;/p&gt;

&lt;p&gt;Nun gut; Zeit, vielleicht einmal SMART-Tests laufen zu lassen (was aus irgendwelchen Gründen bisher nicht regelmäßig geschah). Zur Platte 1 ergaben sich keine neuen Erkenntnisse - aber dafür war die Platte 2 nach den Tests im &lt;em&gt;Pre-Fail&lt;/em&gt;-Status. Auch gut - bzw. eher nicht. Auch ein Reboot (die letzte Rettung jedes Windows-Nutzers) machte die Sache nicht besser, aber immerhin interessanter, war danach bei manchen Partitionen das RAID in Ordnung, bei anderen die Platte 1 herausgefallen - und bei anderen die Platte 2.&lt;/p&gt;

&lt;p&gt;Bei diesem Stand der Dinge habe ich dann beschlossen, weitere Experimente aufzugeben und die Gelegenheit zu nutzen, den ohnehin oft knappen Speicherplatz von 3&amp;#160;TB auf 4&amp;#160;TB zu erhöhen und statt einer neuen 3-TB-Platte zwei neue 4-TB-Platten bei &lt;a href=&quot;http://arlt.com/&quot; title=&quot;&quot;&gt;ARLT&lt;/a&gt; geordert. Dabei hatte ich dann doch einiger Bedenken, wie aufwendig der Einbau und die Neueinrichtung werden würden. Grundlos, wie sich dann herausstellte.&lt;/p&gt;

&lt;p&gt;Der Einbau erwies sich nämlich letztlich als ebenso trivial wie die Einrichtung des Geräts: die Schlitten mit den beiden Platten ließen sich einfach herausziehen, die Schrauben zur Fixierung der Platten an den Schlitten lösen, die Platten tauschen, die Schlitten wieder einschieben, vorher das doch in den vergangenen Jahren etwas angestaubte Gehäuseinnere durchpusten - fertig. Und die Einschübe sind sogar unverwechselbar gekennzeichnet, so dass ein Plattenwechsel bei einem erneuten Ausfall einer RAID-Platte auch keine Probleme bereiten dürfte. Danach wurde dann die Neuinstallation angestoßen, diesmal direkt alles richtig konfiguriert, einschließlich eines passenden SSL-Zertifikats meiner hauseigenen CA, und danach mussten dann nur noch die Backups angestoßen werden, die dann die nächsten Stunden vor sich hin liefen.&lt;/p&gt;

&lt;p&gt;Überdies habe ich testhalber einmal angefangen, ein Sicherungsverzeichnis in die Amazon-Cloud (Amazon S3) zu syncen, Stichwort Offsite-Backup - ich fürchte aber, das macht bei Backups um die 80-100&amp;#160;GB für jeden Rechner und einem 10-MBit/s-Upstream keinen großen Spaß. Plan B ist daher der ergänzende Erwerb zweier 4-GB-USB-Platten, die ich dann im wöchentlichen Wechsel zur Sicherung des kompletten NAS einzusetzen plane. Die jeweils nicht &amp;#8220;aktive&amp;#8221; Platte muss ich dann nur noch extern verwahren - vielleicht ein Bankschließfach? Oder schlicht die Schreibtischschublade im Büro? Man wird sehen.&lt;/p&gt;

&lt;p&gt;PS: Klar, Festplatten altern - aber sind viereinhalb Jahre für WD-Red-Platten nicht etwas kurz?&lt;/p&gt;
&lt;img src=&quot;https://ssl-vg03.met.vgwort.de/na/d9f4f5952f72415bae0ab12980549465&quot; width=&quot;1&quot; height=&quot;1&quot; alt=&quot;&quot;&gt; 
    </content:encoded>

    <pubDate>Wed, 12 Apr 2017 09:50:00 +0000</pubDate>
    <guid isPermaLink="false">https://netz-rettung-recht.de/archives/1978-guid.html</guid>
    <category>backup</category>
<category>heimnetz</category>
<category>synology</category>

</item>
<item>
    <title>Backups in die Cloud (duply und S3)</title>
    <link>https://netz-rettung-recht.de/archives/1699-Backups-in-die-Cloud-duply-und-S3.html</link>
            <category>Bits'n'Bytes</category>
    
    <comments>https://netz-rettung-recht.de/archives/1699-Backups-in-die-Cloud-duply-und-S3.html#comments</comments>
    <wfw:comment>https://netz-rettung-recht.de/wfwcomment.php?cid=1699</wfw:comment>

    <slash:comments>0</slash:comments>
    <wfw:commentRss>https://netz-rettung-recht.de/rss.php?version=2.0&amp;type=comments&amp;cid=1699</wfw:commentRss>
    

    <author>nospam@example.com (Thomas Hochstein)</author>
    <content:encoded>
    &lt;p&gt;Eigentlich wollte ich schon vor gut drei Jahren, im Januar 2013, über dieses Thema schreiben, als ich die ersten Backup-Jobs dieser Art eingerichtet habe, aber irgendwie ist aus dem angefangenen Entwurf nie ein fertiger Blogeintrag geworden. - Nun denn, auf ein neues.&lt;/p&gt;

&lt;p&gt;Nicht nur der heimische Rechner will regelmäßig gesichert werden; auch bei dedizierten Servern oder vServern ist ein regelmäßiges Backup vonnöten, um im Falle eines Falles nicht ohne (Code und) Daten dazustehen. Früher war es üblich, dass zu einem Server auch ein - meist per FTP zugänglicher - Backupplatz gehörte, der genügend Raum für ein Backup (auch über mehrere Generationen) bot. Mittlerweile müssen solche Angebote aber nicht selten kostenpflichtig hinzugebucht werden oder stehen gar nicht mehr zur Verfügung. Zwar ist es natürlich möglich, die Datensicherung auf einen anderen (eigenen oder fremden) Server durchzuführen, wobei sich die Maschine im heimischen Keller in der Regel wegen der geringen Upload-Bandbreiten nicht anbietet - schließlich will man nicht nur sichern, sondern notfalls auch wiederherstellen können. Eine Alternative ist aber Cloud-Speicher, bspw. Amazons S3 (&lt;em&gt;Simple Storage Service&lt;/em&gt;). Die Kosten sind bei inkrementiellen Backups überschaubar: ein Gigabyte Speicherplatz kostet pro Monat ungefähr 3 Cent, dazu kommen noch geringen Kosten für Zugriffsoperationen in der Größenordnung von einem halben Cent pro 1.000 Zugriffe und für den ausgehenden Traffic - also vor allem für einen Restore - 9 Cent pro GB, jeweils zzgl. MWSt. Wöchentliche inkrementielle Backups mit monatlichen Vollbackups für vier Server kommen auf gut 10$.&lt;/p&gt;

&lt;h3 id=&quot;backup-mit-duply-in-einen-aws-s3-bucket-&quot;&gt;Backup mit &lt;em&gt;duply&lt;/em&gt; in einen &lt;em&gt;AWS&lt;/em&gt; &lt;em&gt;S3&lt;/em&gt;-&amp;#8220;Bucket&amp;#8221;&lt;/h3&gt;

&lt;p&gt;Für verschlüsselte und komprimierte Backups bieten sich &lt;em&gt;duplicity&lt;/em&gt; und &lt;em&gt;duply&lt;/em&gt; an; die grundsätzliche &lt;a href=&quot;https://netz-rettung-recht.de/archives/1651-Backup-mit-duply-und-duplicity.html&quot; title=&quot;&quot;&gt;Einrichtung von duply&lt;/a&gt; habe ich bereits 2011 beschrieben. Zusätzlich benötigen wir für das Cloud-Backup noch dreierlei: einen S3-&amp;#8220;Bucket&amp;#8221;, in dem die Backups landen sollen, Zugangsdaten für diesen &amp;#8220;Bucket&amp;#8221;, und eine Anpassung der &lt;em&gt;duply&lt;/em&gt;-Konfiguration.&lt;/p&gt;

&lt;p&gt;Für die Nutzung der &lt;em&gt;Amazon Web Services&lt;/em&gt; (AWS) ist eine Anmeldung dort erforderlich. Außerdem empfiehlt es sich sehr, nicht mit den Daten des Haupt-Accounts auf unseren S3-&amp;#8220;Bucket&amp;#8221; zuzugreifen, sondern mit einem extra dafür erzeugten Nutzeraccount, der dann auch nur auf diesen &amp;#8220;Bucket&amp;#8221; zugreifen kann. Dazu dient das &lt;em&gt;Identity and Access Management&lt;/em&gt; (IAM).&lt;/p&gt;

&lt;h3 id=&quot;-aws-konfiguration&quot;&gt;&lt;em&gt;AWS&lt;/em&gt;-Konfiguration&lt;/h3&gt;

&lt;p&gt;Fangen wir an mit der Anlage des &lt;em&gt;S3&lt;/em&gt;-Speicherplatzes. Dazu genügt es, in der &lt;em&gt;&lt;a href=&quot;https://console.aws.amazon.com/s3/home&quot; title=&quot;&quot;&gt;S3 Console&lt;/a&gt;&lt;/em&gt; mit Klick auf &lt;code&gt;Create&lt;/code&gt; einen neuen &amp;#8220;Bucket&amp;#8221; anzulegen. Der vergebene Name muss &lt;em&gt;AWS&lt;/em&gt;-weit eindeutig sein, es empfiehlt sich daher etwas in der Form &lt;code&gt;accountname-backup-servername&lt;/code&gt; o.ä. Dabei muss dieser Name eine &lt;strong&gt;gültige Subdomain&lt;/strong&gt; darstellen (vgl. die &lt;a href=&quot;http://docs.aws.amazon.com/AmazonS3/latest/dev/BucketRestrictions.html&quot; title=&quot;301 Moved Permanently&quot;&gt;&lt;em&gt;AWS&lt;/em&gt;-Dokumentation&lt;/a&gt;) und er sollte - um spätere Schwierigkeiten beim Zugriff zu vermeiden - &lt;strong&gt;keine Punkte enthalten&lt;/strong&gt;. (Mit &lt;em&gt;duplicity&lt;/em&gt; und den zugehörigen Libraries unter Debian &lt;em&gt;Wheezy&lt;/em&gt; hatte ich keine Zugriffsprobleme auf Buckets, die Punkte im Namen haben, mit den Versionen in Debian &lt;em&gt;Jessie&lt;/em&gt; jedoch sehr wohl. Better safe than sorry &amp;#8230; ) Außerdem kann die geographische &lt;a href=&quot;http://docs.aws.amazon.com/general/latest/gr/rande.html#s3_region&quot; title=&quot;301 Moved Permanently&quot;&gt;Region&lt;/a&gt; ausgewählt werden, in der der &amp;#8220;Bucket&amp;#8221; angelegt werden soll. Neben Irland ist hier nun auch Frankfurt als Standort auswählbar; für den Zugriff dort wird aber nur die Protokollversion 4 unterstützt, was wiederum zu &lt;a href=&quot;https://raim.codingfarm.de/blog/2015/03/12/backup-with-duply-to-amazon-s3-backendexception-no-connection-to-backend/&quot; title=&quot;301 Moved Permanently&quot;&gt;Schwierigkeiten&lt;/a&gt; führen kann. Ich empfehle daher &lt;code&gt;eu-west-1&lt;/code&gt; (Irland) als Region.&lt;/p&gt;

&lt;p&gt;Jetzt brauchen wir noch einen Benutzer, der auf den Bucket zugreifen kann. Ein solcher lässt sich in der &lt;em&gt;&lt;a href=&quot;https://console.aws.amazon.com/iam/home#users&quot; title=&quot;302 Found&quot;&gt;IAM Console&lt;/a&gt;&lt;/em&gt; anlegen. Die dabei erzeugte &lt;em&gt;Access-Key-ID&lt;/em&gt; und der zugehörige &lt;em&gt;Secret Key&lt;/em&gt; müssen unbedingt heruntergeladen und sicher aufbewahrt werden.&lt;/p&gt;

&lt;p&gt;Danach bekommt der neu erzeugte Benutzer noch eine &lt;em&gt;Policy&lt;/em&gt; mit den nötigen Zugriffsrechten verpasst. Dazu wählen wir ihn in der Benutzerliste aus, wählen den Tab &lt;em&gt;Permissions&lt;/em&gt; an und klicken unter &lt;em&gt;Inline Policies&lt;/em&gt; auf &lt;code&gt;Create User Policy&lt;/code&gt;. Diese Policy sollte dann wie folgt aussehen:&lt;/p&gt;

&lt;pre&gt;&lt;code&gt;{
    &quot;Statement&quot;: [
        {
            &quot;Action&quot;: [
                &quot;s3:ListAllMyBuckets&quot;
            ],
            &quot;Effect&quot;: &quot;Allow&quot;,
            &quot;Resource&quot;: &quot;arn:aws:s3:::*&quot;
        },
        {
            &quot;Action&quot;: &quot;s3:*&quot;,
            &quot;Effect&quot;: &quot;Allow&quot;,
            &quot;Resource&quot;: [
                &quot;arn:aws:s3:::accountname-backup-servername&quot;,
                &quot;arn:aws:s3:::accountname-backup-servername/*&quot;
            ]
        }
    ]
}
&lt;/code&gt;&lt;/pre&gt;

&lt;p&gt;Statt &lt;code&gt;accountname-backup-servername&lt;/code&gt; ist der Name des vorher neu angelegten &lt;em&gt;S3&lt;/em&gt;-Buckets zu verwenden. Dieser Benutzer darf sich also eine Liste aller &amp;#8220;Buckets&amp;#8221; anzeigen lassen und auf den genannten &amp;#8220;Bucket&amp;#8221; und alle Dateien darin zugreifen.&lt;/p&gt;

&lt;h3 id=&quot;-duply-konfiguration&quot;&gt;&lt;em&gt;duply&lt;/em&gt;-Konfiguration&lt;/h3&gt;

&lt;p&gt;&lt;strong&gt;Update&lt;/strong&gt;: Die Beschreibung der Konfiguration gilt für Debian 8.0&amp;#160;&lt;em&gt;Jessie&lt;/em&gt; und Debian 9.0&amp;#160;&lt;em&gt;Stretch&lt;/em&gt;.&lt;/p&gt;

&lt;p&gt;In der &lt;em&gt;duply&lt;/em&gt;-Konfiguration (Datei &lt;code&gt;conf&lt;/code&gt;) treffen wir jetzt noch folgende Einstellungen:&lt;/p&gt;

&lt;pre&gt;&lt;code&gt;TARGET=&#039;s3://s3-eu-west-1.amazonaws.com/accountname-backup-servername&#039;
TARGET_USER=&#039;AccessKeyID&#039;
TARGET_PASS=&#039;SecretAccessKey&#039;
&lt;/code&gt;&lt;/pre&gt;

&lt;p&gt;&lt;strong&gt;Update&lt;/strong&gt;: Ab Debian &lt;em&gt;Stretch&lt;/em&gt; muss es statt &lt;code&gt;TARGET_USER&lt;/code&gt; und &lt;code&gt;TARGET_PASS&lt;/code&gt; wie folgt heißen:&lt;/p&gt;

&lt;pre&gt;&lt;code&gt;export AWS_ACCESS_KEY_ID=&#039;AccessKeyID&#039;
export AWS_SECRET_ACCESS_KEY=&#039;SecretAccessKey&#039;
&lt;/code&gt;&lt;/pre&gt;

&lt;p&gt;Für &lt;code&gt;s3-eu-west-1&lt;/code&gt; (Region Irland), &lt;code&gt;accountname-backup-servername&lt;/code&gt;, &lt;code&gt;AccessKeyID&lt;/code&gt; und &lt;code&gt;SecretAccessKey&lt;/code&gt; sind jeweils die passenden Werte zu verwenden; &lt;code&gt;AccessKeyID&lt;/code&gt; und &lt;code&gt;SecretAccessKey&lt;/code&gt; wurden bei der Einrichtung des &lt;em&gt;IAM&lt;/em&gt;-Benutzers erzeugt.&lt;/p&gt;

&lt;p&gt;Außerdem müssen &lt;em&gt;duplicity&lt;/em&gt; noch einige zusätzliche Parameter übergeben werden:&lt;/p&gt;

&lt;pre&gt;&lt;code&gt;DUPL_PARAMS=&quot;$DUPL_PARAMS --s3-use-new-style --s3-european-buckets --s3-use-multiprocessing &quot;
&lt;/code&gt;&lt;/pre&gt;

&lt;p&gt;&lt;strong&gt;Update&lt;/strong&gt;: Ab Debian &lt;em&gt;Stretch&lt;/em&gt; benötigt auch &lt;em&gt;gpg&lt;/em&gt; zusätzliche Parameter:&lt;/p&gt;

&lt;pre&gt;&lt;code&gt;GPG_OPTS=&#039;--pinentry-mode loopback&#039;
&lt;/code&gt;&lt;/pre&gt;

&lt;p&gt;Jetzt kann der erste Backuplauf mit &lt;code&gt;duply NAME backup&lt;/code&gt; gestartet werden. Nach dem Abschluss des Backup-Laufs finden sich im &amp;#8220;Bucket&amp;#8221; in der &lt;em&gt;S3 Console&lt;/em&gt; die gesicherten Dateien.&lt;/p&gt;

&lt;p&gt;Fertig!&lt;/p&gt;
&lt;img src=&quot;https://ssl-vg03.met.vgwort.de/na/2956ddea7a7a4c24a3bf2a97d746aed9&quot; width=&quot;1&quot; height=&quot;1&quot; alt=&quot;&quot;&gt; 
    </content:encoded>

    <pubDate>Tue, 29 Mar 2016 13:00:00 +0000</pubDate>
    <guid isPermaLink="false">https://netz-rettung-recht.de/archives/1699-guid.html</guid>
    <category>anleitung</category>
<category>aws</category>
<category>backup</category>
<category>duplicity</category>

</item>
<item>
    <title>Synology DiskStation DS213</title>
    <link>https://netz-rettung-recht.de/archives/1696-Synology-DiskStation-DS213.html</link>
            <category>Bits'n'Bytes</category>
    
    <comments>https://netz-rettung-recht.de/archives/1696-Synology-DiskStation-DS213.html#comments</comments>
    <wfw:comment>https://netz-rettung-recht.de/wfwcomment.php?cid=1696</wfw:comment>

    <slash:comments>0</slash:comments>
    <wfw:commentRss>https://netz-rettung-recht.de/rss.php?version=2.0&amp;type=comments&amp;cid=1696</wfw:commentRss>
    

    <author>nospam@example.com (Thomas Hochstein)</author>
    <content:encoded>
    &lt;p&gt;Lange habe ich an einem Backupkonzept für meine heimischen Rechner gearbeitet. Wichtige Voraussetzung war dabei immer eine möglichst niedrige Hemmschwelle, das Backup auch wirklich laufen zu lassen. Softwareseitig bin ich über die Jahre bei &lt;em&gt;TrueImage&lt;/em&gt; gelandet; hardwareseitig hatte ich verschiedene Varianten durchprobiert: mal auf eine zweite Festplatte, dann hatte ich ein &lt;del&gt;bill&lt;/del&gt; preisgünstiges NAS besorgt, das aber ein so störendes Laufgeräusch produzierte, dass an einen Dauerbetrieb nicht zu denken war. Dann hatte ich eine ganze Zeit jeweils eine große 1-TB-Platte für den Heimserver einer- und für Desktop und Laptop andererseits; ganz nett, aber nach einiger Zeit hatten die Platten überraschend viele Fehler, und die über USB an den Heimserver angekoppelte Festplatte führte dazu, dass beim Reboot der Kernel nicht gefunden wurde (ohne dass ich bei drei oder vier umfangreichen Debug-Anläufen den Grund dafür gefunden hätte).&lt;/p&gt;

&lt;p&gt;Mitte November letzten Jahres habe ich dann - inspiriert u.a. durch &lt;a href=&quot;http://blog.rince.de/archives/738-Meine-Erfahrungen-mit-Synology.html&quot; title=&quot;301 Moved Permanently&quot;&gt;Rince&lt;/a&gt; - beschlossen, endlich einmal etwas Geld in die Hand zu nehmen und eine richtige Lösung zu finden. So traf denn eine Woche nach dem verlinkten Blogbeitrag eine Synology &lt;strong&gt;DiskStation DS213&lt;/strong&gt; bei mir ein - und ich bin sehr zufrieden. Obschon ich sie letztlich nur als &amp;#8220;Datengrab&amp;#8221; nutze und die vielen sonstigen Features gar nicht ausprobiert habe, arbeitet sie zuverlässig, extrem leise, mit Stromsparmodus und &amp;#8220;Wakeup&amp;#8221; beim Datenzugriff über das Netzwerk sehr flott (Gigabit-LAN) und bietet eine solche Menge an Erweiterungsoptionen, dass ich wahrscheinlich noch jahrelang damit spielen kann. &lt;img src=&quot;https://netz-rettung-recht.de/plugins/serendipity_event_emoticate/img/emoticons/smile.png&quot; alt=&quot;:-)&quot; class=&quot;emoticon&quot; /&gt;&lt;/p&gt;

&lt;p&gt;Insgesamt eine lohnende Investition, auch wenn das fertige Paket aus der &lt;em&gt;DiskStation&lt;/em&gt; und zwei WD &amp;#8220;Red&amp;#8221; 3-TB-Platten durchaus nicht umsonst zu haben war. Ich bin damit dennoch sehr zufrieden und kann das nur empfehlen.&lt;/p&gt;

&lt;p&gt;&lt;em&gt;[Dieser Eintrag wurde nachträglich im Mai 2014 veröffentlicht.]&lt;/em&gt;&lt;/p&gt;
&lt;img src=&quot;https://ssl-vg03.met.vgwort.de/na/b3aeee40baca417d8f49b4f8ba387184&quot; width=&quot;1&quot; height=&quot;1&quot; alt=&quot;&quot;&gt; 
    </content:encoded>

    <pubDate>Sat, 12 Jan 2013 19:17:00 +0000</pubDate>
    <guid isPermaLink="false">https://netz-rettung-recht.de/archives/1696-guid.html</guid>
    <category>Backup</category>
<category>Synology</category>

</item>
<item>
    <title>Backup mit duply und duplicity</title>
    <link>https://netz-rettung-recht.de/archives/1651-Backup-mit-duply-und-duplicity.html</link>
            <category>Bits'n'Bytes</category>
    
    <comments>https://netz-rettung-recht.de/archives/1651-Backup-mit-duply-und-duplicity.html#comments</comments>
    <wfw:comment>https://netz-rettung-recht.de/wfwcomment.php?cid=1651</wfw:comment>

    <slash:comments>0</slash:comments>
    <wfw:commentRss>https://netz-rettung-recht.de/rss.php?version=2.0&amp;type=comments&amp;cid=1651</wfw:commentRss>
    

    <author>nospam@example.com (Thomas Hochstein)</author>
    <content:encoded>
    &lt;blockquote&gt; 
&lt;p&gt;Niemand will Backup. Alle wollen Restore.&lt;/p&gt; 
&lt;/blockquote&gt;

&lt;p align=&quot;right&quot;&gt;&lt;em&gt;(&lt;a href=&quot;http://kris.koehntopp.de/&quot; title=&quot;301 Moved Permanently&quot;&gt;Kristian Köhntopp&lt;/a&gt; zitiert einen Vertriebler - &lt;a href=&quot;http://www.iks-jena.de/mitarb/lutz/usenet/Fachbegriffe.der.Informatik.html&quot; title=&quot;302 Found&quot;&gt;Fachbegriffe der Informatik&lt;/a&gt; #125)&lt;/em&gt;&lt;br /&gt;&lt;/p&gt;

&lt;p&gt;Regelmäßige Backups sind wichtig und auch durch redundante Systeme wie RAIDs nicht zu ersetzen; ganz abgesehen davon, daß bei einem RAID 1 gerne die - meistens ja zum selben Zeitpunkt wie die erste in Betrieb genommene - zweite Platte beim notwendigen Rebuild zusammenbricht, schützt ein RAID auch nur gegen Datenverlust durch Ausfall einer Festplatte, aber weder gegen versehentliches oder böswilliges Löschen, Überschreiben oder Verändern von Daten, noch kann es gegen einen fatalen Schaden des gesamten Systems (Brand, Diebstahl, &amp;#8230;) schützen. Backups sollten daher&lt;/p&gt;

&lt;ul&gt; 
&lt;li&gt;regelmäßig durchgeführt werden,&lt;/li&gt; 
&lt;li&gt;versioniert sein (so daß man einen längeren Zeitraum zurückgehen kann) und&lt;br /&gt;&lt;/li&gt; 
&lt;li&gt;off-site transferiert werden können.&lt;/li&gt; 
&lt;/ul&gt;

&lt;p&gt;Zumindest dann, wenn man keine Kontrolle über die Infrastruktur hat, auf der die Backups gespeichert und über die sie transportiert werden, sollten Backups auch verschlüsselt sein. Diese letzte Anforderung ist typisch für sog. &amp;quot;Rootserver&amp;quot;, also Mietserver, zu denen bei üblichen Angeboten auch ein sog. &amp;quot;Backupspace&amp;quot;, also Speicherplatz auf einem Storage gehört, auf den zumeist nur per (unverschlüsseltem) FTP zugegriffen werden kann. Selbst wenn man dem Provider und seinen Mitarbeitern vertraut, kann man nicht ausschließen, daß auch Dritte - andere Kunden, &amp;#8230; - zumindest den unverschlüsselten Datenverkehr zwischen dem zu sichernden Server und dem Storage &amp;quot;belauschen&amp;quot; können. Wenn man seine Backups also unverschlüsselt überspielt, kann die gesamte Konfiguration samt aller Paßworte usw. usf. mitgelesen werden.&lt;/p&gt;

&lt;p&gt;Schließlich gibt es eine letzte Anforderung für sinnvolle Backups: sie sollten, einmal eingerichtet, möglichst wenig Aufwand bedeuten, optimalerweise automatisiert sein, denn nur dann werden sie auch wirklich regelmäßig durchgeführt.&lt;/p&gt;

&lt;p&gt;Alle zuvor genannten Anforderungen erfüllt das Tool &lt;a href=&quot;http://duplicity.nongnu.org/&quot; title=&quot;&quot;&gt;&lt;strong&gt;duplicity&lt;/strong&gt;&lt;/a&gt;, für das die c&amp;#8217;t bereits anno 2006 ein Frontend namens &lt;a href=&quot;http://www.heise.de/security/artikel/Hinter-Schloss-und-Siegel-270834.html&quot; title=&quot;301 Moved Permanently&quot;&gt;&lt;strong&gt;ftplicity&lt;/strong&gt;&lt;/a&gt; entwickelt hat, das nunmehr unter dem Namen &lt;a href=&quot;http://duply.net/&quot; title=&quot;&quot;&gt;&lt;strong&gt;duply&lt;/strong&gt;&lt;/a&gt; weiterentwickelt wird. &lt;strong&gt;duply&lt;/strong&gt; unterscheidet sich u.a. dadurch von &lt;strong&gt;ftplicity&lt;/strong&gt;, daß es nicht nur die Konfiguration der Übertragung via FTP unterstützt, sondern auch auf anderem Weg (was dann auch die Namensänderung erklärt).&lt;/p&gt;

&lt;p&gt; &lt;strong&gt;duplicity&lt;/strong&gt; sichert Dateien und Verzeichnisse in (nicht gepackte!) &lt;em&gt;tar&lt;/em&gt;-Archive, verschlüsselt diese vermittels &lt;em&gt;GnuPG&lt;/em&gt; und überträgt die Sicherungen in kleinen Häppchen auf verschiedenen Wegen (lokal, FTP, SCP, rsync, &amp;#8230;) auf das Sicherungsmedium; dabei werden inkrementielle Backups über den &lt;em&gt;rsync&lt;/em&gt;-Algorithmus erstellt, d.h. nicht alle veränderten Dateien gesichert, sondern ggf. nur ein diff, was wiederum Platz und Bandbreite spart. &lt;strong&gt;duplicity&lt;/strong&gt; dürfte in den meisten Distributionen paketiert sein, &lt;strong&gt;duply&lt;/strong&gt; ist es in Debian ab Squeeze, kann aber in jedem Fall trivial installiert werden.&lt;br /&gt;&lt;/p&gt;

&lt;p&gt;Eine mögliche Umsetzung für einen Mietserver sieht - unter Debian Lenny - so aus:&lt;/p&gt;

&lt;ul&gt; 
&lt;li&gt;&lt;em&gt;duplicity &lt;/em&gt;und &lt;em&gt;ncftp &lt;/em&gt;installieren: &lt;code&gt;aptitude -r install duplicity ncftp&lt;/code&gt;&lt;br /&gt;&lt;/li&gt; 
&lt;/ul&gt;

&lt;ul&gt; 
&lt;li&gt;&lt;em&gt;duply &lt;/em&gt;(in &lt;em&gt;/usr/local/bin&lt;/em&gt;) installieren:&lt;/li&gt; 
&lt;/ul&gt;

&lt;pre&gt;&lt;code&gt;cd /tmp
wget -O duply_1.5.4.2.tgz http://sourceforge.net/projects/ftplicity/files/duply%20%28simple%20duplicity%29/1.5.x/duply_1.5.4.2.tgz/download
tar -xzf duply_1.5.4.2.tgz 
cp duply_1.5.4.2/duply /usr/local/bin/
rm duply_1.5.4.2.tgz 
rm -r duply_1.5.4.2
&lt;/code&gt;&lt;/pre&gt;

&lt;ul&gt; 
&lt;li&gt;Alternativ (Debian Squeeze): &lt;code&gt;aptitude -r install duply&lt;/code&gt;&lt;/li&gt;
&lt;/ul&gt;

&lt;ul&gt;
&lt;li&gt;Da der gesamte Server gesichert werden soll, läuft der Backupprozess am besten mit Root-Rechten. Wir brauchen jetzt also einen GPG-Key für &lt;em&gt;root &lt;/em&gt;und richten dann das Backup ein:&lt;/li&gt;
&lt;/ul&gt;

&lt;pre&gt;&lt;code&gt;cd /root
gpg --gen-key
&lt;/code&gt;&lt;/pre&gt;

&lt;ul&gt; 
&lt;li&gt;Wenn nicht genug Entropie vorhanden ist, um den Key zu erzeugen, empfiehlt es sich, bspw. durch mehrere größere Downloads für Netzwerkverkehr und Belastung der Festplatten zu sorgen, um den Pool aufzufüllen. Key-ID und Paßwort des erzeugten Schlüssels benötigt man im nächsten Schritt zur Einrichtung des Backups; der Name des Backups kann frei gewählt werden:&lt;br /&gt;&lt;/li&gt; 
&lt;/ul&gt;

&lt;pre&gt;&lt;code&gt;duply *NAME* create
vim .duply/*NAME*/conf
&lt;/code&gt;&lt;/pre&gt;

&lt;ul&gt; 
&lt;li&gt;In der Konfigurationsdatei sind nun zumindest einzutragen
&lt;ul&gt; 
&lt;li&gt;die ID des erzeugten GPG-Schlüssels (GPG_KEY),&lt;/li&gt; 
&lt;li&gt;das Paßwort desselben (GPG_PW),&lt;/li&gt; 
&lt;li&gt;das Backup-Ziel (FTP-Server und ggf. Verzeichnis, Benutzername, Kennwort: TARGET, TARGET_USER, TARGET_PASS) und&lt;br /&gt;&lt;/li&gt; 
&lt;li&gt;den Pfad, der gesichert werden soll (im Zweifel &amp;quot;/&amp;quot;: SOURCE).&lt;/li&gt; 
&lt;/ul&gt; 
&lt;p&gt;Für die Einzelheiten und fortgeschrittene Konfigurationsmöglichkeiten sei auf die Kommentare innerhalb der Datei und die Dokumentation von &lt;strong&gt;duplicity &lt;/strong&gt;und &lt;strong&gt;duply &lt;/strong&gt;verwiesen.&lt;/p&gt; 
&lt;/li&gt; 
&lt;/ul&gt;

&lt;ul&gt; 
&lt;li&gt;Als nächstes erstellt man eine Liste der Dateien, die nicht gesichert werden sollen, die mindestens spezielle Verzeichnisse wie &lt;em&gt;/dev&lt;/em&gt; und &lt;em&gt;/proc&lt;/em&gt; enthalten sollte: &lt;code&gt;vim .duply/&lt;em&gt;NAME&lt;/em&gt;/exclude&lt;/code&gt;&lt;/li&gt; 
&lt;/ul&gt;

&lt;pre&gt;&lt;code&gt;/dev/\*
/proc/\*
/sys/\*
/tmp/\*
/var/tmp/\*
/var/run/\*
&lt;/code&gt;&lt;/pre&gt;

&lt;ul&gt; 
&lt;li&gt;Danach kann man noch Scripts hinterlegen, die vor oder nach dem Backuplauf ausgeführt werden; bspw. kann es sich vor dem Backup empfehlen, Datenbanken zu dumpen. Diese Scripts heißen dementspechend &lt;em&gt;pre &lt;/em&gt;und &lt;em&gt;post&lt;/em&gt;, können zum Beispiel Shellscripts sein und müssen
&lt;ul&gt; 
&lt;li&gt;ausführbar sein (&lt;code&gt;chmod 700 .duply/&lt;em&gt;NAME&lt;/em&gt;/pre&lt;/code&gt;) und&lt;/li&gt; 
&lt;li&gt;einen entsprechenden &lt;em&gt;shebang&lt;/em&gt; (&lt;code&gt;#!/bin/bash&lt;/code&gt;) enthalten.&lt;/li&gt; 
&lt;/ul&gt; 
&lt;/li&gt; 
&lt;/ul&gt;

&lt;ul&gt; 
&lt;li&gt;Wenn das alles paßt, kann man nunmehr sein erstes Backup starten: &lt;code&gt;duply *NAME* backup&lt;/code&gt;&lt;/li&gt; 
&lt;/ul&gt;

&lt;ul&gt; 
&lt;li&gt;Danach sollte man das komplette Verzeichnis &lt;em&gt;.duply&lt;/em&gt; (das dann auch eine Kopie des GPG-Schlüssels enthält) sichern (nicht auf den Backupspace, sondern an einen sicheren Ort!).&lt;/li&gt; 
&lt;/ul&gt;

&lt;ul&gt; 
&lt;li&gt;Schließlich kann man noch in die Crontab von &lt;em&gt;root &lt;/em&gt;einen entsprechenden Eintrag einfügen:&lt;/li&gt; 
&lt;/ul&gt;

&lt;pre&gt;&lt;code&gt;00 5 \* \* \* /usr/local/bin/duply *NAME* backup
00 6 1 \* \* /usr/local/bin/duply *NAME* full &amp;amp;&amp;amp; /usr/local/bin/duply *NAME* purge --force
&lt;/code&gt;&lt;/pre&gt;

&lt;p&gt;Fertig. Viel Erfolg!&lt;/p&gt;

&lt;p&gt;In gleicher Weise ist es möglich, weitere Backups zu definieren, die bspw. nur &lt;em&gt;/home&lt;/em&gt; oder &lt;em&gt;/etc&lt;/em&gt; (oder &lt;em&gt;/var/mail&lt;/em&gt; &amp;#8230;) sichern, das dann aber häufiger.&lt;br /&gt;&lt;/p&gt;
&lt;img src=&quot;https://ssl-vg03.met.vgwort.de/na/e81d1c90a31742309274463dbf58bd3d&quot; width=&quot;1&quot; height=&quot;1&quot; alt=&quot;&quot;&gt; 
    </content:encoded>

    <pubDate>Thu, 13 Jan 2011 17:18:15 +0000</pubDate>
    <guid isPermaLink="false">https://netz-rettung-recht.de/archives/1651-guid.html</guid>
    <category>anleitung</category>
<category>Backup</category>
<category>debian</category>
<category>duplicity</category>
<category>lenny</category>
<category>linux</category>

</item>
<item>
    <title>Backup und Backupkonzepte</title>
    <link>https://netz-rettung-recht.de/archives/1256-Backup-und-Backupkonzepte.html</link>
            <category>Bits'n'Bytes</category>
    
    <comments>https://netz-rettung-recht.de/archives/1256-Backup-und-Backupkonzepte.html#comments</comments>
    <wfw:comment>https://netz-rettung-recht.de/wfwcomment.php?cid=1256</wfw:comment>

    <slash:comments>0</slash:comments>
    <wfw:commentRss>https://netz-rettung-recht.de/rss.php?version=2.0&amp;type=comments&amp;cid=1256</wfw:commentRss>
    

    <author>nospam@example.com (Thomas Hochstein)</author>
    <content:encoded>
    &lt;p&gt;Die vergangene Woche war für manchen Online-Anbieter eine ganz schwarze. Nicht nur, daß in den Webserver der &lt;a href=&quot;http://www.dlrg.de/&quot; title=&quot;301 Moved Permanently&quot;&gt;DLRG&lt;/a&gt; eingebrochen wurde und die dort vorhandenen Daten samt des Backups mutwillig gelöscht wurden, einen kleinen Anbieter von Internetzugängen und -diensten auf im wesentlichen ehrenamtlicher Vereinsbasis hat es noch härter gebeutelt: in das von &lt;a href=&quot;http://www.bawue.net/&quot; title=&quot;302 Found&quot;&gt;bawue.net&lt;/a&gt; mitgenutzte Rechenzentrum wurde eingebrochen und in erheblichem Umfang Technik entwendet oder mutwillig zerstört. Ein kompletter Ausfall der Dienste, teilweise über Tage, und erheblicher Datenverlust war die Folge, von immenser, nächtelanger Arbeit für das Admin-Team ganz zu schweigen. &lt;img src=&quot;https://netz-rettung-recht.de/plugins/serendipity_event_emoticate/img/emoticons/sad.png&quot; alt=&quot;:-(&quot; class=&quot;emoticon&quot; /&gt;&lt;/p&gt;

&lt;p&gt;Leider wieder ein sehr trauriger Anlaß zur Mahnung und zum Überdenken des eigenen Backupkonzeptes. Der &amp;quot;worst case&amp;quot; ist oft &amp;quot;worse&amp;quot;, als man denken würde.&lt;/p&gt;
 
    </content:encoded>

    <pubDate>Sat, 28 Oct 2006 19:57:00 +0000</pubDate>
    <guid isPermaLink="false">https://netz-rettung-recht.de/archives/1256-guid.html</guid>
    <category>Backup</category>
<category>bawue.net</category>

</item>

</channel>
</rss>
