<?xml version="1.0" encoding="utf-8" ?>

<rss version="2.0" 
   xmlns:rdf="http://www.w3.org/1999/02/22-rdf-syntax-ns#"
   xmlns:admin="http://webns.net/mvcb/"
   xmlns:dc="http://purl.org/dc/elements/1.1/"
   xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
   xmlns:wfw="http://wellformedweb.org/CommentAPI/"
   xmlns:content="http://purl.org/rss/1.0/modules/content/"
   >
<channel>
    
    <title>Netz - Rettung - Recht (Artikel mit Tag duplicity)</title>
    <link>https://netz-rettung-recht.de/</link>
    <description>Bloggen seit Juni 2003</description>
    <dc:language>de</dc:language>
    <generator>Serendipity 2.5.0 - http://www.s9y.org/</generator>
    <pubDate>Wed, 22 Apr 2020 07:46:05 GMT</pubDate>

    <image>
    <url>https://netz-rettung-recht.de/templates/2k11/img/s9y_banner_small.png</url>
    <title>RSS: Netz - Rettung - Recht - Bloggen seit Juni 2003</title>
    <link>https://netz-rettung-recht.de/</link>
    <width>100</width>
    <height>21</height>
</image>

<item>
    <title>Backups in die Cloud (duply und S3)</title>
    <link>https://netz-rettung-recht.de/archives/1699-Backups-in-die-Cloud-duply-und-S3.html</link>
            <category>Bits'n'Bytes</category>
    
    <comments>https://netz-rettung-recht.de/archives/1699-Backups-in-die-Cloud-duply-und-S3.html#comments</comments>
    <wfw:comment>https://netz-rettung-recht.de/wfwcomment.php?cid=1699</wfw:comment>

    <slash:comments>0</slash:comments>
    <wfw:commentRss>https://netz-rettung-recht.de/rss.php?version=2.0&amp;type=comments&amp;cid=1699</wfw:commentRss>
    

    <author>nospam@example.com (Thomas Hochstein)</author>
    <content:encoded>
    &lt;p&gt;Eigentlich wollte ich schon vor gut drei Jahren, im Januar 2013, über dieses Thema schreiben, als ich die ersten Backup-Jobs dieser Art eingerichtet habe, aber irgendwie ist aus dem angefangenen Entwurf nie ein fertiger Blogeintrag geworden. - Nun denn, auf ein neues.&lt;/p&gt;

&lt;p&gt;Nicht nur der heimische Rechner will regelmäßig gesichert werden; auch bei dedizierten Servern oder vServern ist ein regelmäßiges Backup vonnöten, um im Falle eines Falles nicht ohne (Code und) Daten dazustehen. Früher war es üblich, dass zu einem Server auch ein - meist per FTP zugänglicher - Backupplatz gehörte, der genügend Raum für ein Backup (auch über mehrere Generationen) bot. Mittlerweile müssen solche Angebote aber nicht selten kostenpflichtig hinzugebucht werden oder stehen gar nicht mehr zur Verfügung. Zwar ist es natürlich möglich, die Datensicherung auf einen anderen (eigenen oder fremden) Server durchzuführen, wobei sich die Maschine im heimischen Keller in der Regel wegen der geringen Upload-Bandbreiten nicht anbietet - schließlich will man nicht nur sichern, sondern notfalls auch wiederherstellen können. Eine Alternative ist aber Cloud-Speicher, bspw. Amazons S3 (&lt;em&gt;Simple Storage Service&lt;/em&gt;). Die Kosten sind bei inkrementiellen Backups überschaubar: ein Gigabyte Speicherplatz kostet pro Monat ungefähr 3 Cent, dazu kommen noch geringen Kosten für Zugriffsoperationen in der Größenordnung von einem halben Cent pro 1.000 Zugriffe und für den ausgehenden Traffic - also vor allem für einen Restore - 9 Cent pro GB, jeweils zzgl. MWSt. Wöchentliche inkrementielle Backups mit monatlichen Vollbackups für vier Server kommen auf gut 10$.&lt;/p&gt;

&lt;h3 id=&quot;backup-mit-duply-in-einen-aws-s3-bucket-&quot;&gt;Backup mit &lt;em&gt;duply&lt;/em&gt; in einen &lt;em&gt;AWS&lt;/em&gt; &lt;em&gt;S3&lt;/em&gt;-&amp;#8220;Bucket&amp;#8221;&lt;/h3&gt;

&lt;p&gt;Für verschlüsselte und komprimierte Backups bieten sich &lt;em&gt;duplicity&lt;/em&gt; und &lt;em&gt;duply&lt;/em&gt; an; die grundsätzliche &lt;a href=&quot;https://netz-rettung-recht.de/archives/1651-Backup-mit-duply-und-duplicity.html&quot; title=&quot;&quot;&gt;Einrichtung von duply&lt;/a&gt; habe ich bereits 2011 beschrieben. Zusätzlich benötigen wir für das Cloud-Backup noch dreierlei: einen S3-&amp;#8220;Bucket&amp;#8221;, in dem die Backups landen sollen, Zugangsdaten für diesen &amp;#8220;Bucket&amp;#8221;, und eine Anpassung der &lt;em&gt;duply&lt;/em&gt;-Konfiguration.&lt;/p&gt;

&lt;p&gt;Für die Nutzung der &lt;em&gt;Amazon Web Services&lt;/em&gt; (AWS) ist eine Anmeldung dort erforderlich. Außerdem empfiehlt es sich sehr, nicht mit den Daten des Haupt-Accounts auf unseren S3-&amp;#8220;Bucket&amp;#8221; zuzugreifen, sondern mit einem extra dafür erzeugten Nutzeraccount, der dann auch nur auf diesen &amp;#8220;Bucket&amp;#8221; zugreifen kann. Dazu dient das &lt;em&gt;Identity and Access Management&lt;/em&gt; (IAM).&lt;/p&gt;

&lt;h3 id=&quot;-aws-konfiguration&quot;&gt;&lt;em&gt;AWS&lt;/em&gt;-Konfiguration&lt;/h3&gt;

&lt;p&gt;Fangen wir an mit der Anlage des &lt;em&gt;S3&lt;/em&gt;-Speicherplatzes. Dazu genügt es, in der &lt;em&gt;&lt;a href=&quot;https://console.aws.amazon.com/s3/home&quot; title=&quot;&quot;&gt;S3 Console&lt;/a&gt;&lt;/em&gt; mit Klick auf &lt;code&gt;Create&lt;/code&gt; einen neuen &amp;#8220;Bucket&amp;#8221; anzulegen. Der vergebene Name muss &lt;em&gt;AWS&lt;/em&gt;-weit eindeutig sein, es empfiehlt sich daher etwas in der Form &lt;code&gt;accountname-backup-servername&lt;/code&gt; o.ä. Dabei muss dieser Name eine &lt;strong&gt;gültige Subdomain&lt;/strong&gt; darstellen (vgl. die &lt;a href=&quot;http://docs.aws.amazon.com/AmazonS3/latest/dev/BucketRestrictions.html&quot; title=&quot;301 Moved Permanently&quot;&gt;&lt;em&gt;AWS&lt;/em&gt;-Dokumentation&lt;/a&gt;) und er sollte - um spätere Schwierigkeiten beim Zugriff zu vermeiden - &lt;strong&gt;keine Punkte enthalten&lt;/strong&gt;. (Mit &lt;em&gt;duplicity&lt;/em&gt; und den zugehörigen Libraries unter Debian &lt;em&gt;Wheezy&lt;/em&gt; hatte ich keine Zugriffsprobleme auf Buckets, die Punkte im Namen haben, mit den Versionen in Debian &lt;em&gt;Jessie&lt;/em&gt; jedoch sehr wohl. Better safe than sorry &amp;#8230; ) Außerdem kann die geographische &lt;a href=&quot;http://docs.aws.amazon.com/general/latest/gr/rande.html#s3_region&quot; title=&quot;301 Moved Permanently&quot;&gt;Region&lt;/a&gt; ausgewählt werden, in der der &amp;#8220;Bucket&amp;#8221; angelegt werden soll. Neben Irland ist hier nun auch Frankfurt als Standort auswählbar; für den Zugriff dort wird aber nur die Protokollversion 4 unterstützt, was wiederum zu &lt;a href=&quot;https://raim.codingfarm.de/blog/2015/03/12/backup-with-duply-to-amazon-s3-backendexception-no-connection-to-backend/&quot; title=&quot;301 Moved Permanently&quot;&gt;Schwierigkeiten&lt;/a&gt; führen kann. Ich empfehle daher &lt;code&gt;eu-west-1&lt;/code&gt; (Irland) als Region.&lt;/p&gt;

&lt;p&gt;Jetzt brauchen wir noch einen Benutzer, der auf den Bucket zugreifen kann. Ein solcher lässt sich in der &lt;em&gt;&lt;a href=&quot;https://console.aws.amazon.com/iam/home#users&quot; title=&quot;302 Found&quot;&gt;IAM Console&lt;/a&gt;&lt;/em&gt; anlegen. Die dabei erzeugte &lt;em&gt;Access-Key-ID&lt;/em&gt; und der zugehörige &lt;em&gt;Secret Key&lt;/em&gt; müssen unbedingt heruntergeladen und sicher aufbewahrt werden.&lt;/p&gt;

&lt;p&gt;Danach bekommt der neu erzeugte Benutzer noch eine &lt;em&gt;Policy&lt;/em&gt; mit den nötigen Zugriffsrechten verpasst. Dazu wählen wir ihn in der Benutzerliste aus, wählen den Tab &lt;em&gt;Permissions&lt;/em&gt; an und klicken unter &lt;em&gt;Inline Policies&lt;/em&gt; auf &lt;code&gt;Create User Policy&lt;/code&gt;. Diese Policy sollte dann wie folgt aussehen:&lt;/p&gt;

&lt;pre&gt;&lt;code&gt;{
    &quot;Statement&quot;: [
        {
            &quot;Action&quot;: [
                &quot;s3:ListAllMyBuckets&quot;
            ],
            &quot;Effect&quot;: &quot;Allow&quot;,
            &quot;Resource&quot;: &quot;arn:aws:s3:::*&quot;
        },
        {
            &quot;Action&quot;: &quot;s3:*&quot;,
            &quot;Effect&quot;: &quot;Allow&quot;,
            &quot;Resource&quot;: [
                &quot;arn:aws:s3:::accountname-backup-servername&quot;,
                &quot;arn:aws:s3:::accountname-backup-servername/*&quot;
            ]
        }
    ]
}
&lt;/code&gt;&lt;/pre&gt;

&lt;p&gt;Statt &lt;code&gt;accountname-backup-servername&lt;/code&gt; ist der Name des vorher neu angelegten &lt;em&gt;S3&lt;/em&gt;-Buckets zu verwenden. Dieser Benutzer darf sich also eine Liste aller &amp;#8220;Buckets&amp;#8221; anzeigen lassen und auf den genannten &amp;#8220;Bucket&amp;#8221; und alle Dateien darin zugreifen.&lt;/p&gt;

&lt;h3 id=&quot;-duply-konfiguration&quot;&gt;&lt;em&gt;duply&lt;/em&gt;-Konfiguration&lt;/h3&gt;

&lt;p&gt;&lt;strong&gt;Update&lt;/strong&gt;: Die Beschreibung der Konfiguration gilt für Debian 8.0&amp;#160;&lt;em&gt;Jessie&lt;/em&gt; und Debian 9.0&amp;#160;&lt;em&gt;Stretch&lt;/em&gt;.&lt;/p&gt;

&lt;p&gt;In der &lt;em&gt;duply&lt;/em&gt;-Konfiguration (Datei &lt;code&gt;conf&lt;/code&gt;) treffen wir jetzt noch folgende Einstellungen:&lt;/p&gt;

&lt;pre&gt;&lt;code&gt;TARGET=&#039;s3://s3-eu-west-1.amazonaws.com/accountname-backup-servername&#039;
TARGET_USER=&#039;AccessKeyID&#039;
TARGET_PASS=&#039;SecretAccessKey&#039;
&lt;/code&gt;&lt;/pre&gt;

&lt;p&gt;&lt;strong&gt;Update&lt;/strong&gt;: Ab Debian &lt;em&gt;Stretch&lt;/em&gt; muss es statt &lt;code&gt;TARGET_USER&lt;/code&gt; und &lt;code&gt;TARGET_PASS&lt;/code&gt; wie folgt heißen:&lt;/p&gt;

&lt;pre&gt;&lt;code&gt;export AWS_ACCESS_KEY_ID=&#039;AccessKeyID&#039;
export AWS_SECRET_ACCESS_KEY=&#039;SecretAccessKey&#039;
&lt;/code&gt;&lt;/pre&gt;

&lt;p&gt;Für &lt;code&gt;s3-eu-west-1&lt;/code&gt; (Region Irland), &lt;code&gt;accountname-backup-servername&lt;/code&gt;, &lt;code&gt;AccessKeyID&lt;/code&gt; und &lt;code&gt;SecretAccessKey&lt;/code&gt; sind jeweils die passenden Werte zu verwenden; &lt;code&gt;AccessKeyID&lt;/code&gt; und &lt;code&gt;SecretAccessKey&lt;/code&gt; wurden bei der Einrichtung des &lt;em&gt;IAM&lt;/em&gt;-Benutzers erzeugt.&lt;/p&gt;

&lt;p&gt;Außerdem müssen &lt;em&gt;duplicity&lt;/em&gt; noch einige zusätzliche Parameter übergeben werden:&lt;/p&gt;

&lt;pre&gt;&lt;code&gt;DUPL_PARAMS=&quot;$DUPL_PARAMS --s3-use-new-style --s3-european-buckets --s3-use-multiprocessing &quot;
&lt;/code&gt;&lt;/pre&gt;

&lt;p&gt;&lt;strong&gt;Update&lt;/strong&gt;: Ab Debian &lt;em&gt;Stretch&lt;/em&gt; benötigt auch &lt;em&gt;gpg&lt;/em&gt; zusätzliche Parameter:&lt;/p&gt;

&lt;pre&gt;&lt;code&gt;GPG_OPTS=&#039;--pinentry-mode loopback&#039;
&lt;/code&gt;&lt;/pre&gt;

&lt;p&gt;Jetzt kann der erste Backuplauf mit &lt;code&gt;duply NAME backup&lt;/code&gt; gestartet werden. Nach dem Abschluss des Backup-Laufs finden sich im &amp;#8220;Bucket&amp;#8221; in der &lt;em&gt;S3 Console&lt;/em&gt; die gesicherten Dateien.&lt;/p&gt;

&lt;p&gt;Fertig!&lt;/p&gt;
&lt;img src=&quot;https://ssl-vg03.met.vgwort.de/na/2956ddea7a7a4c24a3bf2a97d746aed9&quot; width=&quot;1&quot; height=&quot;1&quot; alt=&quot;&quot;&gt; 
    </content:encoded>

    <pubDate>Tue, 29 Mar 2016 13:00:00 +0000</pubDate>
    <guid isPermaLink="false">https://netz-rettung-recht.de/archives/1699-guid.html</guid>
    <category>anleitung</category>
<category>aws</category>
<category>backup</category>
<category>duplicity</category>

</item>
<item>
    <title>Backup mit duply und duplicity</title>
    <link>https://netz-rettung-recht.de/archives/1651-Backup-mit-duply-und-duplicity.html</link>
            <category>Bits'n'Bytes</category>
    
    <comments>https://netz-rettung-recht.de/archives/1651-Backup-mit-duply-und-duplicity.html#comments</comments>
    <wfw:comment>https://netz-rettung-recht.de/wfwcomment.php?cid=1651</wfw:comment>

    <slash:comments>0</slash:comments>
    <wfw:commentRss>https://netz-rettung-recht.de/rss.php?version=2.0&amp;type=comments&amp;cid=1651</wfw:commentRss>
    

    <author>nospam@example.com (Thomas Hochstein)</author>
    <content:encoded>
    &lt;blockquote&gt; 
&lt;p&gt;Niemand will Backup. Alle wollen Restore.&lt;/p&gt; 
&lt;/blockquote&gt;

&lt;p align=&quot;right&quot;&gt;&lt;em&gt;(&lt;a href=&quot;http://kris.koehntopp.de/&quot; title=&quot;301 Moved Permanently&quot;&gt;Kristian Köhntopp&lt;/a&gt; zitiert einen Vertriebler - &lt;a href=&quot;http://www.iks-jena.de/mitarb/lutz/usenet/Fachbegriffe.der.Informatik.html&quot; title=&quot;302 Found&quot;&gt;Fachbegriffe der Informatik&lt;/a&gt; #125)&lt;/em&gt;&lt;br /&gt;&lt;/p&gt;

&lt;p&gt;Regelmäßige Backups sind wichtig und auch durch redundante Systeme wie RAIDs nicht zu ersetzen; ganz abgesehen davon, daß bei einem RAID 1 gerne die - meistens ja zum selben Zeitpunkt wie die erste in Betrieb genommene - zweite Platte beim notwendigen Rebuild zusammenbricht, schützt ein RAID auch nur gegen Datenverlust durch Ausfall einer Festplatte, aber weder gegen versehentliches oder böswilliges Löschen, Überschreiben oder Verändern von Daten, noch kann es gegen einen fatalen Schaden des gesamten Systems (Brand, Diebstahl, &amp;#8230;) schützen. Backups sollten daher&lt;/p&gt;

&lt;ul&gt; 
&lt;li&gt;regelmäßig durchgeführt werden,&lt;/li&gt; 
&lt;li&gt;versioniert sein (so daß man einen längeren Zeitraum zurückgehen kann) und&lt;br /&gt;&lt;/li&gt; 
&lt;li&gt;off-site transferiert werden können.&lt;/li&gt; 
&lt;/ul&gt;

&lt;p&gt;Zumindest dann, wenn man keine Kontrolle über die Infrastruktur hat, auf der die Backups gespeichert und über die sie transportiert werden, sollten Backups auch verschlüsselt sein. Diese letzte Anforderung ist typisch für sog. &amp;quot;Rootserver&amp;quot;, also Mietserver, zu denen bei üblichen Angeboten auch ein sog. &amp;quot;Backupspace&amp;quot;, also Speicherplatz auf einem Storage gehört, auf den zumeist nur per (unverschlüsseltem) FTP zugegriffen werden kann. Selbst wenn man dem Provider und seinen Mitarbeitern vertraut, kann man nicht ausschließen, daß auch Dritte - andere Kunden, &amp;#8230; - zumindest den unverschlüsselten Datenverkehr zwischen dem zu sichernden Server und dem Storage &amp;quot;belauschen&amp;quot; können. Wenn man seine Backups also unverschlüsselt überspielt, kann die gesamte Konfiguration samt aller Paßworte usw. usf. mitgelesen werden.&lt;/p&gt;

&lt;p&gt;Schließlich gibt es eine letzte Anforderung für sinnvolle Backups: sie sollten, einmal eingerichtet, möglichst wenig Aufwand bedeuten, optimalerweise automatisiert sein, denn nur dann werden sie auch wirklich regelmäßig durchgeführt.&lt;/p&gt;

&lt;p&gt;Alle zuvor genannten Anforderungen erfüllt das Tool &lt;a href=&quot;http://duplicity.nongnu.org/&quot; title=&quot;&quot;&gt;&lt;strong&gt;duplicity&lt;/strong&gt;&lt;/a&gt;, für das die c&amp;#8217;t bereits anno 2006 ein Frontend namens &lt;a href=&quot;http://www.heise.de/security/artikel/Hinter-Schloss-und-Siegel-270834.html&quot; title=&quot;301 Moved Permanently&quot;&gt;&lt;strong&gt;ftplicity&lt;/strong&gt;&lt;/a&gt; entwickelt hat, das nunmehr unter dem Namen &lt;a href=&quot;http://duply.net/&quot; title=&quot;&quot;&gt;&lt;strong&gt;duply&lt;/strong&gt;&lt;/a&gt; weiterentwickelt wird. &lt;strong&gt;duply&lt;/strong&gt; unterscheidet sich u.a. dadurch von &lt;strong&gt;ftplicity&lt;/strong&gt;, daß es nicht nur die Konfiguration der Übertragung via FTP unterstützt, sondern auch auf anderem Weg (was dann auch die Namensänderung erklärt).&lt;/p&gt;

&lt;p&gt; &lt;strong&gt;duplicity&lt;/strong&gt; sichert Dateien und Verzeichnisse in (nicht gepackte!) &lt;em&gt;tar&lt;/em&gt;-Archive, verschlüsselt diese vermittels &lt;em&gt;GnuPG&lt;/em&gt; und überträgt die Sicherungen in kleinen Häppchen auf verschiedenen Wegen (lokal, FTP, SCP, rsync, &amp;#8230;) auf das Sicherungsmedium; dabei werden inkrementielle Backups über den &lt;em&gt;rsync&lt;/em&gt;-Algorithmus erstellt, d.h. nicht alle veränderten Dateien gesichert, sondern ggf. nur ein diff, was wiederum Platz und Bandbreite spart. &lt;strong&gt;duplicity&lt;/strong&gt; dürfte in den meisten Distributionen paketiert sein, &lt;strong&gt;duply&lt;/strong&gt; ist es in Debian ab Squeeze, kann aber in jedem Fall trivial installiert werden.&lt;br /&gt;&lt;/p&gt;

&lt;p&gt;Eine mögliche Umsetzung für einen Mietserver sieht - unter Debian Lenny - so aus:&lt;/p&gt;

&lt;ul&gt; 
&lt;li&gt;&lt;em&gt;duplicity &lt;/em&gt;und &lt;em&gt;ncftp &lt;/em&gt;installieren: &lt;code&gt;aptitude -r install duplicity ncftp&lt;/code&gt;&lt;br /&gt;&lt;/li&gt; 
&lt;/ul&gt;

&lt;ul&gt; 
&lt;li&gt;&lt;em&gt;duply &lt;/em&gt;(in &lt;em&gt;/usr/local/bin&lt;/em&gt;) installieren:&lt;/li&gt; 
&lt;/ul&gt;

&lt;pre&gt;&lt;code&gt;cd /tmp
wget -O duply_1.5.4.2.tgz http://sourceforge.net/projects/ftplicity/files/duply%20%28simple%20duplicity%29/1.5.x/duply_1.5.4.2.tgz/download
tar -xzf duply_1.5.4.2.tgz 
cp duply_1.5.4.2/duply /usr/local/bin/
rm duply_1.5.4.2.tgz 
rm -r duply_1.5.4.2
&lt;/code&gt;&lt;/pre&gt;

&lt;ul&gt; 
&lt;li&gt;Alternativ (Debian Squeeze): &lt;code&gt;aptitude -r install duply&lt;/code&gt;&lt;/li&gt;
&lt;/ul&gt;

&lt;ul&gt;
&lt;li&gt;Da der gesamte Server gesichert werden soll, läuft der Backupprozess am besten mit Root-Rechten. Wir brauchen jetzt also einen GPG-Key für &lt;em&gt;root &lt;/em&gt;und richten dann das Backup ein:&lt;/li&gt;
&lt;/ul&gt;

&lt;pre&gt;&lt;code&gt;cd /root
gpg --gen-key
&lt;/code&gt;&lt;/pre&gt;

&lt;ul&gt; 
&lt;li&gt;Wenn nicht genug Entropie vorhanden ist, um den Key zu erzeugen, empfiehlt es sich, bspw. durch mehrere größere Downloads für Netzwerkverkehr und Belastung der Festplatten zu sorgen, um den Pool aufzufüllen. Key-ID und Paßwort des erzeugten Schlüssels benötigt man im nächsten Schritt zur Einrichtung des Backups; der Name des Backups kann frei gewählt werden:&lt;br /&gt;&lt;/li&gt; 
&lt;/ul&gt;

&lt;pre&gt;&lt;code&gt;duply *NAME* create
vim .duply/*NAME*/conf
&lt;/code&gt;&lt;/pre&gt;

&lt;ul&gt; 
&lt;li&gt;In der Konfigurationsdatei sind nun zumindest einzutragen
&lt;ul&gt; 
&lt;li&gt;die ID des erzeugten GPG-Schlüssels (GPG_KEY),&lt;/li&gt; 
&lt;li&gt;das Paßwort desselben (GPG_PW),&lt;/li&gt; 
&lt;li&gt;das Backup-Ziel (FTP-Server und ggf. Verzeichnis, Benutzername, Kennwort: TARGET, TARGET_USER, TARGET_PASS) und&lt;br /&gt;&lt;/li&gt; 
&lt;li&gt;den Pfad, der gesichert werden soll (im Zweifel &amp;quot;/&amp;quot;: SOURCE).&lt;/li&gt; 
&lt;/ul&gt; 
&lt;p&gt;Für die Einzelheiten und fortgeschrittene Konfigurationsmöglichkeiten sei auf die Kommentare innerhalb der Datei und die Dokumentation von &lt;strong&gt;duplicity &lt;/strong&gt;und &lt;strong&gt;duply &lt;/strong&gt;verwiesen.&lt;/p&gt; 
&lt;/li&gt; 
&lt;/ul&gt;

&lt;ul&gt; 
&lt;li&gt;Als nächstes erstellt man eine Liste der Dateien, die nicht gesichert werden sollen, die mindestens spezielle Verzeichnisse wie &lt;em&gt;/dev&lt;/em&gt; und &lt;em&gt;/proc&lt;/em&gt; enthalten sollte: &lt;code&gt;vim .duply/&lt;em&gt;NAME&lt;/em&gt;/exclude&lt;/code&gt;&lt;/li&gt; 
&lt;/ul&gt;

&lt;pre&gt;&lt;code&gt;/dev/\*
/proc/\*
/sys/\*
/tmp/\*
/var/tmp/\*
/var/run/\*
&lt;/code&gt;&lt;/pre&gt;

&lt;ul&gt; 
&lt;li&gt;Danach kann man noch Scripts hinterlegen, die vor oder nach dem Backuplauf ausgeführt werden; bspw. kann es sich vor dem Backup empfehlen, Datenbanken zu dumpen. Diese Scripts heißen dementspechend &lt;em&gt;pre &lt;/em&gt;und &lt;em&gt;post&lt;/em&gt;, können zum Beispiel Shellscripts sein und müssen
&lt;ul&gt; 
&lt;li&gt;ausführbar sein (&lt;code&gt;chmod 700 .duply/&lt;em&gt;NAME&lt;/em&gt;/pre&lt;/code&gt;) und&lt;/li&gt; 
&lt;li&gt;einen entsprechenden &lt;em&gt;shebang&lt;/em&gt; (&lt;code&gt;#!/bin/bash&lt;/code&gt;) enthalten.&lt;/li&gt; 
&lt;/ul&gt; 
&lt;/li&gt; 
&lt;/ul&gt;

&lt;ul&gt; 
&lt;li&gt;Wenn das alles paßt, kann man nunmehr sein erstes Backup starten: &lt;code&gt;duply *NAME* backup&lt;/code&gt;&lt;/li&gt; 
&lt;/ul&gt;

&lt;ul&gt; 
&lt;li&gt;Danach sollte man das komplette Verzeichnis &lt;em&gt;.duply&lt;/em&gt; (das dann auch eine Kopie des GPG-Schlüssels enthält) sichern (nicht auf den Backupspace, sondern an einen sicheren Ort!).&lt;/li&gt; 
&lt;/ul&gt;

&lt;ul&gt; 
&lt;li&gt;Schließlich kann man noch in die Crontab von &lt;em&gt;root &lt;/em&gt;einen entsprechenden Eintrag einfügen:&lt;/li&gt; 
&lt;/ul&gt;

&lt;pre&gt;&lt;code&gt;00 5 \* \* \* /usr/local/bin/duply *NAME* backup
00 6 1 \* \* /usr/local/bin/duply *NAME* full &amp;amp;&amp;amp; /usr/local/bin/duply *NAME* purge --force
&lt;/code&gt;&lt;/pre&gt;

&lt;p&gt;Fertig. Viel Erfolg!&lt;/p&gt;

&lt;p&gt;In gleicher Weise ist es möglich, weitere Backups zu definieren, die bspw. nur &lt;em&gt;/home&lt;/em&gt; oder &lt;em&gt;/etc&lt;/em&gt; (oder &lt;em&gt;/var/mail&lt;/em&gt; &amp;#8230;) sichern, das dann aber häufiger.&lt;br /&gt;&lt;/p&gt;
&lt;img src=&quot;https://ssl-vg03.met.vgwort.de/na/e81d1c90a31742309274463dbf58bd3d&quot; width=&quot;1&quot; height=&quot;1&quot; alt=&quot;&quot;&gt; 
    </content:encoded>

    <pubDate>Thu, 13 Jan 2011 17:18:15 +0000</pubDate>
    <guid isPermaLink="false">https://netz-rettung-recht.de/archives/1651-guid.html</guid>
    <category>anleitung</category>
<category>Backup</category>
<category>debian</category>
<category>duplicity</category>
<category>lenny</category>
<category>linux</category>

</item>

</channel>
</rss>
