<?xml version="1.0" encoding="utf-8" ?>

<rss version="2.0" 
   xmlns:rdf="http://www.w3.org/1999/02/22-rdf-syntax-ns#"
   xmlns:admin="http://webns.net/mvcb/"
   xmlns:dc="http://purl.org/dc/elements/1.1/"
   xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
   xmlns:wfw="http://wellformedweb.org/CommentAPI/"
   xmlns:content="http://purl.org/rss/1.0/modules/content/"
   >
<channel>
    
    <title>Netz - Rettung - Recht (Artikel mit Tag aws)</title>
    <link>https://netz-rettung-recht.de/</link>
    <description>Bloggen seit Juni 2003</description>
    <dc:language>de</dc:language>
    <generator>Serendipity 2.5.0 - http://www.s9y.org/</generator>
    <pubDate>Thu, 21 Nov 2019 22:12:03 GMT</pubDate>

    <image>
    <url>https://netz-rettung-recht.de/templates/2k11/img/s9y_banner_small.png</url>
    <title>RSS: Netz - Rettung - Recht - Bloggen seit Juni 2003</title>
    <link>https://netz-rettung-recht.de/</link>
    <width>100</width>
    <height>21</height>
</image>

<item>
    <title>Wenn die Amazonen nur noch kriechen</title>
    <link>https://netz-rettung-recht.de/archives/2196-Wenn-die-Amazonen-nur-noch-kriechen.html</link>
            <category>Bits'n'Bytes</category>
            <category>Unmut</category>
    
    <comments>https://netz-rettung-recht.de/archives/2196-Wenn-die-Amazonen-nur-noch-kriechen.html#comments</comments>
    <wfw:comment>https://netz-rettung-recht.de/wfwcomment.php?cid=2196</wfw:comment>

    <slash:comments>0</slash:comments>
    <wfw:commentRss>https://netz-rettung-recht.de/rss.php?version=2.0&amp;type=comments&amp;cid=2196</wfw:commentRss>
    

    <author>nospam@example.com (Thomas Hochstein)</author>
    <content:encoded>
    &lt;p&gt;Grundsätzlich bin ich ja mit meinem Provider, der Deutschen Telekom, und meinem &lt;a href=&quot;https://netz-rettung-recht.de/archives/2164-VDSL-250-Hyper,-hyper!.html&quot; title=&quot;&quot;&gt;VDSL-Anschluss&lt;/a&gt; sehr zufrieden: bislang (überraschend) guter Kundenservice, wenn man ihn denn mal braucht, stabile Anbindung (vor dem letzten Disconnect am frühen Morgen war ich weit über einen Monat ununterbrochen verbunden), auch sonst keine Probleme.&lt;/p&gt;

&lt;p&gt;Zwar las ich bereits vor (nunmehr bald fünf!) Jahren bei &lt;a href=&quot;https://www.daniel-weber.eu/&quot; title=&quot;daniel-weber.eu | Blog eines Entwicklers, &amp;quot;wenn&amp;#039;s sein muss&amp;quot;-Admins und Newsmasters&quot;&gt;Daniel Weber&lt;/a&gt; über die &lt;a href=&quot;https://www.daniel-weber.eu/2015/03/fehlende-netzneutralitaet-fuer-telekom-kunden-spuerbar/&quot; title=&quot;Fehlende Netzneutralität für Telekom-Kunden spürbar | daniel-weber.eu&quot;&gt;Peering-Policy&lt;/a&gt; der Telekom, die man wohl zusammenfassen kann als &amp;#8220;wir bauen überlastete Verbindungen gezielt nicht aus, es sei denn, die großen Inhaltsanbieter (Facebook, Youtube, große Hoster &amp;#8230;) kommen uns finanziell oder anderweitig entgegen; dann schaffen wir für die eine Sonderlösung&amp;#8221;. Wer da nicht mitspielen will, muss eben damit leben, dass die Telekom-Kunden (und das sind ja nun viele) den Eindruck haben, der Anbieter sei schlecht zu erreichen. Das ist fraglos nicht fair, und es ist auch für das Netz und im Grundsatz auch für die Telekom-Kunden nicht gut; bislang habe ich insoweit aber keine großen Auswirkungen gespürt.&lt;/p&gt;

&lt;p&gt;Anfang November &lt;a href=&quot;https://www.daniel-weber.eu/2019/11/depeering-stunt-mit-desastroesem-ergebnis/&quot; title=&quot;Depeering-Stunt mit desaströsem Ergebnis | daniel-weber.eu&quot;&gt;berichtete&lt;/a&gt; Daniel dann von der versuchten Umschaltung der Kunden eines aufgekauften niederländischen Anbieters auf das Netz der Telekom, unter Kündigung der bisherigen dezentralen Peering-Angebote. Und das ging nun offenbar kräftig in die Hose.&lt;/p&gt;

&lt;p&gt;Ungefähr zur gleichen Zeit fielen mir sehr langsame Reaktionszeiten bei verschiedenen Webanbietern auf: zunächst bei &lt;em&gt;XING&lt;/em&gt;, dem Business-Netzwerk, dessen Profilseiten sich - jedenfalls, was die Bilder betrifft - geradezu quälend langsam aufbauten; die Ladezeiten näherten sich teilweise dem Minutenbereich. Interessanterweise schien mir das Phänomen nur manchmal aufzutreten; bei genauerer Betrachtung vor allem am Wochenende, teilweise auch abends, also zu den Zeiten, wo mit intensiverer Netznutzung zu rechen ist. Danach ging es dann bei &lt;em&gt;Keybase&lt;/em&gt; weiter: unter der Woche laufen die Webseiten ganz normal, ein Klick und die Seite öffnet sich. Am Wochenende kann man teilweise erst einmal einen Kaffee holen gehen; da kann es mal 10, mal 20, mal 30 Sekunden oder länger dauern, bis einzelne Seiten geladen werden. Wo &lt;em&gt;XING&lt;/em&gt; hostet, sei mal dahingestellt, &lt;em&gt;Keybase&lt;/em&gt; jedenfalls nutzt (wie sehr viele Anbieter) die Amazon-Cloud, also &lt;em&gt;AWS&lt;/em&gt;, &lt;em&gt;Amazon Web Services&lt;/em&gt;, und da sollte eigentlich ausreichend Leistung bereitstehen.&lt;/p&gt;

&lt;p&gt;Nun kann man natürlich nie ausschließen, dass ein Unternehmen - zumal eines, das vermutlich bislang ohne größere Einnahmen arbeitet, von Venture-Kapital abgesehen - mit dem Ausbau seiner Kapazitäten eher zurückhaltend umgeht, aber vorletzte Woche wurde es dann völlig lächerlich. Ich hatte eine Lizenz für ein Programm erworben und dieses nun herunterzuladen; das sollte mit 250 MBit in der Anbindung eine Sache von Sekunden, vielleicht Minuten sein, jedenfalls - samt Installation - noch schnell vor dem Abendessen erledigt. Sollte man denken.&lt;/p&gt;

&lt;figure class=&quot;serendipity_imageComment_center&quot; style=&quot;width: 429px&quot;&gt;&lt;div class=&quot;serendipity_imageComment_img&quot;&gt;&lt;!-- s9ymdb:755 --&gt;&lt;img class=&quot;serendipity_image_center&quot; width=&quot;429&quot; height=&quot;71&quot;  src=&quot;https://netz-rettung-recht.de/uploads/articles/2019/2019-11-09-paperless-01.png&quot; title=&quot;Paperless-Download per DSL&quot; alt=&quot;&quot;&gt;&lt;/div&gt;&lt;figcaption class=&quot;serendipity_imageComment_txt&quot;&gt;Download im Browser über VDSL.&lt;/figcaption&gt;&lt;/figure&gt;

&lt;p&gt;Offenbar ein Irrtum. Rund anderthalb Stunden für 165&amp;#160;MB. Wie bitte?!&lt;/p&gt;

&lt;p&gt;Auch der Download kommt von Amazon - und es war Wochenende. Offenbar ist das kein Problem eines einzelnen Anbieters, sondern ein Problem der Verbindung zu &lt;em&gt;AWS&lt;/em&gt; insgesamt; nur, von welcher Seite aus? Von Amazon oder von der Telekom? Sollte Daniel mit seinen Bemerkungen zur Peering-Politik der Telekom recht haben? Nun, das lässt sich testen (und zugleich der Download deutlich beschleunigen); wozu betreibe ich einige Server? Also versuchen wir den Download eben von dort, aus dem Rechenzentrum eines größeren deutschen Serverhosters.&lt;/p&gt;

&lt;figure class=&quot;serendipity_imageComment_center&quot; style=&quot;width: 1833px&quot;&gt;&lt;div class=&quot;serendipity_imageComment_img&quot;&gt;&lt;!-- s9ymdb:756 --&gt;&lt;img class=&quot;serendipity_image_center&quot; width=&quot;1833&quot; height=&quot;221&quot;  src=&quot;https://netz-rettung-recht.de/uploads/articles/2019/2019-11-09-paperless-02.png&quot; title=&quot;Paperless-Download vom Server aus&quot; alt=&quot;&quot;&gt;&lt;/div&gt;&lt;figcaption class=&quot;serendipity_imageComment_txt&quot;&gt;Derselbe Download vom Server aus.&lt;/figcaption&gt;&lt;/figure&gt;

&lt;p&gt;2.54&amp;#160;MB/s ist jetzt auch kein Überschallknall, aber doch &amp;#8220;etwas&amp;#8221; flotter als 33&amp;#160;kB/s. So war der Download dann auch in etwas mehr als einer Minute erledigt, statt nach weit über einer Stunde. Und vom Server nach Hause dauerte es auch länger als eine Minute, aber nicht viel. Offenkundig liegt das Problem also nicht in der Anbindung von Seiten der &lt;em&gt;Amazon Web Services&lt;/em&gt; (was mich auch überrascht hätte).&lt;/p&gt;

&lt;p&gt;Womit ich jetzt wirklich fragen muss: Telekom, ist das echt euer Ernst?!&lt;/p&gt;
&lt;img src=&quot;https://ssl-vg03.met.vgwort.de/na/d283734943b54db084a3e81a629216f4&quot; width=&quot;1&quot; height=&quot;1&quot; alt=&quot;&quot;&gt; 
    </content:encoded>

    <pubDate>Thu, 21 Nov 2019 06:40:00 +0000</pubDate>
    <guid isPermaLink="false">https://netz-rettung-recht.de/archives/2196-guid.html</guid>
    <category>aws</category>
<category>dsl</category>
<category>telekom</category>

</item>
<item>
    <title>Backups in die Cloud (duply und S3)</title>
    <link>https://netz-rettung-recht.de/archives/1699-Backups-in-die-Cloud-duply-und-S3.html</link>
            <category>Bits'n'Bytes</category>
    
    <comments>https://netz-rettung-recht.de/archives/1699-Backups-in-die-Cloud-duply-und-S3.html#comments</comments>
    <wfw:comment>https://netz-rettung-recht.de/wfwcomment.php?cid=1699</wfw:comment>

    <slash:comments>0</slash:comments>
    <wfw:commentRss>https://netz-rettung-recht.de/rss.php?version=2.0&amp;type=comments&amp;cid=1699</wfw:commentRss>
    

    <author>nospam@example.com (Thomas Hochstein)</author>
    <content:encoded>
    &lt;p&gt;Eigentlich wollte ich schon vor gut drei Jahren, im Januar 2013, über dieses Thema schreiben, als ich die ersten Backup-Jobs dieser Art eingerichtet habe, aber irgendwie ist aus dem angefangenen Entwurf nie ein fertiger Blogeintrag geworden. - Nun denn, auf ein neues.&lt;/p&gt;

&lt;p&gt;Nicht nur der heimische Rechner will regelmäßig gesichert werden; auch bei dedizierten Servern oder vServern ist ein regelmäßiges Backup vonnöten, um im Falle eines Falles nicht ohne (Code und) Daten dazustehen. Früher war es üblich, dass zu einem Server auch ein - meist per FTP zugänglicher - Backupplatz gehörte, der genügend Raum für ein Backup (auch über mehrere Generationen) bot. Mittlerweile müssen solche Angebote aber nicht selten kostenpflichtig hinzugebucht werden oder stehen gar nicht mehr zur Verfügung. Zwar ist es natürlich möglich, die Datensicherung auf einen anderen (eigenen oder fremden) Server durchzuführen, wobei sich die Maschine im heimischen Keller in der Regel wegen der geringen Upload-Bandbreiten nicht anbietet - schließlich will man nicht nur sichern, sondern notfalls auch wiederherstellen können. Eine Alternative ist aber Cloud-Speicher, bspw. Amazons S3 (&lt;em&gt;Simple Storage Service&lt;/em&gt;). Die Kosten sind bei inkrementiellen Backups überschaubar: ein Gigabyte Speicherplatz kostet pro Monat ungefähr 3 Cent, dazu kommen noch geringen Kosten für Zugriffsoperationen in der Größenordnung von einem halben Cent pro 1.000 Zugriffe und für den ausgehenden Traffic - also vor allem für einen Restore - 9 Cent pro GB, jeweils zzgl. MWSt. Wöchentliche inkrementielle Backups mit monatlichen Vollbackups für vier Server kommen auf gut 10$.&lt;/p&gt;

&lt;h3 id=&quot;backup-mit-duply-in-einen-aws-s3-bucket-&quot;&gt;Backup mit &lt;em&gt;duply&lt;/em&gt; in einen &lt;em&gt;AWS&lt;/em&gt; &lt;em&gt;S3&lt;/em&gt;-&amp;#8220;Bucket&amp;#8221;&lt;/h3&gt;

&lt;p&gt;Für verschlüsselte und komprimierte Backups bieten sich &lt;em&gt;duplicity&lt;/em&gt; und &lt;em&gt;duply&lt;/em&gt; an; die grundsätzliche &lt;a href=&quot;https://netz-rettung-recht.de/archives/1651-Backup-mit-duply-und-duplicity.html&quot; title=&quot;&quot;&gt;Einrichtung von duply&lt;/a&gt; habe ich bereits 2011 beschrieben. Zusätzlich benötigen wir für das Cloud-Backup noch dreierlei: einen S3-&amp;#8220;Bucket&amp;#8221;, in dem die Backups landen sollen, Zugangsdaten für diesen &amp;#8220;Bucket&amp;#8221;, und eine Anpassung der &lt;em&gt;duply&lt;/em&gt;-Konfiguration.&lt;/p&gt;

&lt;p&gt;Für die Nutzung der &lt;em&gt;Amazon Web Services&lt;/em&gt; (AWS) ist eine Anmeldung dort erforderlich. Außerdem empfiehlt es sich sehr, nicht mit den Daten des Haupt-Accounts auf unseren S3-&amp;#8220;Bucket&amp;#8221; zuzugreifen, sondern mit einem extra dafür erzeugten Nutzeraccount, der dann auch nur auf diesen &amp;#8220;Bucket&amp;#8221; zugreifen kann. Dazu dient das &lt;em&gt;Identity and Access Management&lt;/em&gt; (IAM).&lt;/p&gt;

&lt;h3 id=&quot;-aws-konfiguration&quot;&gt;&lt;em&gt;AWS&lt;/em&gt;-Konfiguration&lt;/h3&gt;

&lt;p&gt;Fangen wir an mit der Anlage des &lt;em&gt;S3&lt;/em&gt;-Speicherplatzes. Dazu genügt es, in der &lt;em&gt;&lt;a href=&quot;https://console.aws.amazon.com/s3/home&quot; title=&quot;&quot;&gt;S3 Console&lt;/a&gt;&lt;/em&gt; mit Klick auf &lt;code&gt;Create&lt;/code&gt; einen neuen &amp;#8220;Bucket&amp;#8221; anzulegen. Der vergebene Name muss &lt;em&gt;AWS&lt;/em&gt;-weit eindeutig sein, es empfiehlt sich daher etwas in der Form &lt;code&gt;accountname-backup-servername&lt;/code&gt; o.ä. Dabei muss dieser Name eine &lt;strong&gt;gültige Subdomain&lt;/strong&gt; darstellen (vgl. die &lt;a href=&quot;http://docs.aws.amazon.com/AmazonS3/latest/dev/BucketRestrictions.html&quot; title=&quot;301 Moved Permanently&quot;&gt;&lt;em&gt;AWS&lt;/em&gt;-Dokumentation&lt;/a&gt;) und er sollte - um spätere Schwierigkeiten beim Zugriff zu vermeiden - &lt;strong&gt;keine Punkte enthalten&lt;/strong&gt;. (Mit &lt;em&gt;duplicity&lt;/em&gt; und den zugehörigen Libraries unter Debian &lt;em&gt;Wheezy&lt;/em&gt; hatte ich keine Zugriffsprobleme auf Buckets, die Punkte im Namen haben, mit den Versionen in Debian &lt;em&gt;Jessie&lt;/em&gt; jedoch sehr wohl. Better safe than sorry &amp;#8230; ) Außerdem kann die geographische &lt;a href=&quot;http://docs.aws.amazon.com/general/latest/gr/rande.html#s3_region&quot; title=&quot;301 Moved Permanently&quot;&gt;Region&lt;/a&gt; ausgewählt werden, in der der &amp;#8220;Bucket&amp;#8221; angelegt werden soll. Neben Irland ist hier nun auch Frankfurt als Standort auswählbar; für den Zugriff dort wird aber nur die Protokollversion 4 unterstützt, was wiederum zu &lt;a href=&quot;https://raim.codingfarm.de/blog/2015/03/12/backup-with-duply-to-amazon-s3-backendexception-no-connection-to-backend/&quot; title=&quot;301 Moved Permanently&quot;&gt;Schwierigkeiten&lt;/a&gt; führen kann. Ich empfehle daher &lt;code&gt;eu-west-1&lt;/code&gt; (Irland) als Region.&lt;/p&gt;

&lt;p&gt;Jetzt brauchen wir noch einen Benutzer, der auf den Bucket zugreifen kann. Ein solcher lässt sich in der &lt;em&gt;&lt;a href=&quot;https://console.aws.amazon.com/iam/home#users&quot; title=&quot;302 Found&quot;&gt;IAM Console&lt;/a&gt;&lt;/em&gt; anlegen. Die dabei erzeugte &lt;em&gt;Access-Key-ID&lt;/em&gt; und der zugehörige &lt;em&gt;Secret Key&lt;/em&gt; müssen unbedingt heruntergeladen und sicher aufbewahrt werden.&lt;/p&gt;

&lt;p&gt;Danach bekommt der neu erzeugte Benutzer noch eine &lt;em&gt;Policy&lt;/em&gt; mit den nötigen Zugriffsrechten verpasst. Dazu wählen wir ihn in der Benutzerliste aus, wählen den Tab &lt;em&gt;Permissions&lt;/em&gt; an und klicken unter &lt;em&gt;Inline Policies&lt;/em&gt; auf &lt;code&gt;Create User Policy&lt;/code&gt;. Diese Policy sollte dann wie folgt aussehen:&lt;/p&gt;

&lt;pre&gt;&lt;code&gt;{
    &quot;Statement&quot;: [
        {
            &quot;Action&quot;: [
                &quot;s3:ListAllMyBuckets&quot;
            ],
            &quot;Effect&quot;: &quot;Allow&quot;,
            &quot;Resource&quot;: &quot;arn:aws:s3:::*&quot;
        },
        {
            &quot;Action&quot;: &quot;s3:*&quot;,
            &quot;Effect&quot;: &quot;Allow&quot;,
            &quot;Resource&quot;: [
                &quot;arn:aws:s3:::accountname-backup-servername&quot;,
                &quot;arn:aws:s3:::accountname-backup-servername/*&quot;
            ]
        }
    ]
}
&lt;/code&gt;&lt;/pre&gt;

&lt;p&gt;Statt &lt;code&gt;accountname-backup-servername&lt;/code&gt; ist der Name des vorher neu angelegten &lt;em&gt;S3&lt;/em&gt;-Buckets zu verwenden. Dieser Benutzer darf sich also eine Liste aller &amp;#8220;Buckets&amp;#8221; anzeigen lassen und auf den genannten &amp;#8220;Bucket&amp;#8221; und alle Dateien darin zugreifen.&lt;/p&gt;

&lt;h3 id=&quot;-duply-konfiguration&quot;&gt;&lt;em&gt;duply&lt;/em&gt;-Konfiguration&lt;/h3&gt;

&lt;p&gt;&lt;strong&gt;Update&lt;/strong&gt;: Die Beschreibung der Konfiguration gilt für Debian 8.0&amp;#160;&lt;em&gt;Jessie&lt;/em&gt; und Debian 9.0&amp;#160;&lt;em&gt;Stretch&lt;/em&gt;.&lt;/p&gt;

&lt;p&gt;In der &lt;em&gt;duply&lt;/em&gt;-Konfiguration (Datei &lt;code&gt;conf&lt;/code&gt;) treffen wir jetzt noch folgende Einstellungen:&lt;/p&gt;

&lt;pre&gt;&lt;code&gt;TARGET=&#039;s3://s3-eu-west-1.amazonaws.com/accountname-backup-servername&#039;
TARGET_USER=&#039;AccessKeyID&#039;
TARGET_PASS=&#039;SecretAccessKey&#039;
&lt;/code&gt;&lt;/pre&gt;

&lt;p&gt;&lt;strong&gt;Update&lt;/strong&gt;: Ab Debian &lt;em&gt;Stretch&lt;/em&gt; muss es statt &lt;code&gt;TARGET_USER&lt;/code&gt; und &lt;code&gt;TARGET_PASS&lt;/code&gt; wie folgt heißen:&lt;/p&gt;

&lt;pre&gt;&lt;code&gt;export AWS_ACCESS_KEY_ID=&#039;AccessKeyID&#039;
export AWS_SECRET_ACCESS_KEY=&#039;SecretAccessKey&#039;
&lt;/code&gt;&lt;/pre&gt;

&lt;p&gt;Für &lt;code&gt;s3-eu-west-1&lt;/code&gt; (Region Irland), &lt;code&gt;accountname-backup-servername&lt;/code&gt;, &lt;code&gt;AccessKeyID&lt;/code&gt; und &lt;code&gt;SecretAccessKey&lt;/code&gt; sind jeweils die passenden Werte zu verwenden; &lt;code&gt;AccessKeyID&lt;/code&gt; und &lt;code&gt;SecretAccessKey&lt;/code&gt; wurden bei der Einrichtung des &lt;em&gt;IAM&lt;/em&gt;-Benutzers erzeugt.&lt;/p&gt;

&lt;p&gt;Außerdem müssen &lt;em&gt;duplicity&lt;/em&gt; noch einige zusätzliche Parameter übergeben werden:&lt;/p&gt;

&lt;pre&gt;&lt;code&gt;DUPL_PARAMS=&quot;$DUPL_PARAMS --s3-use-new-style --s3-european-buckets --s3-use-multiprocessing &quot;
&lt;/code&gt;&lt;/pre&gt;

&lt;p&gt;&lt;strong&gt;Update&lt;/strong&gt;: Ab Debian &lt;em&gt;Stretch&lt;/em&gt; benötigt auch &lt;em&gt;gpg&lt;/em&gt; zusätzliche Parameter:&lt;/p&gt;

&lt;pre&gt;&lt;code&gt;GPG_OPTS=&#039;--pinentry-mode loopback&#039;
&lt;/code&gt;&lt;/pre&gt;

&lt;p&gt;Jetzt kann der erste Backuplauf mit &lt;code&gt;duply NAME backup&lt;/code&gt; gestartet werden. Nach dem Abschluss des Backup-Laufs finden sich im &amp;#8220;Bucket&amp;#8221; in der &lt;em&gt;S3 Console&lt;/em&gt; die gesicherten Dateien.&lt;/p&gt;

&lt;p&gt;Fertig!&lt;/p&gt;
&lt;img src=&quot;https://ssl-vg03.met.vgwort.de/na/2956ddea7a7a4c24a3bf2a97d746aed9&quot; width=&quot;1&quot; height=&quot;1&quot; alt=&quot;&quot;&gt; 
    </content:encoded>

    <pubDate>Tue, 29 Mar 2016 13:00:00 +0000</pubDate>
    <guid isPermaLink="false">https://netz-rettung-recht.de/archives/1699-guid.html</guid>
    <category>anleitung</category>
<category>aws</category>
<category>backup</category>
<category>duplicity</category>

</item>

</channel>
</rss>
