Skip to content

Exim: Mailauslieferung über IPv4 erzwingen

Man munkelt, dass insbesondere Google eingehende E-Mails unterschiedlich streng filtert, je nachdem, ob sie per IPv6 oder per IPv4 eingeliefert werden.

Google selbst deutet das in seinen Bulk Senders Guidelines durch den Abschnitt Additional guidelines for IPv6 an, und ich hatte verschiedentlich den Eindruck, dass E-Mail, die ich an Adressaten bei Google (GMail, Hosting, …) versende, dort jedenfalls nicht in der Inbox landet. Für Mails an GoogleGroups - die u.a. Mailinglisten mit einem Webinterface und Webarchiv darstellen - kann ich das sogar positiv belegen: versende ich E-Mails über IPv6 nach dort, werden sie zwar lt. Logfile angenommen, dann aber offensichtlich ausgefiltert. Jedenfalls erscheinen sie nie in der GoogleGroup, auch nach mehreren Versuchen und mehreren Tagen nicht. Versende ich dieselbe Mail aber über IPv4, trifft sie binnen Sekunden ein.

"Exim: Mailauslieferung über IPv4 erzwingen" vollständig lesen

phpMyAdmin nur für einen vhost einbinden

phpMyAdmin verwende ich seit über einem Jahrzehnt, um bequem auf die Datenbanken auf meinen verschiedenen Webspaces zugreifen zu können (und diesen Zugriff ggf. auch anderen Nutzern zu ermöglichen). Dabei nutze ich der Einfachheit halber das jeweilige Debian-Paket - je mehr Webapplikationen nicht gesondert aktualisiert werden müssen, desto besser.

Die Standardinstallation hat - aus meiner Sicht - allerdings einen Nachteil: sie macht phpMyAdmin für alle vhosts verfügbar, d.h. unter allen auf dem Server gehosteten “Domains” aufrufbar. Manchmal mag das praktisch sein, wenn man bspw. so für jeden Kunden scheinbar “sein” phpMyAdmin mitliefert; mir gefällt das aber nicht so gut, und sei es nur, weil phpMyAdmin (wie jede verbreitete Webapplikation) regelmäßig “angegriffen” wird (sprich: Bots rufen die URL auf und suchen nach Schwachstellen oder versuchen, das Passwort zu erraten). Lieber würde ich phpMyAdmin nur unter einer “Domain” - einem vhost aufrufbar machen.

"phpMyAdmin nur für einen vhost einbinden" vollständig lesen

Von Jessie zu Stretch

Ein Jahr nach dem letzten Distributions-Upgrade stand für meinen heimischen Server das Upgrade auf Debian Stretch an, das (wie immer) allein durch Download und Installation einige Zeit in Anspruch nahm, diesmal aber auch ungewohnt viele manuelle Eingriffe erforderte.

"Von Jessie zu Stretch" vollständig lesen

Nanoc: Upgrade von 3.x auf 4.x

Nanoc nutze ich schon mehr als drei Jahre zur Erzeugung verschiedener Websites; aber wie das so ist bei verschiedenen und zudem historisch gewachsenen Installationen, je mehr und je komplexer man ein Werkzeug einsetzt, desto größer ist der Angang bei notwendigen Änderungen. Und so habe ich das Upgrade auf Nanoc 4 - über dessen Beta ich damals bereits berichtete - dann auch gut zwei Jahre vor mir hergeschoben.

Nunmehr werden aber endlich alle meine Präsenzen mit Nanoc 4 erzeugt.

"Nanoc: Upgrade von 3.x auf 4.x" vollständig lesen

Webspace-Inventar 2017

Vor über zwei Jahren hatte ich im Rahmen einer “Blogparade” über die von mir genutzten Webapplikationen berichtet - und bei einem Rückblick muss ich feststellen, dass sich da kaum etwas verändert hat.

"Webspace-Inventar 2017" vollständig lesen

Webserver-Tuning

Alle paar Monate wieder turnt ein - weniger rücksichtsvoller - Crawler vorbei und spidert sich zügig durch alle Einträge meines Blogs. Damit brachte er meinen bisherigen Server gerne an den Rand seiner Leistungsfähigkeit, durfte dieser doch für jeden Link einen php-cgi-Prozess starten. Man merkte das recht schnell an den steigenden Antwortzeiten, und auch interaktiv auf der Shell machte sich die steigende load bemerkbar. Am Ende blieben meist einige php-cgi-Prozesse übrig, die man dann manuell mittels kill entsorgen durfte. (Vielleicht lag auch hier das eigentliche Problem, dass nämlich die genutzten Ressourcen nicht wieder freigegeben wurden. Hinter die Einzelheiten bin ich nie so recht gekommen.)

Die brandneue Maschine hingegen sollte durch FastCGI und massenhaft RAM sowie schnelle SSDs einem solchen Ansturm (auch bei weiterer Verwendung des doch eher schwergewichtigen Apachen) besser gewachsen sein - dachte ich mir. Bis eines Freitagmorgens die E-Mails des Monitoring-System eingingen, die mir mitteilten, dass der Webserver nicht mehr auf Anfragen reagiert. Gar nicht mehr.

"Webserver-Tuning" vollständig lesen

nanoc-dejure 1.2 released

Mein Nanoc-Filter für die juristische Vernetzungsfunktion von dejure.org steht nun in der Version 1.2 zur Verfügung und ist damit - endlich - auch mit der aktuellen Nanoc-Version 4.x kompatibel.

"nanoc-dejure 1.2 released" vollständig lesen

git-commit-notifier

Es gibt zwar nicht sehr viele “eigene” git-Repositories, an denen außer mir noch andere mitentwickeln, aber einige doch schon, zumindest potentiell; und ungeachtet dessen bereitet es mir auch als bloße Spielerei Freude, wenn ich zumindest die Möglichkeit anbieten kann, per Mail über neue Commits zu informieren.

Bisher habe ich das mit dem “eingebauten” - quasi im Lieferumfang befindlichen - Script post-receive-email gelöst, das allerdings optisch altbacken daherkommt und v.a. kein Diff mitliefert. Oft habe ich nach Alternativen geschaut und bin dabei immer wieder über git-commit-notifier gestolpert, das aber irgendwie[tm] bei mir nicht recht laufen wollte.

"git-commit-notifier" vollständig lesen

Aufnahme ins Serendity-Entwickler-Team

2014 habe ich mich - mit dem Relaunch dieses Blogs - nach 11 Jahren erstmals ein wenig mit der Community rund um s9y beschäftigt und den einen oder anderen einfachen Bugreport oder Pull Request eingeworfen oder mich im Forum beteiligt.

2015 hat sich der Kontakt - nach dem persönlichen Kennenlernen beim #s9ycamp2015 - intensiviert, ohne dass ich dazu gekommen wäre, mich auch näher mit s9y zu beschäftigen.

2016 habe ich - animiert und betreut durch onli - immerhin einige kleine Änderungen in Plugins vorgenommen; sehr viel Zeit für s9y war in diesem Jahr ohnehin nicht.

"Aufnahme ins Serendity-Entwickler-Team" vollständig lesen

systemd-Unit für srsd unter Debian

Ich fürchte, das wird einer dieser Beiträge, bei dem die notwendige Vorrede bald länger wird als der Beitrag selbst …

Aber fangen wir einfach einmal vorne an: Der Kampf gegen unerwünschte E-Mails, die einen mit Malware oder Angeboten für die Verlängerung oder Vergrößung verschiedenster Körperteile (neuerdings auch - noch sachnah - gerne für den Wechsel der Krankenkasse) beglücken, heutzutage meist als Spam bezeichnet, tobt seit Jahrzehnten. Nach den verschiedensten Filtern entstanden auch mehrere Ansätze, die gar nicht so sehr den Spam an sich bekämpfen, sondern weiter vorne - oder auch parallel - ansetzen und die (meist mit Spam verbundene) Fälschung von Absenderadressen verhindern bzw. umgekehrt eine (begrenzte) Garantie für die Echtheit des Absenders übernehmen wollen.

"systemd-Unit für srsd unter Debian " vollständig lesen

Firefox und Chrome

Ich weiß gar nicht, wie lange ich schon Firefox als Webbrowser verwende - ein Jahrzehnt sicherlich, vermutlich länger. In letzter Zeit bin ich aber zunehmend unzufrieden: nicht nur, dass es mit einigen Webseiten (vor allem “Webapps”) Schwierigkeiten in der Darstellung bzw. Bedienung gibt, das Ding ist vor allem unerträglich lahm und fühlt sich furchtbar behäbig an geworden - und nein, ich habe nicht Hunderte Tabs offen, auch nicht Dutzende, sondern allenfalls mal ein Dutzend.

Auf meinem Desktoprechner (Win7, i7-3770, 8 GB RAM, SSD für die Systempartition mit Programmverzeichnis) benötigt der aktuelle Firefox 54.0.1 rund 7 Sekunden für den Start (vom Anklicken des Icons bis zur Anzeige des leeren Tabs mit den Icons der am meisten aufgerufenen Seiten). Chrome braucht rund 2 Sekunden. Wenn ich Twitter aufrufe, benötigt Firefox gut 18 Sekunden, bis er die Seite so weit geladen hat, dass ich in der Timeline zügig scrollen kann. Chrome braucht 5 Sekunden.

"Firefox und Chrome" vollständig lesen

Let's Encrypt und Basic-Auth

Wie man mit Let’s Encrypt ganz einfach an SSL-Zertifikate kommt, hatte ich bereits vor mehr als einem Jahr geschildert - mittlerweile übrigens ganz einfach, denn in Debian stretch ist der Let’s Encrypt-Client (der jetzt certbot heißt) nativ dabei und bringt jetzt auch einen fertigen Cronjob mit.

Aber darum soll es heute gar nicht gehen, sondern vielmehr um die Frage, wie man Let’s Encrypt verwenden kann, wenn die entsprechende Webpräsenz mit einem einfachen Passwortschutz - der basic access authentication oder kurz Basic-Auth - versehen ist. Jeder kennt vermutlich das Popup, das nach Benutzerkennung und Passwort fragt; eine nicht sehr elegante, aber dafür mit praktisch keinem Aufwand verbundene Lösung, die zudem alle Dateien in allen Verzeichnissen der Präsenz schützt, nicht nur Scripts, sondern auch - bspw. - Bilder.

"Let's Encrypt und Basic-Auth" vollständig lesen

Liste von Windows-Mailservern

Die bereits bestehende, umfangreiche Liste von Newsservern auf meiner Homepage habe ich jetzt um eine Liste von Windows-Mailservern ergänzt, die sicherlich noch nicht umfassend ist, aber einen ersten Überblick ermöglichen sollte.

Ergänzungen und Korrekturen - und ggf. auch Empfehlungen - können gerne in den Kommentaren erfolgen; ich nehme sie freilich auch per E-Mail gerne entgegen.

Externe Datenquellen für nanoc

Bereits vor gut zwei Jahren hatte ich berichtet, wie man nanoc mit einer (MySQL-)Datenbank als Datenquelle betreiben kann, und auf die entsprechende Dokumentation verwiesen. Schon damals hatte ich angemerkt, dass sich in dem dort gezeigten Weg möglicherweise ein Zwischenschritt einsparen lässt. Dies habe ich dann mittlerweile auch erfolgreich getestet.

"Externe Datenquellen für nanoc" vollständig lesen

Backupkonzepte

Je mehr wir uns auf Computer verlassen und wesentliche Teile unseres Lebens, unser Erinnerung nur noch digital existieren, desto wichtiger wird der Schutz dieser Daten sowohl gegen unbefugten Zugriff als auch gegen Verlust oder mutwillige Zerstörung.

Ich hatte in der Vergangenheit bereits das eine oder andere Mal berichtet, wie ich meine Daten sichere - nicht immer sehr fleißig und mit größter Konsequenz, weil die Bequemlichkeit oft vorgeht, aber über die Jahre dann doch überall irgendwie.

"Backupkonzepte" vollständig lesen
tweetbackcheck