Skip to content

VDSL-100: Der Turbo zum Nachbrenner

Vor etwas mehr als einem Jahr berichtete ich über den Wechsel von DSL-16 zu VDSL-50 - nunmehr kann ich erneut über ein Upgrade unserer Netzanbindung und ein weiteres Kapitel des Lebens bei und mit der Telekom berichten.

Von 50/10 zu 100/40 - allerdings mit regelmäßigen Disconnects.
"VDSL-100: Der Turbo zum Nachbrenner" vollständig lesen

Zeitstempel von Dateien unter Versionsverwaltung

Die Verwaltung von Dateien in einem Versionskontrollsystem (VCS) wie git hat einen Nachteil: der Zeitstempel im Dateisystem gibt nicht mehr den Zeitpunkt der letzten Änderung an dieser Datei wieder, sondern den Zeitpunkt, zu dem sie zuletzt (ggf. mit vielen anderen Dateien) ausgecheckt wurde.

Für Webseiten bedeutet das, dass man für die Ausgabe des Datums der letzten Änderung nicht mehr auf den Zeitstempel der entsprechenden Datei zurückgreifen kann. Das macht mir nichts aus, denn zum einen verwende ich mittlerweile weitgehend statische Webseiten, bei denen das ohnehin nicht ohne weiteres möglich wäre, und zum anderen bringt dieser Ansatz zwar den Vorteil der Automatisierung mit sich, aber zugleich den - aus meiner Sicht überwiegenden - Nachteil, dass jeder verbesserte Tippfehler, jede unsichtbare Änderung am Seitengerüst als “Update” vermerkt wird, obwohl der Inhalt möglicherweise weiterhin völlig veraltet ist. Ich ziehe es daher vor, selbst zu entscheiden, was als “Änderung” gilt, und dann das Datum der letzten Änderung selbst zu setzen.

So weit, so gut - aber wie sieht das mit Downloaddateien aus?

"Zeitstempel von Dateien unter Versionsverwaltung" vollständig lesen

Streaming mit Chromecast

Alle Jahre wieder, kommt das Weihnachtsfest … und damit auch die Frage, was man sich denn - als Geschenk - wünschen würde. Fiel die Antwort früher leicht, fällt sie heute zunehmend schwerer, denn die meisten materiellen Wünsche sind erfüllt (oder erfüllbar). Natürlich muss man sich nichts schenken, und es gibt genügend immaterielle Wünsche und Geschenke, aber es ist doch immer schön, im Kreise der Familie etwas auszupacken und sich gemeinsam daran zu freuen.

Nachdem der Stapel meiner ungelesenen Bücher in den vergangenen Jahren ungeahnte Höhen erreicht hat, habe ich mich dieses Jahr einmal systemisch mit der Frage beschäftigt, was mich denn an elektronischem Spielzeug noch faszinieren könnte, und bin nach meinem Erfolg mit den Sonos-Lautsprechern auf Chromecast gekommen.

"Streaming mit Chromecast" vollständig lesen

WLAN-Lautsprecher von Sonos

Ich fürchte, ich neige dazu, Geld auszugeben - nicht nur, aber auch für den impulsiven Erwerb von teurem Spielzeug. Mittlerweile hat sich das etwas gebessert, weil ich vor größeren Investitionen meine bessere Hälfte frage, die dann auf vorangegangene … wenig glückliche Investitionen verweist und mich zu der Erkenntnis bringt, dass ich genau genommen auch nicht so recht weiß, was ich damit anfangen will.

So ähnlich war der Ablauf auch, als ich über WLAN-Lautsprecher stolperte und mich dann für Sonos zu interessieren begann. Billig sind die Angebote ja nicht - und eigentlich brauchen wir das auch nicht, stehen hier doch genügend Computer herum, die Musik abspielen können, dazu noch eine alte Stereoanlage und irgendwo auch ein IPdio mini, ein “Internetradio”. Von Smartphones und Tablets wollen wir gar nicht reden … Günstigere Lautsprecher-Alternativen wiederum überzeugten mich nicht so wirklich, und so war es das dann.

"WLAN-Lautsprecher von Sonos" vollständig lesen

"StartCom temination announcement"

Bis zum Umzug meines Blogs auf neue Hardware stammte das SSL-Zertifikat für das Blog von StartCom, einem Tochterunternehmen von WoSign (wobei der Erwerb offenbar verdeckt durch Hinterleute erfolgte). Die Konzernmutter fiel jedenfalls 2016 durch … unschöne Praktiken bei der Erstellung von Zertifikaten auf, mit der Folge, dass Apple, Google (Chrome) und Mozilla (Firefox) allen Zertifikaten der Mutter- wie der Tochterfirmen sukzessive das Vertrauen entzogen.

""StartCom temination announcement"" vollständig lesen

"Mixed-Content"-Warnungen vermeiden

Wer seine Webseiten auf SSL umstellt, kennt das Problem: eingebundene Bilder, Grafiken, CSS- oder Javascript-Dateien werden hier und dort noch über HTTP aufgerufen, was entweder zu Warnmeldungen im Browser über Mixed Content führt (“Teile dieser Seite sind nicht sicher.”) - oder dazu, dass die “unsicher” eingebundenen Teile nicht nachgeladen werden, mit unschönen Aspekten, wenn Teil des CSS oder des Javascripts plötzlich fehlen.

Das Problem lässt sich natürlich mit einer Volltext-Suche (bspw. nach http:) angehen, aber gerade bei datenbankgestützten Webapplikationen (wie Blogs und CMS) mag der SSL-Check von Jitbit hilfreich sein, der kostenlos bis zu 200 Einzelseiten überprüft.

(Gefunden bei Leitmedium.)

Der Injection-Date:-Header

Das Usenet ist zunehmend in die Bedeutungslosigkeit zurückgefallen - ironischerweise sind die zugrundeliegenden Formate und Protokolle heutzutage aber klarer spezifiziert als das zu seinen Hochzeiten der Fall war. NNTP, das Übermittlungsprotokoll mit der größten Verbreitung, war recht gut definiert, erst in RFC 977 von 1986 und dann zwanzig Jahre später in RFC 3977; außerdem kann man den INN wohl als eine Referenzimplementation betrachten.

Mit dem Nachrichtenformat war es da schon schwieriger: Auf RFC 850 von 1983 folgte RFC 1036 von 1987, der während der Blütezeit des Usenets niemals aktualisiert wurde, obschon es bereits 1993 einen Entwurf für einen Nachfolger gab, den sog. “Son-of-1036” (der erst 2010 als historisches Dokument in Form von RFC 1849 veröffentlicht wurde). Der De-Facto-Standard war dann letztlich “Son-of-1036” mit weitgehend ungeschriebenen Modifikationen aus der Implementierungspraxis, während die USEFOR working group der IETF sich unendlich lange vergeblich mit der Erstellung einer Spezifikation abmühte. Als Ende 2009 dann endlich RFC 5536 “Netnews Article Format” veröffentlicht wurde (der zusammen mit RFC 5537 “Netnews Architecture and Protocols” ein umfassendes Kompendium zur Implementation von Newsservern, -readern und allen möglichen anderen Tools rund um das Usenet bzw. Netnews darstellt), waren die großen Zeiten des Usenets bereits Vergangenheit.

"Der Injection-Date:-Header" vollständig lesen

Wechselnde WLAN-MAC-Adressen beim Nexux 5x?

Demletzt stolperte ich über eine unbekannte MAC-Adresse im lokalen Netz - wie sich dann herausstellte, hatte ein Nexus 5x plötzlich eine neue MAC-Adresse für seine WLAN-Schnittstelle.

Die vorige Adresse begann mit dc:0b:, dem Smartphone-Hersteller LG Electronics zugeordnet; die neue Adresse lautete 00:A0:C6:EB:5C:6F, zugeordnet dem Chiphersteller Qualcomm. Und es scheint sich dabei um eine ganz spezifische MAC-Adresse zu handeln, quasi einen Default, der unter bestimmten, nicht ganz klaren Umständen gesetzt wird, wie man nach einer Google-Recherce - neben viel Spekulationen und Unsinn, wie üblich - einem Bericht im Nexus-Help-Forum entnehmen kann.

Ein Reboot hat das Phänomen beseitigt.

Hat ein Mitleser ähnliche Erfahrungen gemacht oder kann das Auftreten des Phänomens eingrenzen? Potentiell kann das mit mehr als einem Nexus 5x im WLAN etwas unschön werden, wenn es zu dieser Änderung kommt, weil sich dann MAC-Kollisionen ergeben …

Exim: Mailauslieferung über IPv4 erzwingen

Man munkelt, dass insbesondere Google eingehende E-Mails unterschiedlich streng filtert, je nachdem, ob sie per IPv6 oder per IPv4 eingeliefert werden.

Google selbst deutet das in seinen Bulk Senders Guidelines durch den Abschnitt Additional guidelines for IPv6 an, und ich hatte verschiedentlich den Eindruck, dass E-Mail, die ich an Adressaten bei Google (GMail, Hosting, …) versende, dort jedenfalls nicht in der Inbox landet. Für Mails an GoogleGroups - die u.a. Mailinglisten mit einem Webinterface und Webarchiv darstellen - kann ich das sogar positiv belegen: versende ich E-Mails über IPv6 nach dort, werden sie zwar lt. Logfile angenommen, dann aber offensichtlich ausgefiltert. Jedenfalls erscheinen sie nie in der GoogleGroup, auch nach mehreren Versuchen und mehreren Tagen nicht. Versende ich dieselbe Mail aber über IPv4, trifft sie binnen Sekunden ein.

"Exim: Mailauslieferung über IPv4 erzwingen" vollständig lesen

phpMyAdmin nur für einen vhost einbinden

phpMyAdmin verwende ich seit über einem Jahrzehnt, um bequem auf die Datenbanken auf meinen verschiedenen Webspaces zugreifen zu können (und diesen Zugriff ggf. auch anderen Nutzern zu ermöglichen). Dabei nutze ich der Einfachheit halber das jeweilige Debian-Paket - je mehr Webapplikationen nicht gesondert aktualisiert werden müssen, desto besser.

Die Standardinstallation hat - aus meiner Sicht - allerdings einen Nachteil: sie macht phpMyAdmin für alle vhosts verfügbar, d.h. unter allen auf dem Server gehosteten “Domains” aufrufbar. Manchmal mag das praktisch sein, wenn man bspw. so für jeden Kunden scheinbar “sein” phpMyAdmin mitliefert; mir gefällt das aber nicht so gut, und sei es nur, weil phpMyAdmin (wie jede verbreitete Webapplikation) regelmäßig “angegriffen” wird (sprich: Bots rufen die URL auf und suchen nach Schwachstellen oder versuchen, das Passwort zu erraten). Lieber würde ich phpMyAdmin nur unter einer “Domain” - einem vhost aufrufbar machen.

"phpMyAdmin nur für einen vhost einbinden" vollständig lesen

Von Jessie zu Stretch

Ein Jahr nach dem letzten Distributions-Upgrade stand für meinen heimischen Server das Upgrade auf Debian Stretch an, das (wie immer) allein durch Download und Installation einige Zeit in Anspruch nahm, diesmal aber auch ungewohnt viele manuelle Eingriffe erforderte.

"Von Jessie zu Stretch" vollständig lesen

Nanoc: Upgrade von 3.x auf 4.x

Nanoc nutze ich schon mehr als drei Jahre zur Erzeugung verschiedener Websites; aber wie das so ist bei verschiedenen und zudem historisch gewachsenen Installationen, je mehr und je komplexer man ein Werkzeug einsetzt, desto größer ist der Angang bei notwendigen Änderungen. Und so habe ich das Upgrade auf Nanoc 4 - über dessen Beta ich damals bereits berichtete - dann auch gut zwei Jahre vor mir hergeschoben.

Nunmehr werden aber endlich alle meine Präsenzen mit Nanoc 4 erzeugt.

"Nanoc: Upgrade von 3.x auf 4.x" vollständig lesen

Webserver-Tuning

Alle paar Monate wieder turnt ein - weniger rücksichtsvoller - Crawler vorbei und spidert sich zügig durch alle Einträge meines Blogs. Damit brachte er meinen bisherigen Server gerne an den Rand seiner Leistungsfähigkeit, durfte dieser doch für jeden Link einen php-cgi-Prozess starten. Man merkte das recht schnell an den steigenden Antwortzeiten, und auch interaktiv auf der Shell machte sich die steigende load bemerkbar. Am Ende blieben meist einige php-cgi-Prozesse übrig, die man dann manuell mittels kill entsorgen durfte. (Vielleicht lag auch hier das eigentliche Problem, dass nämlich die genutzten Ressourcen nicht wieder freigegeben wurden. Hinter die Einzelheiten bin ich nie so recht gekommen.)

Die brandneue Maschine hingegen sollte durch FastCGI und massenhaft RAM sowie schnelle SSDs einem solchen Ansturm (auch bei weiterer Verwendung des doch eher schwergewichtigen Apachen) besser gewachsen sein - dachte ich mir. Bis eines Freitagmorgens die E-Mails des Monitoring-System eingingen, die mir mitteilten, dass der Webserver nicht mehr auf Anfragen reagiert. Gar nicht mehr.

"Webserver-Tuning" vollständig lesen
tweetbackcheck