10kb static blog 

Pagespeed? Ja. Prefetch? Ne, das geht garnicht...

Canoe

Preload, Prefetch, oder wie auch immer man das nennen mag, entwickelt sich so ein bisschen zu einem Renner.

Schlecht ╭∩╮(–_–)╭∩╮

Wobei die Geschichte so neu auch wieder nicht ist: schon 2006 gab es Plugins, zum Beispiel für den Firefox, die genau das ermöglichten: Seiten, die vielleicht irgendwann mal auch noch aufgerufen werden könnten, vorab laden. Und als Folge davon gab es dann Foren welche die Zugriffe mit dem Teil, dem “Beschleunigungs-Plugin”, gesperrt haben. Weil zusätzlicher und völlig unnötiger Traffic erzeugt wurde.

Sicher, ja: Pagespeed ist etwas positives. Die Ladezeit einer Seite ändert sich allerdings durch das Prefetching nicht. Die Seite wird nur unbemerkt im Hintergrund geladen. Es mag Anwendungsfälle geben wo das sinnvoll ist. Was aber ist mit den Fällen, wo die Seite zwar geladen aber garniemalsnienicht vom Benutzer aufgerufen wird? Dann gehen eben 1 oder 2 oder mehr Megabyte völlig sinnbefreit durch die Leitung. Welche ja immer schneller wird – die Bandbreite steigt ständig. Der Leser von Blogartikeln oder anderen Internetseiten merkt davon nicht immer etwas, die Bandbreite wird von den Entwicklern immer schneller für mehr oder weniger unsinnige Gadgets verplant, verbraucht, verbraten.

Pagespeed ist auch durch reduzieren der Datenmenge möglich. Bei Seiten mit 35 eingebauten Javascripts, das macht auch mal mehr als ein Megabyte an Daten, könnte häufig recht viel weggelassen werden. Und die meisten Benutzer würden vom Reduzieren überhaupt nix mitbekommen. Einfach deshalb, weil die Scripts – und andere Daten eben auf jeder Seite mit transportiert werden. Ob das nun gebraucht wird oder auch nicht. Meistens wird das nicht gebracht.

Pagespeed soll durch (weitere) technische Hilfsmittel erzeugt oder auch nur vorgegaukelt werden. Ein bisschen so: “welche Plugins kann ich in mein Wordpress-Blog noch einbauen, damit das Blog schneller wird?”. Auf die Idee, dass die Beschleunigung, der höhere Pagespeed Wert, auch durch weglassen erreicht werden kann, darauf kommen scheinbar viele nicht.

Prefetching verleitet wohl den Einen oder die Andere dazu, dass auf die Seitengröße nicht mehr besonders geachtet werden muss. Hier ein bisschen was im HTML-Code hinzufügen, der Prefetch Befehl, und alles ist gut. Oder auch nicht. Stellen Sie sich einen kostenlosen HotSpot vor. Da wird eine bestimmte Bandbreite zur Verfügung gestellt die frei benutzt werden können. Zum Surfen. Vorwiegend. Und in vermutlich nicht allzu ferner Zukunft dann eben zum Surfen und zum “Prefetchen” von Internetseiten die oft nicht angeschaut werden. Dennoch werden Daten transportiert und aus einer guten Leistung wird dann irgendwann eine (furchtbar) schlechte Leistung.

Prefetching bedeutet auch, dass bestimmte “Highspeed-Megabytes” schneller aufgebraucht werden. Es muss ja mehr geladen werden; ob mehr Seiten angeschaut werden spielt dabei eine untergeordnete Rolle. Altertümliche Datentarife werden, fast automatisch teurer. Bei geringer Bandbreite sind die Auswirkungen teilweise katastrophal. Das bisschen verfügbare Bandbreite wird zwischen den zu ladenden Seiten und den, mal vorsichtshalber, vorausgeladenenen Seiten aufgeteilt. Was, in meinem Fall beispielsweise, dazu führt, dass eben Seiten die dieses Prefetching verwenden nicht mehr aufgerufen werden.

Mal sehen wie lange es dauert bis neben den AdBlockern auch PrefetchBlocker auf dem Markt auftauchen.

Oder so…


  snuff  
  waelti
  notiz
  einfach
  impressum