Dienstag, 22. Januar 2013

Pagespeed wird nicht verstanden

Google und auch andere versuchen seit Jahren Betreiber von Web's  dazu zu bringen ihre Inhalte mit maximaler Geschwindigkeit und für den Besucher mit niedrigst möglicher Last anzubieten.

Google hat mit Pagespeed Insights ein ideales Hilfsmittel dafür im Angebot.

Im wesentlichen geht es darum unnötigen Datentransfer und  Request's  zu vermeiden.

Schafft man das Maximum erzielt man allein vom Inhalt her den schnellstmöglichen Transfer und die geringste Last im Netz.

Gerade auch mit Blick auf die mobile Nutzung ist das enorm wichtig, da technisch wie auch kostenmässig dort die Verhältnisse komplett anders sind.
Das mobile Netz ist langsamer da Ping Zeiten technisch bedingt eben langsamer ablaufen.

Die Kosten sind zudem recht hoch.

Google Insights bietet es seinen Nutzern  die Inhaltsteile welche unnötigen Datenballast liefern optimiert aufzugreifen und direkt abzulegen.

Und natürlich werden auch jede Menge Hinweise gegeben wie man Request's verhindert z.B. durch den Einsatz serverseitiger Cachemechanismen und wie man aktuelle Browser optimal bedient.

Pagespeed liefert einen Faktor bis 100 % - mehr kann man da nicht erreichen.

Aber solche Bemühungen bedürfen ständiger Überwachung - ein neues Image sollte man genauso überprüfen wie eine veränderte CSS.

Webbetreiber aber die eigentlich das Thema kapiert haben werden in zunehmenden  Maße diesbezüglich luschig und sacken langsam aber sicher von hohen Pagespeedwerten auf durchschnittlich schlecht ab.

Diese haben tatsächlich  das Thema nicht vollständig begriffen.

Wenn ein Web seine Inhalte mit 60 Request's abliefert dann zieht es auch meine maximale 100 MBit schnelle Anbindung ganz nach unten.

Tatsächlich wird gedacht das die Masse ja alle schnelle Anbindungen haben und deswegen ist es alles nicht so wichtig - aber genau dann kommt beim Besucher Frust auf.

Und - 90 % aller deutschen Nutzer haben z.Z. maximal 2 MBit.

Eine hohe Anzahl von Request's bereiten auch den Mobilen erheblichen Ärger - sie machen das Netz zur Schneckenautobahn.

Die Reduzierung von Request's und des Datentransfers ist unverändert enorm wichtig - das verhindert auch das das Internet verstopft wird.

Jeder einzelne Webbetreiber hilft damit nicht nur sich selbst sondern allen.

Seltsam ist allerdings das bestimmte Anbieter welche sich dem Thema SEO widmen zwar mehr oder weniger viel über Pagespeed schreiben, selbst aber als sehr schlechtes Vorbild dienen.

So als Beispiel z.Z.

http://www.abakus-internet-marketing.de/foren/  . Pagespeed 57
http://www.seitwert.de/ - Pagespeed 74
http://www.seittest.de/ - Pagespeed 89
http://www.seitenreport.de/ - Pagespeed 87
http://www.seonative.de/leistungen/seo-analysen/ - Pagespeed 77

um mal eine Auswahl zu nennen

aber es gibt auch Ausnahmen
http://seitenreport.info/ - Pagespeed 100

Das ist schon befremdend, das  solche Seiten sich einerseits den Mund franzlig reden aber selbst nur schlechten Durchschnitt oder gar miese Werte liefern.

Aber auch Sites bei denen Speed eine Rolle spielen dürfte machen da zu wenig.
Nehmen wir doch mal eine Branche als Beispiel:

http://www.tagungshotels.com/ - Pagespeed 85
http://www.tagungshotels.de/ - Pagespeed 0 (so etwas sieht man sehr selten)
http://www.tagungshotel.com/ - Pagespeed 51
http://www.my-tagungshotel.com/ - Pagespeed 91
http://www.hotel.de/homepage.aspx - Pagespeed 90

Andere Branchen (z.B. Auto)  vermasseln sich alles weil sie den Speedkiller Flash einsetzen - da muss man sich überhaupt nicht mehr mit den Pagespeedmaßnahmen beschäftigen  - Flash schlägt da alles was negativ ist haushoch.

Noch ein paar Beispiele von Firmen die gewerblich Webdesign anbieten und da bei Google Anzeigen schalten:

http://www.klicktivisten.de/ - Pagespeed 72
http://www.sichtweise.co/?gclid=CN_VptHY-7QCFcq9zAodFwcAXg - Pagespeed  78
http://www.homepage-helden.de/homepages/cms-homepage/ - Pagespeed 92

Auch da kann man klar erkennen das es selten eine Vorbildfunktion gibt.

Au der anderen Seite scheint es CMS Titel zu geben die es einem nicht leicht machen einen guten Wert zu erzielen - als Beispiel nehme ich hier mal die Websites der Anbieter selbst:

http://typo3.org/  - Pagespeed 67
http://drupal.org/ - Pagespeed 92
http://www.cmsmadesimple.org/ - Pagespeed 76
http://www.joomla.de/ - Pagespeed 36
http://www.plone.de/ - Pagespeed 58
http://www.redaxo.org/ - Pagespeed 60
http://www.papaya-cms.com/ - Pagespeed 75
http://powersoftware.org/ - Pagespeed 100

Insgesamt betrachtet sind solche Stichproben eher ernüchternd.

Gerade gewerblich auf eine Site angewiesene Anbieter sollten doch eigentlich alles machen um sich auch auf dem Wege sich einfach mehr Kunden zu sichern.

Klar ist jede zehntel Sekunde Verzögerung bei der Auslieferung einer Webseite kostet 1% an Umsatz - bei deutlich über 1 Sekunde für eine Komplettseite steigt der Verlust rapide an.

Das sind Werte die Amazon veröffentlicht hat und die sollten es wissen.

Somit wird auch klar das Pagespeed ein wirtschaftlicher Faktor ist - genau das aber wollen viele Anbieter nicht sehen.

Pagespeed ist auch keine Sache für die man einen besonderen Server benötigt - man kann gute oder Spitzenwerte überall erreichen.

Die Auswirkungen von Pagespeed kann man sehr gut sehen wenn man mal eine Seite so aufruft als wenn man z.B. in den USA oder Japan sitzt.

Das bietet z.B. http://www.webpagetest.org/ an.

Gerade Japan ist da ein Härtetest wegen der komplexen Verbindungen.

Eine deutsche extrem schnelle Website die in den USA , Dulles in 0,1 Sekunden fertig gerendert ist wird in Tokio erst  nach 2,8 Sekunden fertig dargestellt (1. Aufruf).

Extrem problematische Sites mit sehr geringem Speed können u.U. von Japan aus überhaupt nicht aufgerufen werden.




Keine Kommentare: