Montag, 1. Juni 2009

Sinn und Unsinn von Bewertungsseiten

Nach tausenden über diverse Onlinetools vorgenommenen Bewertungen muss ich nun einmal darüber schreiben.

Das Ergebnis mal zuerst.

Kein Webseitenbetreiber benötigt eine solche Webseite !
Alle wesentlichen Informationen auf denen die Bwertungen basieren stammen direkt von Yahoo, Google, Alexa und der W3.org, nur das es sich jeweils um mehr oder weniger große Auszüge handelt.
Holt man sich also die Informationen direkt so ist man durchaus in der Lage sich mit wesentlich unfangreicheren und aussagekräftigeren Informationen zu versorgen als die Bewertungsseiten anbieten.

Der einzige Grund eine solche Seite zu nutzen wäre der, das man viele Ergebnisse auf einmal erhält.

Die Bewertungsseiten selbst sind keine Einrichtung der Caritas, sondern dienen in der Regel der Vermarktung von Werbeplätzen und IT - Dienstleistungen der Anbieter selbst.

Besondere Maßnahme dieser Bewertungsseiten um Besucher heran zu ziehen ist das Ranking.
Je nachdem wie hörig der Besucher einer solchen Website ist und Dinge die er sofort und selbst im Griff hat , kann er sich zumindest kurzfristig in der Ranking - Liste nach oben schieben.

Dieses Ranking basiert lediglich auf Basis der teilnehmenden Websites, wobei jeder jede Website prüfen kann.
Das bedeutet - eine möglicherweise in einer Rankingtabelle auftauchende Domain wurde vielleicht nie von seinem Betreiber dort gecheckt.

Es gibt Bewertungsseiten die eine Menge testen und die Ergebnisse mehr oder weniger sinnvoll geordnet darstellen oder schlicht zusammenfassen ohne das Details erkennbar sind.

Es gibt grundsätzlich Dinge die reinen Informationscharakter haben und Dinge die man technisch einfach bewerten kann.

Es ist grundsätzlich völlig unerheblich auf welchem Webservertyp oder Betriebsystem ein Server arbeitet.
Das gilt auch grundsätzlich für den Doctype und die Kodierung selbst.
Bewertungsseiten die das in irgend einer Form bewerten sollten mit Vorsicht genossen werden.

Alle Doctypes und Kodierungen die von der W3.org definiert sind sind ok.
Wenn jemand auf bestimmte Doctypes wie XHTML 1.1 verzichtet oder auf eine UTF-8 Kodierung so hat das in der Regel handfeste Gründe beim Seitenbetreiber - dem Besucher einer solchen Website selbst ist es völlig schnuppe.

HTML oder CSS - Fehler sind natürlich eine Bewertungsmöglichkeit, je weniger Fehler desto besser.
Sind diese valide also fehlerfrei gibt es keine Zufallsinterpretation durch einen Browser und auch die Darstellung beim Besucher kann bei einer fehlerfreien Seite bis zu 20% schneller sein, da der Browser keinerlei Arbeit und damit Zeit investieren muss um einen Beseitigungsversuch zu starten.

Dinge wir robots.txt sollten vorhanden sein, da sie den Suchmaschinen Anweisungen erteilen wo sie suchen sollen und wo nicht.
Das gilt im weitesten Sinne auch für den Language Key, die Suchmaschinen wissen damit genau zu welcher Sprache sie einen Inhalt zuordnen sollen.

Framesets sind eine veraltete Technik und zu vermeiden, da gibt es immer Probleme mit den Suchmaschinen.

Komplette Tabellelayouts führen zu einer Menge HTML - Code , d.h. das HTML - Gerüst wird unter Umständen so groß das der Inhalt nur noch ein kleinerer Teil ist.

Komplette Tabellenlayouts sind daher zu vermeiden, einzelne Tabellen zur Darstellung z.B. eines Datengrids sind völlig ok, da stink normaler W3 - Standard.

Keine einzige Bewertungsseite kann das übrigens korrekt unterscheiden und fangen an zu meckern wenn eine Tabelle enthalten ist.

Font-Tags im Text sind zwar auch W3-Standard, sind aber zu vermeiden - da ist es besser mit CSS zu arbeiten. Auch hier würde bei Font-Tags sich das Verhältnis HTML zu echtem Inhalt stark verschlechtern.

Es gibt Bewertungsseiten die Applets negativ bewerten, was völliger Unsinn ist da die gleichen Bewertungsseiten z.B. die Einbindung von Videos nicht anmeckern.

Google, Yahoo, Alexa und Co.

Google Pagerank

Die meisten vergessen wo die Bezeichnung Pagerank herkommt. Es ist der Name des Erfinders - Larry Page - der eine Methode entwickelt und patentiert hat um die Relevanz eines Treffers bei der Suche zu steuern.

Diese Methode ist aber komplett überholt. Als sie entwickelt wurde gab es nur relativ wenige Domains. Heute aber sind es geschätzte 200.000.000 Top - Level-Domains.

Pagerank schiebt damit die Treffer von Sites mit hohem Pagerank nach oben, weil die eine höhere Relevanz erhalten.

Es ist klar das bei der Menge der heutigen Domains die meisten auf gleichem niedrigen Niveau liegen und somit der Pagerank keinerlei Bedeutung mehr hat.

Auf der anderen Seite gibt es genügend Beispiele von Websites die kaum Inhalte besitzen, extrem schlechtes (da nicht valides) HTML besitzen und nicht nur das - kaum Backlinks besitzen - und dennoch einen Pagerank von 5 bis 7 vorweisen.

Yahoo und die anderen Suchmaschinen kennen keinen Pagerank, das ist auch der Grund warum man z.B. bei Yahoo sehr viel besser Ergebnisse findet, die sich auf kleinere Websites beziehen.

Praktisch gesehen ist es unsinnig auf einen hohen Pagerank hin zu arbeiten, den man angesichts der Domainmengen wahrscheinlich nie erreichen wird.

Selbst ein PR 5 oder 6 wirkt da nur so, das Treffer erst irgendwo in den Folgeseiten angezeigt werden, wenn es sich nicht um einen einzigartigen Begriff handelt, da es einfach zu viele Domains gibt

Fazit daraus : es ist völlig unsinnig einen Pagerank zur Bewertung zu verwenden.

Das gilt ähnlich auch für Backlinks und Seiten im Index.

Es gibt eine riesige Anzahl von Beispielen in denen Firmen die ausschliesslich direkt vom Internet leben wirtschaftlich sehr erfolgreich sind, während die Werte PR, Backlinks und Seiten im Index eigentlich etwas anderes vermuten lassen würden.

Und es gibt auch die Gegenbeispiele, wo hohe Werte keineswegs zu einem Erfolg führten.

Die Anzahl der Seiten im Index ist natürlich limitiert, denn eine Website hat nun mal nur eine Anzahl von X - Seiten und nicht mehr.

So ist es auch bei Yahoo, die aber wegen des anderen Systems in der Regel sehr viel mehr Backlinks aufweisen u.U. auch sehr viel mehr indizierte Seiten.
Google klappert bevorzugt Seiten mit hohem PR ab, bei 200.000.000 Domains plus unzähligen Subdomains und Unterverzeichnssen ist das eine schier unlösbare Aufgabe insbesondere auch weil heute Inhalte dynamisch generiert werden und sich somit Inhalte ständig verändern.

Yahoo geht da halt anders vor.

Auf meinen Domains sind täglich alle Bots der Suchmaschinen anwesend. Aber das abklappern ist eine Sache und die Aufnahme im Index eine andere - das geht bei Yahoo sehr viel schneller.

Alexa ist ein Unternehmen der Amazon.com, die Besucherzahlen werden nur dann ermittelt, wenn ein Surfer die Alexa - Toolbar bei sich im Browser einsetzt.
Das genau sind aber nur relativ wenige , die das so machen und somit sind die Zahlen alles andere als representativ.
Ähnliches gilt auch für Google - Analytics, mit dessen Hilfe man den Besucherstrom auseinanderbröseln kann. Jedoch sind diese Zahlen seltsamerweise nie identisch mit denen, die man z.B. selbst über den Webalizer erfasst.

Die Zahlen von Google - Analytics sind jedoch nicht öffentlich einzusehen und dienen im Prinzip nur Google der damit ein ideales Werkzeug hat um seine Werbung steuern zu können, so wie Alexa es auch macht.

Wenn jemand keinen Zugriff auf z.B. Webalizer hat, der ist mit Google - Analytics dennoch gut bedient, weil er ansonsten nichts hätte.
Das jedoch kann man bei einer Bewertung nicht als Abwertung verstehen, da der Betreiber auf Grund des gelieferten Zahlengerüstes Erkenntnisse gewinnt, die Entscheidungen zur Verbesserung ermöglichen.

Meta - Keywords

Die sind völlig out, keine der Suchmaschinen verwendet sie noch.

Gefragt sind der Title - Tag und die Description - mehr nicht.
Und dann zählt nur noch der Inhalt selbst.

Bewertungsseiten die das anders sehen, leben in der Welt von gestern.

Webkataloge

Da wird nun liebend gerne DMOZ aufgeführt und auch die Wikipedia, die zwar kein Katalog ist aber ähnlich wirkt.

In DMOZ ist so gut wie nichts zu finden, da gibt es andere Kataloge wo man erheblich schneller zu Potte kommt. DMOZ benötigt mindestens 6 Monate und das ist im schnelllebigen Internet gleichbedeutend mit 180 Beerdigungen von DMOZ.

Wikipedia vergibt keinerlei vererbende Backlinks, also ist da auch nichts an PR zu erben. In Wikipedia kommt man praktisch nur rein, wenn anerkannte Presseberichte und andere Medien des öfteren über eine Domain oder der damit verbundenen Produkte berichtet hat.

Ein Unsinn bei 200.000.000 Domains das als Bewertungsgrundlage zu verwenden.

Flesch - Werte


Manche Bewertungsseiten testen auch nach dem Flesch-Wert.

Flesch wurde 1948 entwickelt und Anfang der 70 er jahre auf die deutsche Sprache angepasst.
Es ist aber jeweils das Ergebnis der Forschung einer einzigen Person und nie breitbandig und aktuell wissenschaftlich bestätigt worden.

Der Flesch-Index (auch: Lesbarkeitsindex, Lesbarkeitsgrad) misst, wie leicht ein Text auf Grund seiner Struktur lesbar und verständlich ist. Über den Inhalt sagt der Index nichts aus. Er basiert vor allem auf der Tatsache, dass kurze Wörter und kurze Sätze in der Regel leichter verständlich sind als lange, wobei die Länge der Wörter ein grösseres Gewicht hat als die Länge der Sätze.

Es ist somit eine reine Erbsenzählerrei die entwickelt wurde als es weder PC noch Internet gab.

So entstehen die wahnwitzigen Bewertung z.B. des BGB's mit einem Faktor von 72, was einzuordnen ist in Richtung banal, Comicsprache.

In Wirklichkeit versteht das kein Schwein normaler Bauart.

Es kommt hinzu das um den Flesch-Index ausrechnen zu können man den Inhalt einer Webseite nach Sätzen, Wörtern und Silben trennen muss.

Nun ist der Flesch - Index 1948 auf Basis handschriftlicher Texte ermittelt worden.
Bei HTML sind Steueranweisungen mit Text vermischt.

Haben wir z.B. eine Linkserie von 10 Einträgen, entfernen den a Teil und haben als Rest nur den Text für den Link stellt sich die Frage wo fängt dann nun ein Satz an und wo hört er auf.

Ausgerechnet Bewertungsseiten die den Wunsch nach einer Rechtschreibprüfung aus Kostengründen (Wörterbücher) ablehnen, bewerten einen Fleschindex.
Bei denen stellt sich die Frage wie sie denn an die korrekten Silbenanzahl gelangen und das wenn eine Website nach alten und neuen Sprachregeln erstellt sein kann.

Es gibt zwar ein paar rechnerische Methoden die haben aber einer variable Präzision und können lediglich zwischen 0% und 100% Silben erkennen.

Da die Silbenanzahl aber ausschlaggebend ist (neben der Satzzahl und Wortzahl) sind alle Ergebnisse Müll.

Auf der anderen Seite nochmals zum Entstehungsjahr 1948 und Anfang der 70 er.
In der Zwischenzeit hat sich allein die deutsche Sprache enorm gewandelt.

Viele Wörter des täglichen Gebrauchs entstammen der englischen Kultur.

Damit ist Original Flesch nicht brauchbarer, da ausschliesslich auf englisch getrimmt und die deutsche Anpassung ebenfalls nicht, da ausschliesslich auf urdeutsch getrimmt.

In der Praxis wird davon nichts mehr verwendet.
Statt z.B. eine Gebrauchsanweisung oder Medikamentenbeileger durch einen Flesch-Index-Bewerter zu jagen, geben die Firmen enorm viel Geld aus um diese Inhalte manuell und mit Testgruppen prüfen zu lassen.

Geschwindigkeiten

Manche Bewertungsseiten messen die Übertragungsgeschwindigkeit.
Einige ermitteln die Geschwindigkeit bei einer konstanten kleinen Größe die abgerufen wird (z.B. 1,5KB) und rechnen das hoch, andere lesen die ganze Seite und zwar nur html, errechnen einen Wert und rechnen andere Komponenten wie Images etc. damit rein, andere bewerten nur den HTML - Teil, was meiner Meinung nach ausreicht.

Einige denken das man damit die Generierungszeiten einer CMS ermitteln kann, das geht aber nicht.
In den Zeiten ist alles enthalten.
Nutzer einer langsamen CMS haben damit die Chance durch den Einsatz einer besseren Hardware und Internetanbindung Nachteile auszugleichen.





Es gäbe noch mehr Dinge zu schreiben - da kommt noch etwas.

Keine Kommentare: