Es gibt jede Menge Webdesigner die Websites nach Designregeln erstellen und dabei häufig ein bekanntes Contentmanagementsystem einsetzen und sich keinerlei Gedanken machen wie es denn mit der Performance ist.
Ja sogar Moderatoren von Supportforen schieben das Thema ganz weit weg.
Dabei geht es in der Computertechnik und insbesondere auch in der Softwaretechnik immer um Performance.
Als 1969 die erste Mondlandung erfolgte hatte der Bordcomputer über den alle Berechnungen erfolgten - der war groß wie ein Schrank - stolze 64 KB RAM und konnte tatsächlich nur eine Leistung abliefern die einem winzigen Bruchteil eines heutigen Smartphones entspricht:
Wer sich heute das anschaut und alte Technik nicht kennt wird möglicherweise nicht darauf kommen das es sich um ein Computer handelt und sogar einer mit dessen Hilfe bahnbrechende Erfolge in der Weltraumtechnik erst möglich wurden.
Möglich wurde es mit diesem PC im Monsterformat durch sinnvolle Zerlegung der Komplettaufgaben in für den PC lösbaren und vor allem schnelle kleinere Aufgaben.
Damals eine übliche Methode da nur so große Aufgaben zu lösen waren.
Der zur damaliger Zeit hochmoderne IBM Großrechner 360/20 hatten ebenfalls 64 KB RAM und Magnetbänder als Speicher.
Und dennoch konnte man mit diesen Geräten riesige Aufgaben erledigen.
Heute haben wir PC's in allen Variationen aber mit gigantischer Leistung auch daheim und das mehrfach - auch miteinander als Heimnetzwerk und in multimedialer Nutzung.
Und wir haben heute 15.641.480 DE Top - Level Domains die in Deutschland in Nutzung sind.
Hinzu kommen jede Menge andere TOP - Level Domains die allein in Deutschland genutzt werden.
Unzählige Webseiten weltweit bieten alles an was man sich vorstellen kann - wir haben Wettbewerb pur.
Liefert der eine nicht die gewünschten Ergebnisse und ausreichend schnell dann geht es halt zum anderen.
Internet prägt heute das Leben.
Deutschland hat bereits als Land Milliarden Euro ausgegeben um schnelles Internet (ab 50 Megabit) zu ermöglichen.
Tatsächlich wird der noch zu betreibende Aufwand in Deutschland insgesamt auf 100 Milliarden Euro geschätzt.
In anderen Ländern sieht es so ähnlich aus.
Es wird also jede Menge Geld ausgegeben um das Internet schneller zu machen.
Doch dann kommt das:
Was sieht man dort ?
Es sind die Ergebnisse zweier Siege Test's zum einen mit einem üblichen Standardtitel Cmsms = Cmsmadesimple und im Vergleich dazu ein Hochleistungscms.
Es ist ein Benchmark in dem 100 virtuelle User diese Installationen 60 Sekunden unter Feuer setzen und zwar lokal damit ein Vergleich möglich ist.
Der Unterschied ist gewaltig während der eine Titel lediglich 11,47 Transaktionen pro Sekunde leistet, schafft der andere 6993.
Das sind lokale Ergebnisse gemessen auf einem Rechner.
Test's über www Domains fallen schlechter aus da dort alles eine Rolle spielt - vom Server angefangen bis über die Netzanbindung und dem Routing etc. .
Und so ist es nicht verwunderlich das die Website des Titelanbieters mit eigenem Server bei dieser kleinen Last per Domainzugriff von 100 Usern auf 0 (Null) herunter ging - bei einem 100 MBit Zugang des Clients.
Die Hochleistungscms schaffte auf einem shared Webspace von Strato mit rund 350 Domains immerhin noch rund 68 Transaktionen pro Sekunde.
Die mickrige Leistung von CMS Titeln ist kein Einzelfall sondern leider der Regelfall - zumindest gilt das für die kostenfrei erhältlichen Titel.
Was drückt es aus ?
Highspeed - Internet kann einen Mangel an Performance bei der Software nicht annähernd ausgleichen.
Alle Ausgaben in die Netz Infrastruktur sind für die Katz wenn die Hersteller der Titel da nicht mitziehen.
Welche Konsequenzen hat es ?
Gewerbliche Siteanbieter sind immer daran interessiert möglichst viele Besucher auf ihren Webseiten zu haben.
Dafür wird richtig viel Geld ausgegeben für die Website selbst, Werbung und SEO Maßnahmen.
Doch extrem selten wird getestet und vom Ersteller der Site ein Beleg dafür verlangt das man damit auch die erhoffte Anzahl von Besuchern bedienen kann die man anlockt.
Dabei sind die Zahlen bekannt - ab 1 Sekunde Ladezeit laufen die Besucher weg.
Je länger es dauert desto schneller laufen sie !
Zeiten von im Schnitt 8 Sekunden und das lokal bei mickrigen 100 Usern gleichzeitig gemessen sind nicht akzeptabel.
Bei einem Domainzugriff gehen die Zeiten dann unter Last in Bereiche die einem Nutzer mal wieder das Gefühl eines Modembetriebs gibt.
Damit sind alle gesetzten Ziele und auch Finanzmittel beim Einsatz einer solchen Software reif für die Tonne.
Ja es grenzt sogar an Beschiss wenn ein Webersteller stillschweigend einen solchen Titel nimmt.
Es geht hier nicht um verlorene Leistungen die man z.B. mit Pagespeed - Maßnahmen ausgleichen könnte.
Der o.a. Test führt keinerlei Rendering aus - mit wären alle Zeiten wie sie beim Browser entstehen höher und damit alle Werte geringer !
Es geht um Leistungen der Software selbst.
Sicher sehen so manche Webentwickler auf die mit der Software möglichen Dinge wie auch auf die Bedienbarkeit des Endnutzers.
Dennoch ist ein Ergebnis - egal wie gut es aussieht und bedienbar ist - völlig unbrauchbar wenn denn nur solche Performance abrufbar ist.
Das Problem geht aber noch weiter.
So manche Titel sind von der Konzeption derart vernagelt und miteinander mit ihren Einzelteilen verhakt das jede Menge Titel eigentlich komplett neu programmiert werden müssten.
Das aber hat natürlich einen vollständigen Bruch mit Modulen, Plugins etc. zur Folge die von Drittanbietern erstellt wurden.
Ein Bruch hätte aber zur Folge das die Nutzbarkeit derartiger Teile nur dann gegeben ist wenn die an die neuen Verhältnisse angepasst sind.
Und genau das ist bei den meisten Titeln der Grund dafür das man dieses heikle Thema nicht anpackt.
Es wird dann nur an Teilen geschraubt die Winzigkeiten an Performance bringen aber nicht die Lösung.
Man hat mehr Angst auch vor einer unglaublichen Menge an Privatnutzern denen das Thema Performance nichts anzugehen scheint weil sie froh sind überhaupt eine Website erstellt zu haben.
Die aber werden meckern ohne Ende.
Letzen Endes haben die Titelhersteller Angst die Basis für ihre Bekanntheit zu verlieren.
Und gewerbliche Abnehmer solcher Sites werden zusehends geleimt.
Statt Erfolg verbleibt Stillstand sobald über die Anzahl der gleichzeitigen Besucher die Begrenzung eintritt.
Und Webersteller die für das gewerbliche Klientel Sites mit solchen Titeln verantwortlich zeichnen halten schlichtweg die Klappe weil sie Regress befürchten müssen.
Solche Forderungen sind dann möglich wenn eine bestimmte Leistung vereinbart wurde aber auch wenn aus den Vorgesprächen eine bestimmte Erwartung zur Leistung klar erkennbar war.
Und ein solcher Regress kann enorm teuer werden weil der Nachweis das erwartete Ziele nicht erreicht werden konnten via simplen Test beweisbar sind.
Es ist ganz klar - gute Möglichkeiten und Bedienbarkeit bei der Software müssen Hand in Hand gehen mit einer sehr guten Performance.
Performance ist seit der Erfindung der Computer und der dazu notwendigen Software immer ein Thema gewesen und wird es immer bleiben.
Die Software für webbasierende Anwendungen werden z.B. mit PHP geschrieben und es wird z.B. Mysql und als Webserver Apache2 wie als Betriebssystem z.B. Linux oder Windows genutzt.
Als Softwarehersteller greift man also auch auf diese Software zu.
Die Hersteller dieser Software (z.B. PHP,Mysql) verbessern ihre Produkte permanent - bessern Fehler aus, erhöhen die Performance oder schaffen einfach neue Möglichkeiten, die einfachere und neue hochperformantere Ansätze ermöglichen.
Es ist also völlig normal wenn der Hersteller eines CMS solchen Änderungen bei der Basissoftware folgt - nur sie machen es in Wirklichkeit nicht alle und wenn dann mit einem Zeitversatz von Jahren !
Gewerbliche Firmen die sich an eine reine Webdesignfirma wenden um eine Site geliefert zu bekommen haben ein Problem und wissen es häufig nicht besser.
Webdsign kümmert sich um das Erscheinungsbild einer Site und deren Bedienbarkeit.
Webdesigner können daher in der Regel selten programmieren.
Solche kleinen Designer verlassen sich daher einfach auf kostenlose CMS Titel, insbesondere die welche via zahlreichen Module und Plugins ein Fundus von Software anbieten die eine einfache Lösung aller denkbaren Anforderungen möglich erscheinen lassen.
Solange diese Module funktionieren scheint die Welt noch in Ordnung - ist ein Module aus welchen Gründen auch immer nicht mehr lauffähig fängt das Problem an und das nicht nur für den Designer sondern auch für dessen Abnehmer.
Und eine CMS API für derartige Module ist derart breitbandig das bereits an der Stelle enorme Performanceverluste entstehen.
Und Module und Plugins haben häufig die Eigenschaft das sie nicht genau das leisten was man haben möchte oder auch zu viel.
Da entstehen dann erneut Verluste.
Aber solange diese kleinen Designfirmen noch alles hinbekommen ist ihnen das Thema Performance völlig egal.
Gemeckert wird im Chor mit Privatleuten wenn Dinge grundsätzlich nicht mehr laufen oder wenn tatsächlich mal ein Kunde dahinter kommt das er eine Blindschleiche erworben hat.
Also bloß nichts ändern .
Geht ein Hersteller einer CMS über Jahre darauf ein ist sein Titel zum Tode verurteilt.
Die Computertechnik entwickelt sich unverändert mehr als rasant und damit auch die Anforderungen.
Wer da nicht mithält aus welchen Gründen auch immer der fällt aus dem Markt.


Keine Kommentare:
Kommentar veröffentlichen