Googles Site-Speed: Was bringt der Webseiten-Turbo?

Bookmark and Share

Es gibt vielleicht nur ein Thema, in dem sich User, Google, Webgrafiker und Techniker einig sind. Doch dieses Thema ist leider auch ein häufiger Schwachpunkt: Die Site-Performance, also die Ladegeschwindigkeit. Diese leidet häufig unter vielen Funktionen, opulenter Grafik und „gewachsenem“ Code. Google will Webmastern mit seinem Page Speed Programm helfen.

Schnelligkeit nutzt Usern und Robot

Der Nutzen einer wirklich schnellen Webseite ist nicht zu bestreiten: Die Besucher fühlen sich (häufig unterbewusst) wohler, klicken mehr und seit über einem Jahr ist die Site-Performance sogar ein Kriterium im Google-Algorithmus. Es gibt also gute Gründe, sich darum zu kümmern.

Nun ist Google ja bekanntlich der größte Förderer des schnellen Internet. Den Betreibern der Suchmaschine geht es dabei nicht nur um das Wohlgefühl der Websurfer sondern auch um eigene Bedürfnisse. Denn je schneller Seiten geladen werden, desto mehr Seiten kann der Google-Robot indizieren. Und deshalb steht der datenhungrige Suchgigant Webmastern bei der Beschleunigung ihrer Seiten mit Rat und Tat zur Seite.

Überblick der Page Speed Tools

Mit vier Tools hilft Google unter dem Label “Page Speed”, nicht nur die versteckten Bremsen der Webserver aufzuspüren, sondern will sie nun auch lösen. Das sind zum einen die Browser-Erweiterungen für Mozilla und Chrome sowie die umfassende Webseiten-Analyse auf Page Speed Online. Und zum anderen sind das ein Apache Modul “mod_pagespeed” sowie der Page-Speed-Service, mit dem der ausgelieferte Code einer Webseite soweit wie möglich auf Geschwindigkeit umgeschrieben und ausgeliefert werden.

Die Page Speed Informations-Tools

Die zwei Browser-Erweiterungen und der Page Speed Online Service sind reine Informations-Tools. Damit checkt Google für jede analysierte Seite eine lange Liste von möglichen Verbesserungsmöglichkeiten und erklärt, wie diese behoben werden können. Hier ein Überblick der geprüften Punkte:

  • Komprimierung aktivieren: Die GZip-Komprimierung in der Regel ein Quick-Win.
  • JavaScript später parsen: Rechenzeit wird reduziert, indem Skripte nur ausgeführt werden, wenn sie benötigt werden.
  • Browser Caching nutzen: Es ist möglich, für jedes eingebundenen Element (also Bilder, Javascript-Dateien, CSS u.s.w.) eigenes Caching einzustellen.
  • Bilder skalieren: Bilder sollten immer in der Größe auf dem Server liegen, in der sie auch benötigt werden.
  • Bilder optimieren: JPG-Bilder müssen nicht mit 100 Prozent Qualität ausgeliefert werden, meist genügen 70 bis 80 Prozent.
  • Javascript reduzieren, CSS reduzieren, HTML reduzieren: Eingebundene Textdateien mit Javascript oder CSS enthalten fast immer Kommentierungen, Zeilenumbrüche und andere Informationen, die der Server und der Browser nicht benötigen.
  • Umleitungen minimieren: Manche Dateien sind erst über mehrere Umleitungen erreichbar. Auch das kostet Zeit.
  • Bilder in CSS-Sprites kombinieren: Statt als viele kleine Einzelbilder können viele Standard-Grafiken einer Webeseite in einem großen Bild zum Browser übertragen werden.
  • Bildabmessungen angeben: Noch immer werden Bilder teilweise ohne Abmessungen eingebaut.
  • Geringe Stylesheet-Angaben und JavaScript inline einfügen. Das gilt aber nur für wirklich kurze Angaben auf kleinen Seiten. In der Regel sollte beides ausgelagert werden.

Weitere Punkte die die Tools prüfen: Fehlerhafte Links vermeiden, korrekte URL angeben, Zeichensatz angeben, extrem langsame Skripte vermeiden und so weiter.

Bei der Seitenbeschleunigung ist viel zu tun

Dies Ergebnis ist eine umfangreiche und nur aufwändig zu bewältigende Liste von ToDos.  Denn schon das Zusammenfassen aller Style-Informationen in ein CSS ist mühselig und langwierig. Auch die Idee, immer nur exakt das Javascript auszuliefern, das auf einer gefragten Seite wirklich gebraucht wird, klingt nach wirklich viel Arbeit.

Einige dieser Punkte will ein Webdesigner oder Anwendungs-Entwickler überhaupt nicht ändern. Denn etwa das Minify des HTML-Codes führt dazu, dass er für menschliche Augen unlesbar wird. Wie soll dann an der Seite weiter entwickelt werden? Wie soll man Fehler finden? Da wünsche man sich, in der gewohnten Umgebung wie bisher weiter arbeiten zu können – und erst beim Veröffentlichen der fertigen Seiten werden die Seiten wie durch Zauberhand getuned. Nun, genau das verspricht Google.

Operative Hilfe von Google

Google will diese Zauberhand sein und bietet dafür zwei (noch) kostenlose Tools: Zum einen das „mod_pagespeed“-Apache-Modul, welches die meisten der oben aufgelisteten Punkte automatisch erledigt. Und der neue Page Speed Service geht noch weiter: Der klinkt sich zwischen Server und User ein und liefert die Webseite so optimiert wie möglich aus.

Im Wesentlichen werden hierbei CSS und Javascript kombiniert und über einen Proxy-Server verfügbar gemacht. Außerdem werden Style-Informationen in den Header der Datei umgeschrieben und JavaScript, wenn möglich, optimiert. Auch die Bilder werden über Proxy-Server verfügbar gemacht, sie werden optimiert und wenn nötig auch in der Größe angepasst. Darüber hinaus will Google das Caching je nach Datei optimieren, entfernt unnötige HTML-Tags sowie Styles und komprimiert die Inhalte mit Gzip. Doch nicht nur das: Die Seite wird über das Google Netzwerk ausgeliefert – ist fortan also ebenso „nah“ am User, wie die Google-Suche.

Was muss man dafür tun? Der Einstieg ist für einen geübten Webmaster überraschend einfach und lässt sich in kurzer Zeit erledigen: Zunächst muss die Seite zusätzlich auf einer anderen Subdomain (z.B. pss.domain.de) ausgeliefert werden und der DNS CNAME der eigentlichen Domain (z.B. www.domain.de) muss auf eine Google-Domain umgestellt werden. Fertig. Nun findet Google den Code unter der „Referenzdomain“ pss.domain.de, optimiert ihn und liefert ihn über die Serving Domain (www.domain.de) aus. Die Abholung des Codes erfolgt natürlich nicht erst dann, wenn ein User die Seite anfordert, sondern schon vorher. Außerdem können einzelne Seiten aus diesem Verfahren heraus genommen werden. Dann wird die Seite zur Laufzeit „nur“ über das Google CDN (Content Delivery Network) ausgeliefert. Selbst das ist für die User ein Vorteil, die weit entfernt vom Serverstandort sind. Bei Amazon muss man dafür Geld zahlen…

In der Gallery gibt es Beispiel-Videos, wie sich die Verbesserungen ausgewirkt haben.

Mit anderen Worten: Der Page Speed Service bügelt viele technische Unzulänglichkeiten von Webseiten aus und bietet zusätzlich ein CDN. Dies mit zum Teil erheblichen Geschwindigkeits-Vorteilen. Google selbst spricht von 25 bis 60 Prozent Beschleunigung. Wie es um die eigene Seite bestellt ist, kann man auf http://www.webpagetest.org/ checken, einer Seite, die die Optimierung simuliert und sogar in einem kleinen Video anzeigt.

Probleme und Unzulänglichkeiten

Datenschutzrechtliche Bedenken seien hier mal dahin gestellt. Doch es gibt auch technische und inhaltliche Fragen, die den Page Speed Service zumindest riskant erscheinen lassen.

Zunächst sieht man sich mit einer Reihe von Einschränkungen konfrontiert. So ist das Ausliefern HTTPs nicht möglich – für Shops und Login-Bereiche fällt der Service also aus. Ebenso für Webseiten, die auf einer Bare Domain (also ohne „www“) gefunden werden sollen oder die bei Hostern wie Blogger oder Google App Engine liegen.

Neben diesen Einschränkungen gibt es gute Gründe, manche Optimierungsmaßnahmen überhaupt nicht zu wollen: Steht etwa der Relaunch einer Webseite an, sollte man längeres Browser-Caching unbedingt vermeiden. Denn wenn dieses Caching für das CSS oder das Logo auf mehrere Tage eingestellt ist, wird es auch genau so lange dauern, bis der User eine Änderung sieht. Man könnte dafür beim Page Speed Service zwar alle Seiten „blacklisten“ – aber man verliert dann schnell den Überblick.

Man kann 'ne Menge einstellen. Aber einfacher wird das dadurch nicht...

Den Angaben von Google hinsichtlich der möglichen Geschwindigkeits-Verbesserungen sollte man übrigens misstrauen. Die aktuelle Seitengeschwindigkeit weicht teilweise stark von selbst oder durch andere Dienste gemessenenen Geschwindigkeiten ab. Aber auch mehrere Messungen auf dem Service hintereinander ergeben unterschiedliche Zeiten.

Und schließlich gibt es auch eine Reihe von Detail-Problemen, die schwer wiegen können: So wird berichtet, dass sich User nach der Umstellung nicht mehr einloggen konnten, andere bekommen Probleme bei der IP-Kontrolle zur Spambekämpfung. Alle Punkte sind laut Googles FAQ lösbar. Allerdings sollte man dafür mit dem Einstellen von IP-Adressen, Caches und DNS wirklich Erfahrung haben.

Eine gute Hilfe – aber echt nicht für jeden

Insgesamt ist die Unterstützung von Google per Page Speed Service für manche Webmaster sehr hilfreich – und zumindest bei einer Standard-Konfiguration sollte der Service getestet werden. Ein Geschwindigkeits-Vorteil von zwanzig bis dreißig Prozent ist schon drin. Wer aber den Umgang mit DNS-Einträgen scheut oder viele HTTPs-Unterseiten hat, sollte damit noch warten.

Und nun ihr: Möchtet ihr Google die Auslieferung eurer Seite anvertrauen? Soll die Suchmaschine auch nicht nur den Traffic bringen – sondern diesen auch gleich ausliefern? Das kann man sicher auch kontrovers diskutieren!

Anmerkung: Dieser Beitrag war die Grundlage für einen Artikel im aktuellen Screenguide Magazin. Aber das gibt es ja nur offline…

GD Star Rating
loading...
Googles Site-Speed: Was bringt der Webseiten-Turbo?, 4.3 out of 5 based on 6 ratings

Eric Kubitz

Eric Kubitz ist einer der Chefs der CONTENTmanufaktur GmbH . Außerdem ist er Redner auf Konferenzen, Dozent bei Hochschulen, schreibt über SEO (und über andere Dinge) und ist der Chefredakteur des SEO-Book.

More Posts - Website - Twitter - Facebook - LinkedIn - Google Plus

Bookmark and Share
1 comments
Tobias
Tobias

Wiedermal ein sehr guter Beitrag und auch der Hinweis, dass man sehr vorsichtig damit umgehen muss ist sehr wichtig! Zum Google CDN – sehr spannend. Bei großen Projekten, hätte ich aber bedenken und würde (noch) eine eigene Lösung vorziehen. Ich werde mal versuchen ein paar Entwickler zum Testen zu überreden :)