Ranking-Faktoren, User-Verhalten und Social Signals: Wir müssen komplexer denken

Ranking faktorenWenn im Frühjahr die Studien der Ranking-Faktoren veröffentlich werden, dann diskutiert SEOhausen über die Relevanz von Textlänge, Backlinks und Keywords in der H1. Und die besonders Cleveren arbeiten sich an den Social Signals ab, betonen, dass es sich hierbei nicht um „Ranking-Faktoren“ sondern um Korrelations-Studien handelt.

Ihr kennt das. Das sind viele nützliche Informationen und oft interessante und anregende Diskussionen. Doch: Vorsicht vor den daraus resultierenden Schlüssen auf die SEO-Arbeit. So nützlich das alles ist, ist es halt doch arg vereinfachend. Wir müssen – auch – komplexer denken. Ich möchte mit euch folgende Thesen diskutieren:

  1. Korrelations-Studien sind wertvoll – aber nur eine Wahlprognose.
  2. Ranking-Faktor ist nicht gleich Ranking-Faktor.
  3. Social Signals sind für SEO viel wichtiger als gedacht.

Gerade, weil die Social Signals solch unbequeme „Ranking-Faktoren“ sind, möchte ich an diesen beispielhaft erklären, warum wir noch immer viel zu einfach denken. Und ich will nicht weniger als eine neue Dimension in unsere Algorithmus-Betrachtungen einbringen. Los geht’s:

Vorab: Was Google kann – und was nicht

Was ist das oberste Ziel von Google? Jede Suchanfrage eines Users mit der dafür besten Antwort in den Suchergebnissen auf Platz 1 zu beantworten. Das klingt einfach – ist aber knifflig. Richtig gute, unmittelbare Ranking-Faktoren wären demnach nämlich alles, was auf eine Zufriedenheit des Users  hinweist:

  • Durchklickrate in den SERPs gemessen an einer durchschnittlichen Verteilungskurve der einzelnen Positionen
  • Boucerate zurück auf die SERPs im Vergleich zur Konkurrenz
  • Verweildauer der User im Vergleich zur Konkurrenz
  • weitere User-Signale wie z.B. Kauf-Abschlüsse auf Shops, Anmeldungen oder Newsletter-Bestellungen

serps verteilungDas all das ist nicht leicht zu messen – vor allem Conversions und Abschlüsse nicht. Doch auch die ersten drei Punkte können nur in einer ganz speziellen Situation selten gemessen werden: Nämlich nur dann, wenn ein Suchergebnis tatsächlich auf einem der ersten zehn Plätze in den Suchergebnissen erscheint. Wenn man sich das Verhältnis von gefundenen Seiten zu einem Thema (etwa zu „SEO München“ mit 1.910.000 Ergebnissen) zu den ersten 10 Positionen anschaut: Nur bei 0,000523560209 Prozent aller Ergebnisse kann Google in dieserm Fall überhaupt mit User-Signalen rechnen. Bei allen anderen 1.909.990 Ergebnisen ist Google auf die eigene Einschätzung angewiesen.

Während Traffic über die Suchergebnisse auf die Suchergebnisseiten strömt, kann Google entspannt schauen, wie häufig ein Snippet angeklickt wird, wie lange die User im Schnitt auf der URL bleiben oder ob sie überhaupt wieder kommen. Wobei nach meiner Erfahrung folgende Kombination am besten funktioniert: Dank eines guten Snippets (Title und Description) klicken möglichst viele User auf meine URL und kehren nach langer Zeit, vielleicht nach sieben oder zehn Minuten, wieder zurück auf das Suchergebnis. In diesem Fall weiß Google sehr sicher, dass die Verweildauer sehr hoch ist. Auf Informations-Seiten funktioniert das jedenfalls sehr gut. 

Halten wir also fest: Google braucht „mittelbare“ Ranking-Faktoren, die einen Rückschluss darauf geben, ob eine Webseite eine gute Antwort auf die Suchphrase ist oder nicht. Aber wenn Traffic auf der Seite fließt, gibt es bessere weil unmittelbare Ranking Faktoren. Das führt uns zu diesem Thema:

1. Korrelations-Studien sind wertvoll – aber unvollständig

Kein Datenanalyst außerhalb von Google kann bei einer Ranking-Faktor- oder Korrelations-Studie die oben genannten unmittelbaren Faktoren messen – und braucht das auch nicht: Denn Google muss ja selbst ehr häufig mit „mittelbaren“ Faktoren kalkulieren. Auch diese kann ein Nicht-Googler freilich nur teilweise erfassen. Doch zunächst, was man einfach errechnen kann (Bild: Ranking Faktoren 2013 von Searchmetrics):

  • Korrelations-StudienKeyword-Auftauchen in URL, H1, Text (inkl. Häufigkeit) u.s.w.
  • Beitragslänge, Auftauchen von Bildern und HTML-Signalen
  • Backlinks inkl. ihrer Ausprägungen und ihrer Herkunft
  • Social Signals
  • u.s.w..

Kurz: Alles, was man eben mal so messen kann. Wer hat schon so einen Serverpark und die Datenmasse wie Google? Können sich die Analysten von Searchmetrics, Moz & Co mit den Ingenieuren in Mountain View messen? Jedenfalls nicht in ihrer Truppenstärke. Und trotzdem können diese Faktoren hinreichend analysiert werden – man kann ja auch mit wenigen tausenden Stimmen sehr genaue Wahlprognosen errechnen.

Was ein Datenanalyst außerhalb von Google nicht messen kann

  • Die Entwicklung der Seiten:  So eine Korrelations-Studie ist ein jährlicher One-Shot. Es können zwar die Ergebnisse des Vorjahres verglichen werden – aber die Entwicklung z.B. hinsichtlich der Backlinks einer betrachteten Seite ist unmöglich.
  • Komplexe algorithmische Konzepte: Wer würde sich schon daran trauen, von allen analysierten Seiten die WDF*IDF-Optimierung, eine Kookurrenz-Analyse und eine NGram-Betrachtung zu erstellen?
  • Die Abhängigkeit der Ranking-Faktoren vom Keyword: Wir alle wissen, dass die Suchergebnisse bei transaktionalen Keywords (also „Money-Keywords“ wie „iPhone kaufen) anders funktionieren wie die von informationellen Keywords (also z.B. „iphone lautlos“). Selbstverständlich funktionieren auch hart umkämpfte, spamverdächtige Keywords („Kredit ohne Schufa“) anders als unverdächtige, der Longtail anders als der Shorthead u.s.w.. Ich kenne keine Ranking-Studie, die die untersuchten Seiten entsprechend klassifiziert. Wie auch?
  • Ranking-Signale in Abhängigkeit zur Konkurrenz: Die Textlänge in einem Shop für Schrauben kann getrost geringer ausfallen als in einem Informationsportal über Quantenphysik. Es gibt für vermutlich keinen Ranking-Faktor ein absolutes Maß, es geht immer um den Vergleich zur direkten Konkurrenz.
  • Domain-Signale: Wie wirkt sich die Domain auf die Performance der Unterseiten aus? Marcus Tober hat in seiner diesjährigen Searchmetrics-Studie zwar auch einen Blick auf die Domain-Signale geworfen. Aber natürlich nicht in der Tiefe, die Google möglich ist. Und es dürfte klar sein, dass eine URL von zalando.de anders bewertet wird, als eine von ich-habe-auch-einen-kleinen-shop.de.

Das soll kein Ranking-Faktoren-Bashing sein. Ich liebe diese Studien und sie sind in jedem Jahr so aufschlussreich, dass sich jeder SEO damit beschäftigen sollte. Ich denke aber dass es wichtig ist, ihre Grenzen zu kennen.

Wir können uns das also so darstellen: Von all dem, was potentiell im Algorithmus wichtig ist, wird nur das gemessen, was halt gemessen werden kann. Und wir sollten davor hüten – egal ob Ranking- oder Korrelations-Faktor – dies als umfassend zu betrachten. Wenn es in diesem Jahr so aussieht, dass die Korrelation zwischen guten Rankings und vielen Backlinks abgenommen hat, dann ist das sehr interessant – aber nur ein kleiner Ausschnitt der Wahrheit. Und natürlich unterkomplex.

2. Ranking-Faktor ist nicht gleich Ranking-Faktor

Und das Gemeine daran ist: Im Kapitel zuvor ging es sogar nur um die grundsätzlich messbaren Faktoren, also die mittelbaren. Das User-Verhalten dagegen haben wir dabei gar nicht angesprochen. Dabei ist es eine verdammt wichtige Dimension in dem Rennen um die guten Plätze. Zwar, wie vorhin errechnet, nur in der Größenordnung von 0,00001 Promille der Suchergebnisse. Aber ich würde mal sagen, dass die Positionen 1-10 die wichtigsten sind…

Doch: Um diese User-Signale überhaupt messen zu können, müssen erst User auf die Seite kommen. Und zwar ausreichend viele User: Wird ein Suchbegriff gerade mal 500 mal pro Monat gegoogelt – ab wann lassen sich dann valide Aussagen über das Verhalten der User treffen? Reichen schon 16 Besucher am Tag, damit Google behaupten kann: „CTR, Bouncerate und Verweildauer ist super“? Ich denke nicht. Google muss also manchmal lange Daten sammeln, bis diese aussagekräftig sind.

Eine neue Webseite wird also durch zwei Phasen im Ranking gehen:

  1. Die rein algorithmische Phase. In dieser muss (!) Google auf die mittelbaren Ranking-Faktoren zurück greifen und sich selbst ein Bild davon machen, ob die URL zu einer Suchanfrage passt.
  2. Die Userdaten-Phase. Sind einmal genug Daten gesammelt, könnte die Seite theoretisch auch völlig ohne Text, Bilder und Backlinks ranken – so lange die User ihr treu bleiben.

Der Ablauf eines Rankings könnte also so aussehen:

Zwei Phasen des Rankings

  1. Eine Seite wird neu publiziert. Google kommt über Backlinks darauf (und nimmt deren Relevanz, egal ob intern oder extern) gleich mit in die Betrachtung auf.
  2. Es wird ein grober, algorithmischer Wert errechnet, der für eine Positionierung zwischen den Ergebnissen 11 und Unendlich liegt. (Im Bild: die rote Kurve)
  3. Die URL wird – abhängig vom Suchvolumen – auf sichtbaren Positionen „getestet“. Und zwar zu unterschiedlichen Zeiten und an unterschiedlichen Positionen. (Im Bild die blauen Striche.)
  4. Besteht sie diesen Test, wird sie in den Top-10-Kader aufgenommen und anhand der User-Signale gegen die anderen Top-10 verglichen. (Im Bild die grüne Kurve)
  5. Zugunsten des Tests anderer Seiten, wird unsere URL immer mal wieder nach hinten durchgereicht.
  6. Zeigen zehn oder mehr URLs bessere User-Werte als unsere URL, fliegt sie aus dem Kader heraus.
  7. Dann muss sie sich wieder algorithmisch beweisen. Dies könnte etwa durch eine Aktualisierung erfolgen (Im Bild etwa in Kalenderwoche 24; siehe dazu die Fragen unten).  

Seid ihr einverstanden mit diesem hypothetischen Weg einer URL durch die SERPs? Das führt gleich auf einige Fragen, die wir am besten gemeinsam diskutieren sollten:

Welche Rolle spielt hierbei die Freshness?
Ist die Aktualisierung einer Seite, die gerade nicht im sichtbaren Bereich ist, möglicherweise ein Signal für Google, eine URL mal wieder im sichtbaren Bereich zu testen? Unsere Erfahrungen mit der Aktualisierung von Seiten legen das nahe.

Welche Rolle spielen Brand-Faktoren?
Ich denke, eine recht große, da ein starker Brand eine hohe Wiedererkennung verspricht und deshalb eine URL auch ohne die anderen mittelbaren Faktoren attraktiv sein kann.

Gibt es so etwas wie „Sippenhaft“?
Geht Google bei einer neuen URL von einer ansonsten gut bei den Usern funktionierenden Domain davon aus, dass auch die neue URL gut funktionieren wird? Ich denke schon.

Gilt das auch für den Autor?
Logisch, oder?

3. Social Signals sind für SEO viel wichtiger als gedacht

Schließlich zu meiner möglicherweise aufmerksamkeitsstärksten These: Betrachtet man die Suchmaschinenoptimierung wie oben beschrieben, bekommen Soziale Netze (und alle andere potentielle Traffic-Quellen) eine völlig neue Gewichtung für den Suchmaschinenoptimierer. Allen voran Google Plus. Warum? Na klar: Weil Beiträge, die reichlich Traffic über Google Plus bekommen, schon weitaus früher hinsichtlich ihrer User-Faktoren gemessen werden können. Google kennt dann zwar immer noch keine SERPs-CTR – aber alles andere.

Und das gilt auch – eingeschränkt – für Facebook, Twitter, ja sogar für den Traffic von Newslettern oder direkten Verlinkungen. Denn angesichts der vielen Möglichkeiten, die Google hat, den Traffic einer Seite zu bestimmen (Einbindungen von AdSense, Double Click und „Messstationen“ wie die Toolbar, DNS-Server u.s.w. und sogar das Schalten von AdWords könnte Daten liefern…), können wir davon ausgehen, dass Google das Besucherverhalten auf unserer URL ganz gut Bescheid weiß. Vorausgesetzt, wir HABEN Besucher die NICHT von Google kommen.

Dies sage ich vor allem den Seiten-Betreibern, die schon 80 Prozent Google-Traffic haben und ihr Heil in einem Ausbau Ihres SEOs suchen. NEIN, Leute, das ist falsch: Wenn ihr schon viel Traffic von Google bekommt, kümmert euch um die anderen Kanäle.   

Und so gibt es – meiner Meinung nach – gute Gründe, warum Facebook & Co in den Ranking-, äh Korrelations-Studien solche Spitzenplätze einnehmen:

  • Der eine Grund ist natürlich, dass es ja auch Sinn macht, dass eine gute Seite sowohl bei Google wie auch bei Facebook viel Beachtung findet.
  • Der andere Grund lautet : Wenn du einen ordentlichen Social Buzz organisiert bekommst, hast du schnell so viel Traffic, dass dich Google schnell in den Top-10-Kader aufnehmen kann.

Und, nicht vergessen: Es geht NICHT darum, Google möglichst viele Traffik-Daten zu liefern. Es geht darum möglichs viele GUTE Traffic-Daten zu liefern. Wenn du eine Verweildauer von 0,001 Sekunde hast, wäre es geradezu dämlich, das via Google Plus an die Suchmaschine zu melden.

Und nun? Was fangen wir damit an?

Zunächst einmal: Lasst uns das diskutieren. Mir erscheinen die Gedanken logisch bis zwingend – aber ich hoffe auf ein ordentliches Feedback meiner Leser.

Für mich habe ich aber schon eine Aktions-Liste zusammen gestellt, unser Arbeitsleben etwas bunter machen wird:

  • Quality rules! Auch, wenn das etwas abgegriffen klingt. Aber ich kann mit Standard-SEO rund um die mittelbaren Ranking-Faktoren zwar auf gute Plätze für jedes Keyword kommen. Aber ich werde ohne den Zuspruch meiner Besucher dort nicht bleiben.
  • Möglichst schnell, möglichst viele Traffic-Quellen anzapfen. Natürlich geht es nicht um *irgendeinen* Traffic, sondern qualifizierten Traffic etwa von guten Newslettern, aus Sozialen Netzen, starken Verlinkungen u.s.w.
  • Google Plus so ernst nehmen, wie es irgend geht. Das fällt vor allem hier in Deutschland außerhalb der SEO-Szeneziemlich schwer. Aber trotzdem: Probiere es!
  • Definiere Ziele auf der Webseite und messe diese vielleicht über Google Analytics.
  • AdWords ist manchmal auch eine Lösung.
  • Neben dem algorithmischen Bereich und dem User-Bereich sollte man auf Aktualisierungen von Seiten, die aus dem Top-10-Kader gefallen sind, vorbereitet sein. Wann wird Google eine Seite neu bewerten? Genau: Wenn sie aktualisiert wurde. Außerdem spielt „Freshness“ ja auch im algorithmischen Index eine große Rolle.
  • Den Crawler möglichst noch deutlicher von „schlechten“ Seiten fern halten. Zumindest wenn man von einer Sippenhaft ausgeht. „noindex“ ist manchmal also auch eine Lösung…
  • Authorship via Google Plus ist zumindest ein Hoffnung. Aber nur dann, wenn der Autor woanders auch wirklich gut funktioniert…

So, jetzt seid ihr dran…

Foto oben: © niyazz – Fotolia.com

Eric Kubitz

Eric Kubitz ist einer der Chefs der CONTENTmanufaktur GmbH . Außerdem ist er Redner auf Konferenzen, Dozent bei Hochschulen, schreibt über SEO (und über andere Dinge) und ist der Chefredakteur des SEO-Book.

More Posts - Website - Twitter - Facebook - LinkedIn - Google Plus

Durch die weitere Nutzung der Seite stimmst du der Verwendung von Cookies zu. Weitere Informationen

Die Cookie-Einstellungen auf dieser Website sind auf "Cookies zulassen" eingestellt, um das beste Surferlebnis zu ermöglichen. Wenn du diese Website ohne Änderung der Cookie-Einstellungen verwendest oder auf "Akzeptieren" klickst, erklärst du sich damit einverstanden.

Schließen