Ranking-Faktoren, User-Verhalten und Social Signals: Wir müssen komplexer denken

Ranking faktorenWenn im Frühjahr die Studien der Ranking-Faktoren veröffentlich werden, dann diskutiert SEOhausen über die Relevanz von Textlänge, Backlinks und Keywords in der H1. Und die besonders Cleveren arbeiten sich an den Social Signals ab, betonen, dass es sich hierbei nicht um „Ranking-Faktoren“ sondern um Korrelations-Studien handelt.

Ihr kennt das. Das sind viele nützliche Informationen und oft interessante und anregende Diskussionen. Doch: Vorsicht vor den daraus resultierenden Schlüssen auf die SEO-Arbeit. So nützlich das alles ist, ist es halt doch arg vereinfachend. Wir müssen – auch – komplexer denken. Ich möchte mit euch folgende Thesen diskutieren:

  1. Korrelations-Studien sind wertvoll – aber nur eine Wahlprognose.
  2. Ranking-Faktor ist nicht gleich Ranking-Faktor.
  3. Social Signals sind für SEO viel wichtiger als gedacht.

Gerade, weil die Social Signals solch unbequeme „Ranking-Faktoren“ sind, möchte ich an diesen beispielhaft erklären, warum wir noch immer viel zu einfach denken. Und ich will nicht weniger als eine neue Dimension in unsere Algorithmus-Betrachtungen einbringen. Los geht’s:

Vorab: Was Google kann – und was nicht

Was ist das oberste Ziel von Google? Jede Suchanfrage eines Users mit der dafür besten Antwort in den Suchergebnissen auf Platz 1 zu beantworten. Das klingt einfach – ist aber knifflig. Richtig gute, unmittelbare Ranking-Faktoren wären demnach nämlich alles, was auf eine Zufriedenheit des Users  hinweist:

  • Durchklickrate in den SERPs gemessen an einer durchschnittlichen Verteilungskurve der einzelnen Positionen
  • Boucerate zurück auf die SERPs im Vergleich zur Konkurrenz
  • Verweildauer der User im Vergleich zur Konkurrenz
  • weitere User-Signale wie z.B. Kauf-Abschlüsse auf Shops, Anmeldungen oder Newsletter-Bestellungen

serps verteilungDas all das ist nicht leicht zu messen – vor allem Conversions und Abschlüsse nicht. Doch auch die ersten drei Punkte können nur in einer ganz speziellen Situation selten gemessen werden: Nämlich nur dann, wenn ein Suchergebnis tatsächlich auf einem der ersten zehn Plätze in den Suchergebnissen erscheint. Wenn man sich das Verhältnis von gefundenen Seiten zu einem Thema (etwa zu „SEO München“ mit 1.910.000 Ergebnissen) zu den ersten 10 Positionen anschaut: Nur bei 0,000523560209 Prozent aller Ergebnisse kann Google in dieserm Fall überhaupt mit User-Signalen rechnen. Bei allen anderen 1.909.990 Ergebnisen ist Google auf die eigene Einschätzung angewiesen.

Während Traffic über die Suchergebnisse auf die Suchergebnisseiten strömt, kann Google entspannt schauen, wie häufig ein Snippet angeklickt wird, wie lange die User im Schnitt auf der URL bleiben oder ob sie überhaupt wieder kommen. Wobei nach meiner Erfahrung folgende Kombination am besten funktioniert: Dank eines guten Snippets (Title und Description) klicken möglichst viele User auf meine URL und kehren nach langer Zeit, vielleicht nach sieben oder zehn Minuten, wieder zurück auf das Suchergebnis. In diesem Fall weiß Google sehr sicher, dass die Verweildauer sehr hoch ist. Auf Informations-Seiten funktioniert das jedenfalls sehr gut. 

Halten wir also fest: Google braucht „mittelbare“ Ranking-Faktoren, die einen Rückschluss darauf geben, ob eine Webseite eine gute Antwort auf die Suchphrase ist oder nicht. Aber wenn Traffic auf der Seite fließt, gibt es bessere weil unmittelbare Ranking Faktoren. Das führt uns zu diesem Thema:

1. Korrelations-Studien sind wertvoll – aber unvollständig

Kein Datenanalyst außerhalb von Google kann bei einer Ranking-Faktor- oder Korrelations-Studie die oben genannten unmittelbaren Faktoren messen – und braucht das auch nicht: Denn Google muss ja selbst ehr häufig mit „mittelbaren“ Faktoren kalkulieren. Auch diese kann ein Nicht-Googler freilich nur teilweise erfassen. Doch zunächst, was man einfach errechnen kann (Bild: Ranking Faktoren 2013 von Searchmetrics):

  • Korrelations-StudienKeyword-Auftauchen in URL, H1, Text (inkl. Häufigkeit) u.s.w.
  • Beitragslänge, Auftauchen von Bildern und HTML-Signalen
  • Backlinks inkl. ihrer Ausprägungen und ihrer Herkunft
  • Social Signals
  • u.s.w..

Kurz: Alles, was man eben mal so messen kann. Wer hat schon so einen Serverpark und die Datenmasse wie Google? Können sich die Analysten von Searchmetrics, Moz & Co mit den Ingenieuren in Mountain View messen? Jedenfalls nicht in ihrer Truppenstärke. Und trotzdem können diese Faktoren hinreichend analysiert werden – man kann ja auch mit wenigen tausenden Stimmen sehr genaue Wahlprognosen errechnen.

Was ein Datenanalyst außerhalb von Google nicht messen kann

  • Die Entwicklung der Seiten:  So eine Korrelations-Studie ist ein jährlicher One-Shot. Es können zwar die Ergebnisse des Vorjahres verglichen werden – aber die Entwicklung z.B. hinsichtlich der Backlinks einer betrachteten Seite ist unmöglich.
  • Komplexe algorithmische Konzepte: Wer würde sich schon daran trauen, von allen analysierten Seiten die WDF*IDF-Optimierung, eine Kookurrenz-Analyse und eine NGram-Betrachtung zu erstellen?
  • Die Abhängigkeit der Ranking-Faktoren vom Keyword: Wir alle wissen, dass die Suchergebnisse bei transaktionalen Keywords (also „Money-Keywords“ wie „iPhone kaufen) anders funktionieren wie die von informationellen Keywords (also z.B. „iphone lautlos“). Selbstverständlich funktionieren auch hart umkämpfte, spamverdächtige Keywords („Kredit ohne Schufa“) anders als unverdächtige, der Longtail anders als der Shorthead u.s.w.. Ich kenne keine Ranking-Studie, die die untersuchten Seiten entsprechend klassifiziert. Wie auch?
  • Ranking-Signale in Abhängigkeit zur Konkurrenz: Die Textlänge in einem Shop für Schrauben kann getrost geringer ausfallen als in einem Informationsportal über Quantenphysik. Es gibt für vermutlich keinen Ranking-Faktor ein absolutes Maß, es geht immer um den Vergleich zur direkten Konkurrenz.
  • Domain-Signale: Wie wirkt sich die Domain auf die Performance der Unterseiten aus? Marcus Tober hat in seiner diesjährigen Searchmetrics-Studie zwar auch einen Blick auf die Domain-Signale geworfen. Aber natürlich nicht in der Tiefe, die Google möglich ist. Und es dürfte klar sein, dass eine URL von zalando.de anders bewertet wird, als eine von ich-habe-auch-einen-kleinen-shop.de.

Das soll kein Ranking-Faktoren-Bashing sein. Ich liebe diese Studien und sie sind in jedem Jahr so aufschlussreich, dass sich jeder SEO damit beschäftigen sollte. Ich denke aber dass es wichtig ist, ihre Grenzen zu kennen.

Wir können uns das also so darstellen: Von all dem, was potentiell im Algorithmus wichtig ist, wird nur das gemessen, was halt gemessen werden kann. Und wir sollten davor hüten – egal ob Ranking- oder Korrelations-Faktor – dies als umfassend zu betrachten. Wenn es in diesem Jahr so aussieht, dass die Korrelation zwischen guten Rankings und vielen Backlinks abgenommen hat, dann ist das sehr interessant – aber nur ein kleiner Ausschnitt der Wahrheit. Und natürlich unterkomplex.

2. Ranking-Faktor ist nicht gleich Ranking-Faktor

Und das Gemeine daran ist: Im Kapitel zuvor ging es sogar nur um die grundsätzlich messbaren Faktoren, also die mittelbaren. Das User-Verhalten dagegen haben wir dabei gar nicht angesprochen. Dabei ist es eine verdammt wichtige Dimension in dem Rennen um die guten Plätze. Zwar, wie vorhin errechnet, nur in der Größenordnung von 0,00001 Promille der Suchergebnisse. Aber ich würde mal sagen, dass die Positionen 1-10 die wichtigsten sind…

Doch: Um diese User-Signale überhaupt messen zu können, müssen erst User auf die Seite kommen. Und zwar ausreichend viele User: Wird ein Suchbegriff gerade mal 500 mal pro Monat gegoogelt – ab wann lassen sich dann valide Aussagen über das Verhalten der User treffen? Reichen schon 16 Besucher am Tag, damit Google behaupten kann: „CTR, Bouncerate und Verweildauer ist super“? Ich denke nicht. Google muss also manchmal lange Daten sammeln, bis diese aussagekräftig sind.

Eine neue Webseite wird also durch zwei Phasen im Ranking gehen:

  1. Die rein algorithmische Phase. In dieser muss (!) Google auf die mittelbaren Ranking-Faktoren zurück greifen und sich selbst ein Bild davon machen, ob die URL zu einer Suchanfrage passt.
  2. Die Userdaten-Phase. Sind einmal genug Daten gesammelt, könnte die Seite theoretisch auch völlig ohne Text, Bilder und Backlinks ranken – so lange die User ihr treu bleiben.

Der Ablauf eines Rankings könnte also so aussehen:

Zwei Phasen des Rankings

  1. Eine Seite wird neu publiziert. Google kommt über Backlinks darauf (und nimmt deren Relevanz, egal ob intern oder extern) gleich mit in die Betrachtung auf.
  2. Es wird ein grober, algorithmischer Wert errechnet, der für eine Positionierung zwischen den Ergebnissen 11 und Unendlich liegt. (Im Bild: die rote Kurve)
  3. Die URL wird – abhängig vom Suchvolumen – auf sichtbaren Positionen „getestet“. Und zwar zu unterschiedlichen Zeiten und an unterschiedlichen Positionen. (Im Bild die blauen Striche.)
  4. Besteht sie diesen Test, wird sie in den Top-10-Kader aufgenommen und anhand der User-Signale gegen die anderen Top-10 verglichen. (Im Bild die grüne Kurve)
  5. Zugunsten des Tests anderer Seiten, wird unsere URL immer mal wieder nach hinten durchgereicht.
  6. Zeigen zehn oder mehr URLs bessere User-Werte als unsere URL, fliegt sie aus dem Kader heraus.
  7. Dann muss sie sich wieder algorithmisch beweisen. Dies könnte etwa durch eine Aktualisierung erfolgen (Im Bild etwa in Kalenderwoche 24; siehe dazu die Fragen unten).  

Seid ihr einverstanden mit diesem hypothetischen Weg einer URL durch die SERPs? Das führt gleich auf einige Fragen, die wir am besten gemeinsam diskutieren sollten:

Welche Rolle spielt hierbei die Freshness?
Ist die Aktualisierung einer Seite, die gerade nicht im sichtbaren Bereich ist, möglicherweise ein Signal für Google, eine URL mal wieder im sichtbaren Bereich zu testen? Unsere Erfahrungen mit der Aktualisierung von Seiten legen das nahe.

Welche Rolle spielen Brand-Faktoren?
Ich denke, eine recht große, da ein starker Brand eine hohe Wiedererkennung verspricht und deshalb eine URL auch ohne die anderen mittelbaren Faktoren attraktiv sein kann.

Gibt es so etwas wie „Sippenhaft“?
Geht Google bei einer neuen URL von einer ansonsten gut bei den Usern funktionierenden Domain davon aus, dass auch die neue URL gut funktionieren wird? Ich denke schon.

Gilt das auch für den Autor?
Logisch, oder?

3. Social Signals sind für SEO viel wichtiger als gedacht

Schließlich zu meiner möglicherweise aufmerksamkeitsstärksten These: Betrachtet man die Suchmaschinenoptimierung wie oben beschrieben, bekommen Soziale Netze (und alle andere potentielle Traffic-Quellen) eine völlig neue Gewichtung für den Suchmaschinenoptimierer. Allen voran Google Plus. Warum? Na klar: Weil Beiträge, die reichlich Traffic über Google Plus bekommen, schon weitaus früher hinsichtlich ihrer User-Faktoren gemessen werden können. Google kennt dann zwar immer noch keine SERPs-CTR – aber alles andere.

Und das gilt auch – eingeschränkt – für Facebook, Twitter, ja sogar für den Traffic von Newslettern oder direkten Verlinkungen. Denn angesichts der vielen Möglichkeiten, die Google hat, den Traffic einer Seite zu bestimmen (Einbindungen von AdSense, Double Click und „Messstationen“ wie die Toolbar, DNS-Server u.s.w. und sogar das Schalten von AdWords könnte Daten liefern…), können wir davon ausgehen, dass Google das Besucherverhalten auf unserer URL ganz gut Bescheid weiß. Vorausgesetzt, wir HABEN Besucher die NICHT von Google kommen.

Dies sage ich vor allem den Seiten-Betreibern, die schon 80 Prozent Google-Traffic haben und ihr Heil in einem Ausbau Ihres SEOs suchen. NEIN, Leute, das ist falsch: Wenn ihr schon viel Traffic von Google bekommt, kümmert euch um die anderen Kanäle.   

Und so gibt es – meiner Meinung nach – gute Gründe, warum Facebook & Co in den Ranking-, äh Korrelations-Studien solche Spitzenplätze einnehmen:

  • Der eine Grund ist natürlich, dass es ja auch Sinn macht, dass eine gute Seite sowohl bei Google wie auch bei Facebook viel Beachtung findet.
  • Der andere Grund lautet : Wenn du einen ordentlichen Social Buzz organisiert bekommst, hast du schnell so viel Traffic, dass dich Google schnell in den Top-10-Kader aufnehmen kann.

Und, nicht vergessen: Es geht NICHT darum, Google möglichst viele Traffik-Daten zu liefern. Es geht darum möglichs viele GUTE Traffic-Daten zu liefern. Wenn du eine Verweildauer von 0,001 Sekunde hast, wäre es geradezu dämlich, das via Google Plus an die Suchmaschine zu melden.

Und nun? Was fangen wir damit an?

Zunächst einmal: Lasst uns das diskutieren. Mir erscheinen die Gedanken logisch bis zwingend – aber ich hoffe auf ein ordentliches Feedback meiner Leser.

Für mich habe ich aber schon eine Aktions-Liste zusammen gestellt, unser Arbeitsleben etwas bunter machen wird:

  • Quality rules! Auch, wenn das etwas abgegriffen klingt. Aber ich kann mit Standard-SEO rund um die mittelbaren Ranking-Faktoren zwar auf gute Plätze für jedes Keyword kommen. Aber ich werde ohne den Zuspruch meiner Besucher dort nicht bleiben.
  • Möglichst schnell, möglichst viele Traffic-Quellen anzapfen. Natürlich geht es nicht um *irgendeinen* Traffic, sondern qualifizierten Traffic etwa von guten Newslettern, aus Sozialen Netzen, starken Verlinkungen u.s.w.
  • Google Plus so ernst nehmen, wie es irgend geht. Das fällt vor allem hier in Deutschland außerhalb der SEO-Szeneziemlich schwer. Aber trotzdem: Probiere es!
  • Definiere Ziele auf der Webseite und messe diese vielleicht über Google Analytics.
  • AdWords ist manchmal auch eine Lösung.
  • Neben dem algorithmischen Bereich und dem User-Bereich sollte man auf Aktualisierungen von Seiten, die aus dem Top-10-Kader gefallen sind, vorbereitet sein. Wann wird Google eine Seite neu bewerten? Genau: Wenn sie aktualisiert wurde. Außerdem spielt „Freshness“ ja auch im algorithmischen Index eine große Rolle.
  • Den Crawler möglichst noch deutlicher von „schlechten“ Seiten fern halten. Zumindest wenn man von einer Sippenhaft ausgeht. „noindex“ ist manchmal also auch eine Lösung…
  • Authorship via Google Plus ist zumindest ein Hoffnung. Aber nur dann, wenn der Autor woanders auch wirklich gut funktioniert…

So, jetzt seid ihr dran…

Foto oben: © niyazz – Fotolia.com

GD Star Rating
a WordPress rating system
Ranking-Faktoren, User-Verhalten und Social Signals: Wir müssen komplexer denken, 4.4 out of 5 based on 18 ratings

Eric Kubitz

Eric Kubitz ist einer der Chefs der CONTENTmanufaktur GmbH . Außerdem ist er Redner auf Konferenzen, Dozent bei Hochschulen, schreibt über SEO (und über andere Dinge) und ist der Chefredakteur des SEO-Book.

More Posts - Website - Twitter - Facebook - LinkedIn - Google Plus

Kommentare (16)

  1. optimizingexp

    „ab wann lassen sich dann valide Aussagen über das Verhalten der User treffen? Reichen schon 16 Besucher am Tag, damit Google behaupten kann: „CTR, Bouncerate und Verweildauer ist super“? Ich denke nicht“

    Manchmal scheint es tatsächlich so, dass auch wenig Besucher ein Gewicht für’s Ranking haben:
    http://optimizingexperts.de/visitorflow-als-rankingfaktor-24/

    Schöne Grüße,
    Steven

  2. eric108

    optimizingexp Oha! Sehr interessant!

  3. tillsteinbrenner

    1. Der eigentliche Grund, warum die Rankingfaktorenstudien so beliebt sind, ist doch, dass sie ein vermeintlich allgemeingültiges Rezept sugerrieren, das nicht da ist. So nach dem Motto „Oh, endlich sagt mir jemand, was ich zu tun habe.“ So funktioniert SEO mMn nicht (mehr).
    2. Kann ich gut nachvollziehen. Geht ja wieder genau in die Richtung des guten Contents und (was dann auch vielerorts nicht gemacht wird) der guten Content-Aufbereitung. Dein Chart kann ich aus meinem beschränkten SEO-Erfahrungssatz auch bestätigen. Der normale Rankingverlauf ist meiner Beobachtung nach meist 99 (oder 101) – Top 20 dann entweder Top 10 oder wieder ganz zurück. Die einzig logische Erklärung für diesen Verlauf – wenn sich an dem entsprechenden Artikel nichts ändert – sind ja User Signale (und ja, in einer Blüten-Whitehat-Seo-Welt sind auch Backlinks User-Signale!). 
    3. Ich würde nicht nur sagen, dass Google hier am besten messen kann. Social Signs sind für mich ein viel stärkeres User-Signal als z.B. Bouncerate. Nehmen wir an der Suchende will nur eine kurze Antwort haben und klickt nach 3 Sekunden wieder weg, weil er sie gefunden hat. Weiß Google in jedem Fall, dass das mit der Suchfrage zusammenhängt? Ich bezweifle das. Teilt er den Artikel aber (also wird eigenständig aktiv!), sagt das in den meisten Fällen eine ganze Menge mehr über den Content aus.

    Über die Auswirkungen eines Google+-Engagements im größeren Stil und in verschiedenen Zielgruppen werde ich hoffentlich im Laufe des Jahres Rückschlüsse ziehen können und – sofern möglich – diese dann auch veröffentlichen. :) 

    Bis dann!
    Keep up the good work :)

  4. eric108

    tillsteinbrenner Danke für die ausführlichen Gedanken. Bin auf deine weiteren Erkenntnisse gespannt. Die Social Signals sehe ich allerdings nicht so glänzend wie du. Denn du beschreibst, ist halt der Idealfall – der auch noch schlecht messbar ist. Denn es gibt doch zu viele Themengebiete, in denen ein Sharing auf Facebook & Co einfach nicht „in“ ist. Denk nur an die vielen B2B-Bereiche und/oder an prekäre Themen, die keiner teilen mag. Und schlecht messbar ist es halt auch – so lange Google nicht weiß, ob derjenige, der teilt ein Spammer ist oder nicht. Und das können sie zuverlässig nur für G+ sagen – was halt hierzulande irgendwie nicht so richtig in Gang kommt. Aber ich bin ganz bei dir: Die besseren Ranking-Faktoren wären die sozialen Netze ganz gewiss…

  5. vorortgefunden

    Hallo,
    selber verfolge ich nun seit einiger Zeit deine Beiträge.
    Dieser ist mit Abstand einer der Besten in meinen Augen. In vielen Punkten gehe ich konform, andere müsste man ergänzen oder anders betrachten. 
    Unter anderem sehe ich die OnPage Optimierung, vor allem den „Pagespeed“ einer Seite noch als extrem relevanten Faktor.
     
    Die Zukunft geht immer mehr in das mobile Web, der User informiert sich unterwegs auf seinem Smartphone und schließt zu Hause am Tablet oder PC den Prozess ab. D.h. in meinen Augen, das Google hier auch klar die Zahlen auslesen kann wie Seiten für das mobile Web optimiert wurden und wie sich hier User verhalten.
    Wie bereits erwähnt ein sehr guter Artikel!

  6. MiladinMechenbier

    …ich denke auch, dass ab und an geringe User-Zahlen Auswirkungen haben – eben genau dann, wenn die Zahlen relativ Sinn machen, also die Suchanfragen niedrig sind und / oder die Konkurrenz durchwachsen und qualitativ instabil.
    Dennoch ist das hier eines der geilsten Statements, die ich seit langem gelesen habe! Danke…

  7. Pingback: Nutzerverhalten als Promille-Rankingfaktor – SEO.at

  8. Frank Buchmann

    Kommt noch dazu, dass Google nur beschränkten Zugriff auf Facebook, Twitter und Co. hat. Google+ dürfte hier sicherlich (bald) eine Sonderrolle spielen

  9. optimizingexp

    Vielleicht noch als Ergänzung zu den Problemen der Korrelationsstudien: http://optimizingexperts.de/korrelationsanalysen-die-falsche-spielsicherheit-420/

  10. eric108

    optimizingexp Die Diskussion möchte ich hier gar nicht aufmachen. Jede (!) statistische Erhebung ist fehlerbehaftet. Und in jeder Wahlprognose kann etwas ganz anderes stecken als die Wahrheit. Und trotzdem ist das Zeug nützlich, wenn man es nicht als Wahrheit sondern als statistische Erhebung sieht. Und dass man nun jedes mal, wenn es um Ranking-Faktoren geht, mit langen Artikeln zu tun hat, warum diese eigentlich keine sind und dass es auch ganz anders sein könnte, ist anstrengend. Deshalb: 
    Nein! Korrelationsstudien drücken nicht die Wahrheit aus sondern messen, was gemeswen werdn kann 
    Aber: Mir hat auch noch kein Wort-Diskutierer eine gute Alternative sagen können. Soll jeder alles testen? Machst du das???? Und hey, bei all deinen Tests bist du auch fehlerbehaftet. Mehr als Marcus Tober, wenn er Millionen Keywords und Seiten anschaut…
    Und, ja: Die meisten Leser der Studien wissen mit Daten umzugehen.

  11. Eva Meiners

    Klasse Beitrag! Thema „Was Google kann, und was nicht: Nämlich nur dann, wenn ein Suchergebnis tatsächlich auf einem der ersten zehn Plätze in den Suchergebnissen erscheint.“
    Wie begründet sich diese Aussage?

  12. Pingback: B2B-News, Twitter-Report, Blog-Tipps: Wochenrückblick KW20 | SMO14 - New Media Excellence

  13. Pingback: PR Wochenrückblick KW20 – Die Highlights der Woche

  14. Pingback: Der SEO-Blog-Wochenrückblick KW 20

  15. Pingback: Social Signals, Nutzerverhalten ein Rankingfaktor?!

  16. Pingback: Linkless Ranking: Wenn der Longtail für den Shorthead arbeitet - Onpage -SEO Book

Schreiben Sie einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *