Entschlüsselt? Wie Google das Farmer Update berechnet hat

Bookmark and Share

Eigentlich ist alles ganz einfach. Für Google. Für diejenigen die SEO betreiben, wird es in Zukunft wohl  noch schwerer oder gar unmöglich werden, einfache Regeln für Ranking-Faktoren zu finden. Ich rede vom Farmer Update.

In einem Interview mit Wired haben die Googler Matt Cutts und Amit Singhal mehr oder weniger freundlich auf die vielen Fragen zum Farmer Update beantwortet (SEO United hat einen Teil davon übersetzt). Aus dem Interview geht das grundsätzliche Vorgehens hervor, mit dem die Farmer-Faktoren gefunden wurden. Und, hey, das ist kein unübliches Verfahren: Eine Peergroup beurteilt eine Auswahl nach emotionalen Faktoren, diese werden in harte Fakten übersetzt und daran die gesamte Grundmenge gemessen.

Noch mal ganz langsam: Einer (hoffentlich recht großen) Zahl von Ratern wurden viele Webseiten gezeigt und dazu Fragen gestellt. Und zwar so plaktiven Fragen wie “Würdet ihr dieser Seite eure Credit-Card-Daten anvertrauen?” oder “Würdest du deinen Kinden Medizin geben, die von dieser Seite empfohlen wurde?”. Doch natürlich auch einige differenziertere Fragen, da bin ich mir sicher.

Man sollte sich “Rater” nicht als Menschen vorstellen die täglich in der Kantine vom Googleplex essen, sondern als halbwegs vernünftigen Querschnitt erfahrener Internet-User. Diesen wird Google eine definierte Auswahl von Webseiten zur Beantwortung der Fragen gezeigt haben. Danach kamen die einen Seiten ins Töpfchen die anderen ins Kröpfchen.

Und in dem ganzen Prozess bis dahin hat niemand über den Linkgraph, das Heading oder die Seiten-Architektur gesprochen!

Nun gibt es bei Google einige begabte Mathematiker und Statistiker, die sich dann durch das Töpfchen und durch das Kröpfchen gearbeitet haben. Gesucht haben sie nach Ähnlichkeiten und Abhängigkeiten – und vermutlich haben sie auch auch welche gefunden. Denn, so emotional das Vertrauen für eine Webseite ist: Es entsteht durch igendwelche Signale die bennenbar sind. Und selbst wenn die Signale nicht zueinander zu passen scheinen: Wenn alle “Qualitätsseiten” lilablassblau wären und alle Mistseiten nicht – dann wäre “lilablassblau” trotzdem ein Signal für Qualitätsseiten.

Es wird Zeit für eine Frage an euch: Welcher dieser Seite würdet ihr eher vertrauen, wenn sie ein Erkältungsmittel für euer Baby empfiehlt:

Na? Die mit dem vielen AdSense links und unter dem Beitrag? Oder die Seite mit dem liebevolleren Layout? Ich habe die beiden Seiten sehr klein dargestellt, um nur die rein optischen Signale wirken zu lassen. Denn der User gibt einer Webseite bekanntlich nur 50 Millisekunden Zeit, ihn zu überzeugen. Ich finde, da punktet wikiHow schon. Unter anderem auch mit dem deutlichen Logo und mit dem “Magazin-Charakter”. Allerdings ist das Layout natürlich nur ein Teil des emotionalen Eindrucks den der User hat. Und wir müssen auch gar nicht genau wissen, WAS genau das Vertrauen des Users ausgelöst hat. Wir wissen nur DASS dieses ausgelöst wurde und suchen nach Ähnlichkeiten zwischen den jeweils vertrauenswürdigen Seiten und den nicht so vertrauenswürdigen Seiten.

Auch wenn wir das nicht wahr haben wollen: Bei dieser Messmethode spielt auch eine große Rolle, was “die anderen” machen. Internet-Shopper zum Beispiel glauben, dass der Webeinkauf so funktionieren muss wie bei Amazon. Nicht, weil Amazon alles richtig macht – sondern weil alle bei Amazon kaufen und dann denken, das wäre überall so. Alles klar?

Und jetzt, zur Entspannung, mal ein paar Bildchen:

Gewinner: ehow.com

Gewinner: answers.yahoo.com

Verlierer: articlesbase.com

Verlierer: associatedcontent.com

Ich habe vor einigen Tagen versucht, möglichst viele mögliche Faktoren darzustellen, die für schlechten Content stehen könnten. All diese (und noch viel mehr) standen also den Google-Mathematikern und – Statistikern zur Verfügung um Muster zu erkennen. Und diese Muster gemeinsam ergeben nun das Farmer-Patchwork. Eines mit vielen Stellschrauben und beliebig verkomplizierbar. Denn wenn man auch gegenseitige Abhängigkeiten beobachtet (z.B. das Verhältnis zwischen Site-Architektur, Textmenge und Link-Graph), schaffen das zwar nur die besten Mathematiker der Welt. Gut möglich aber, dass eben die bei Google arbeiten.

Danach gibt es also ein Rankingfaktor-Patchwork und dieses kann man dann an einer Testgruppe ausprobieren – wir erinnern uns an die Betonung von Matt Cutts, dass die Ergebnisse des Updates zu denen der blockierten Seiten via Chrome-Addon passen. Wenn das dann passt – ab damit ins freie Leben! Dann hat man einen Algorithmus gefunden, der zwar nicht logisch aber irgendwie richtig ist. Und man kann diesen von nun an weiter optimieren, verbessern, entwickeln.

“DAS IST UNGERECHT! Da wird vom Stöckchen auf den Stock geschlossen!”, werden einige schimpfen. Und zwar zu recht. Doch: Im Stöckchen steckt ja das gleiche Holz wie im Stock. Und reiben wir uns denn nicht bei jeder Wahl die Augen angesichts der verblüffenden Ähnlichkeit der Hochrechnungen zum Endergebnis? Und diese wurden errechnet anhand von wenigen tausend Befragten im Vergleich zu vielen Millionen Wahlberechtigten. Im Falle des Google-Rankings ist zwar das zu bestimmende Ergebnis komplexer – aber die vorliegenden Daten sind halt auch viel, viel umfangreicher. Und was soll an einem solchen Vorgehen ungerechter sein, als bei der theoretischen Entscheidung, dass das Keyword im Title-Tag total wichtig ist?

Was heißt das nun für SEO allgemein?

Im Grunde, puh, eigentlich, nix. Denn bis vor zwei Wochen kannten wir die Ranking-Faktoren nicht und jetzt kennen wir sie auch nicht. Es gab SEOs, die auf gerade funktionierende “Lücken” bei Google optimiert haben und es gab SEOs die vor allem versucht haben, gute Webseiten zu basteln. Die ersteren werden es in Zukunft vermutlich etwas schwerer haben weil sie deutlich komplexer und schneller denken müssen. Und die andern müssen wohl auch viel mehr testen und über ihren Tellerrand schauen. Denn die Frage ist nun nicht mehr “Was hat bei einem Vergleichsprojekt funktioniert?” sondern was funktioniert ganz konkret bei diesem einen Projekt. Denn nun gilt es, SEO hin oder her, den User das zu liefern was sie wollen. Für manche ein ungewohnter Gedanke, gell?

Was heißt das für deutsche SEOs im Speziellen?

Die gute Nachricht: Dieses Vorgehen von Google verbietet (!) das Kopieren des Farmer-Updates in andere Länder. Sollte ich mit diesem Artikel hier recht behalten, werden wir bei einem Update hierzulande andere Gewinner und Verlierer haben als in Amerika. Die Seh- und Surfgewohnheiten sind hier völlig anders als in den Staaten. Logischerweise wird Google also auch hier die Rater wieder fragen müssen, welcher Seite sie ihre Kredit-Daten anvertrauen wollen. Die Rater werden dann antworten, die Mathematiker rechnen und die Gewinner werden vermutlich eher aussehen wie Spiegel online oder otto.de und nicht wie US-Seiten. Deshalb Vorsicht beim Plagiieren. Aber das kennen wir ja mittlerweile gut ;-)

Fazit: Es geht in die richtige Richtung

Ich habe mich in den vergangenen Tagen relativ viel mit den Gewinnern und Verlierern des Farmer Updates beschäftigt. Und ich wurde das Gefühl nicht los, dass Google tatsächlich irgendwas richtig gemacht hat. Wenn man sich ehow.com anschaut, versteht man auch, warum die NICHT verloren haben. Und wenn man suite101.com anschaut, versteht man deren Verlust. Ich werde mir einen Zettel mit, sagen wir mal, fünf Webseiten auf den Schreibtisch legen und mir dazu notieren, ob sie gewinnen oder verlieren. Und ich bin gespannt, ob ich recht behalten werden.

Und jetzt ihr: Was meint ihr dazu?

GD Star Rating
loading...

Eric Kubitz

Eric Kubitz ist einer der Chefs der CONTENTmanufaktur GmbH . Außerdem ist er Redner auf Konferenzen, Dozent bei Hochschulen, schreibt über SEO (und über andere Dinge) und ist der Chefredakteur des SEO-Book.

More Posts - Website - Twitter - Facebook - LinkedIn - Google Plus

Bookmark and Share
2 comments
Domi
Domi

Interessante Ausführungen! Wie du aber zwischen den Zeilen geschrieben hast werden SEOs, denen Nachhaltigkeit wichtig ist, eh nicht ausschließlich auf Artikelverzeichnisse und sonstige Spamseiten gesetzt haben. Die wird das daher recht wenig tangieren. Und wer, wie du sagst, kurzzeitig funktionierende "Lücken" im Algo ausnutzt muss eben damit leben, dass diese irgendwann geschlossen werden. Ich bin froh über das Update und hoffe, dass jetzt erstmal die ganzen Spam-Verzeichnisse sich etwas dezimieren.

Sandro
Sandro

Ich muss sagen, dass ich das Update nicht so schlimm finde wie es oftmals dargestellt wird. SEO ist und bleibt nun mal eine ungewisse und auch etwas esoterische Sparte des Onlinemarketings auch wenn noch so viele tolle Updates im Bewertungsalgorithmus folgen werden. Wer gute und ansprechende Websites mit nützlichen Inhalten schafft muss sich sowieso keine Sorgen machen. Gruß Sandro

Trackbacks