Farmer-Update: Was ist denn nun "schlechter" Inhalt?

Google hat laut eigener Aussagen 12 % der amerikanischen Suchergebnisse von Seiten mit schlechter Qualität befreit, Danny Sullivan von Searchengineland hat diesem Update den schönen Namen „Farmer Update“ gegeben und Sistrix hat nachgeschaut, ob so genannten „Content Farmen“ wie die Seiten von Demand Media und suite101 die Verlierer des Updates sind. Und: Ja, das sind sie. Da stellt sich also die Frage, woher der Google Algorithmus zu wissen glaubt, was guter und was schlechter Inhalt ist. Ich habe mal versucht, aus meiner Sicht ein paar mögliche Signale zu nennen.

Google gegen Massenproduktion in der Contentlandschaft: Farmer-Update

Onpage-Faktoren

Natürlich denkt man zuerst an die Onsite-Faktoren – also den Inhalt der auf diesen Seiten steht. Doch woran erkennt Google, ob ein Text gut oder schlecht ist? An gutem Satzbau? Korrekter Rechtschreibung? Hier ein paar Vermutungen:

  • Es ist überhaupt Text vorhanden und der ist sogar unique: Das meine ich im Ernst: Ein Scraper-Update hatten wir neulich – am Donnerstag traf es offenbar Seiten mit uniquem Inhalt.
  • Länge des Textes: Ich denke, SEOs haben die Tendenz, zu lange Texte zu produzieren (auch das meine ich im Ernst). Aber das ist kein vernünftiges Kriterium.
  • Strukturierung des Textes: Am härtesten hat es wohl Suite101 getroffen. Und hier sind die Inhalte meist sehr hübsch strukturiert (Zwischenzeilen, Aufzählungen u.s.w.). Es sind aber auch Verlierer dabei, die ihre Inhalte völlig unstrukturiert darstellen. Auch das ist kein sicherer Faktor.
  • Fragmentierung des Inhalts: Ist der Inhalt kompakt zusammen gefasst (also leicht zu finden) oder stark fragmentiert (z.B. durch große Javascript-Bannerkonstrukte zwischen Überschrift und Text). Mindestens der Google News Robot hat damit Schwierigkeiten…
  • Keyword-Density: Ein mögliches Signal könnte eine verwendete Keyword-Density sein. Dieses könnte aus recht komplexen Regeln bestehen, die den Title-Tag, die Überschrift und die Verteilung des Keywords beinhalten. Da eine Content Farm gut gedüngt daher kommt, wäre das ein erstes vernünftiges Signal. Nämlich: zu viel! Das werden wir aber erst in einigen Wochen wirklich beurteilen können.
  • Wortschatz, Formulierungen, Stil: Passen die Worte zum Erwartungs-Niveau der Zielgruppe? Gibt es Signale für sehr einfachen Stil (z.B. monotone Satzreihenfolge, Sprachvariationen u.s.w.)? Ich denke, das ist für den Algorithmus zu rechenintensiv. Dies überlässt er vermutlich (noch) den Usern (siehe unten).

Vermarktung

  • Da Google auch eine „Layout-Übersicht“ über jede Seite hat, könnte man auch darüber nachdenken, ob vielleicht die vermarktete Fläche im sichbaren Bereich eine Rolle spielt.
  • Und immerhin kann die Suchmaschine sogar definieren WELCHE Werbung das ist. Banner, AdSense, Affiliate. Alles mögliche Faktoren.

Onsite-Faktoren

Selbstverständlich werden auch Signale eine Rolle spielen, die die Domain und nicht die einzelne Seite betreffen. Vielleicht bakam die Suite101 auch ein manuelles Attribut von einem genervten Google-Mitarbeiter. Aber vermutlich nicht. Denn Google kann nicht einzelnen Domains hinterher rennen sondern muss das algorithmisch lösen. Hier meine Vorschläge:

  • Themenauswahl: Eine Seite, deren Themenauswahl gut den Keyword-Trends passt, ist tendenziell eine Content-Farm. Zwar veröffentlichen die New York Times und andere Qualitätsseiten auch Inhalte zu den Trends – aber nicht im Zusammenhang mit Money-Keywords. Ein algorithmischer Blick also von Google auf die lohnenden Keywords wird schnell Klarheit schaffen. Wenn Google versucht zu denken wie ein SEO ist das doch gar nicht so schwer…
  • Wachstum des Contents: Für eine Content-Farm gilt die Regel, dass Masse gewinnt. Es gibt meiner Meinung nach nur wenige Webseiten, die hunderte von neuen Seiten in den Index bringen können. Auch das könnte ein gutes Algo-Signal für Google sein.
  • Bilder, Videos: An der Stelle eines Bildes findet man in Content-Farmen ja meist eine AdSense-Anzeige. Aber auch sonst ist dort eine magere Ausstattung mit Mulitimedia-Inhalten üblich.
  • Seitenstruktur: Jedem SEO, der eine größere Seite zu organisieren hat, empfehle ich die Verlinkungs-Struktur der bei Sistrix aufgezählten Seiten zu analysieren. Die sind wirklich gut gemacht. Aber ich kann kein Muster finden, das anders wäre als bei anderen guten Content-Seiten mit viel Inhalt. Alles, was Contentfarmen machen (starker „Related Content“, „Siloing“, starke Sitemaps u.s.w.) machen andere auch – und sollten sie eigentlich auch….
  • Werbung: Es ist teilweise schon krass, was auf den ausgezählten Content-Farm-Sites mit AdSense gemacht wird. Ich könnte mir vorstellen, dass dies auch ein sehr wichtiges Signal ist. Bin aber nicht Conversions-Spezialist genug, um das zu benennen.
  • Zahl der betroffenen Suchen: Wenn wir uns mal in Google hinein versetzen, entdecken wir völlig neue Zahlen. So lassen sich anhand der Zahl der Beiträge im Index, der Keywords, für die diese ranken und auch etwa die durchschnittliche Menge von Keywords für die ein Beitrag rankt (!) feine Index-Werte errechnen, die sehr aufschlussreich sein dürften.

Offsite-Faktoren

Na klar: Eine Content-Farm funktioniert nur bei gleichzeitigem Linkaufbau. Hier liegt sicherlich ein großer Teil der Wahrheit.

  • Keyword- vs. Brand-Links: Ganz sicher haben diese Seiten ein erkennbares Link-Muster, bei dem diese Unterscheidung eine sehr große Rolle spielt. Naheliegend wäre natürlich, dass hier ein bisschen mehr Brand-Strategie dem einen oder anderen geholfen hätte.
  • Deeplinks- vs. Hompage-Links: dito. Nach ein wenig Herumklickerei in den Backlinks von Suite101 und einigen anderen Portalen finden sich schnell sehr viele Ein-Wort Keyword-Links aus mittelguten Money-Nischen auf ziemlich passende Unterseiten…
  • Linkaufbau: Der Aufbau von Links sollte ja unserer Erfahrung nach parallel mit dem Aufbau von Inhalten einher gehen. Denn nur wenn es neue oder aktualisierte Inhalte gibt, gibt es einen Grund für neue Links. Sollte sich Google damit auseinander setzen, in welcher Beziehung die externe Verlinkerei mit den internen Links steht, könnte ich mir bei Content-Farmen ein völlig anderes Muster vorstellen, als bei nyt.com und sz.de.
  • Social Backlinks: Dazu in der nächsten Kategorie mehr.

User Signale

Garantiert: Das Verhalten der User spielt bei der Beurteilung von Google über guten oder schlechten Inhalt eine große Rolle. Matt Cutts hat sich gefreut, dass das Farmer Update fast deckungsgleich mit den Ergebnissen der neu angelegten Blockerfunktion im Chrome-Browser funktioniert. Für mich klang das ein bissche so, dass man eher die Blockierfunktion getestet hat… Was könnte Google also in dieser Hinsicht alles messen? Eine Menge:

  • Bouncerate: Google weiß, wie viele User von den Suchergebnissen auf eine Seite gehen – und gleich wieder zurück kommen.
  • Verweildauer: Und wenn sie nach 2 Sekunden bouncen ist das was anderes als nach einer Minute. Gell?
  • Anteil des Suchtraffics: Selbstverständlich kann der Algorithmus auch das Verhältnis zwischen Google-Traffic und allem anderen Traffic heran ziehen. Woher der direkte Traffic und der Traffic von verweisenden Webseiten bekannt ist? Na ja, z.B. durch die Toolbar oder durch Google Public DNS. Und wer von 80-90 % Google-Traffic lebt – ist natürlich verdächtig.
  • Facebook, Twitter & Co: Schaut euch doch mal an, wie gut sich die Veröffentlichung von Artikeln auf den Content-Farmen in Facebook und Twitter wiederspiegelt. Das ist ja an sich nichts Schlechtes. Aber Google weiß (siehe oben) natürlich auch, was die User machen, nachdem sie über die vielen Shortener-Links auf die Seite gekommen sind. Nennen wir das doch mal „Social Bouncing“. Das könnte auch ein wichtiges Signal sein.
  • Bewertungsplattformen: Google behauptet ja, „schlechte“ Links von Bewertungsplattformen ausfiltern zu können. Nun ja, wer das glaubt (ich bin mir da nicht so sicher…) muss auch davon ausgehen, dass die Bewertungen für Content-Farms zu Rate gezogen werden.

Fazit 1: Was ist denn nun das Farmer-Signal?

Wie immer gilt: Bei der Bewertung ob eine konkrete Seite eine Content-Farm oder ein Qualitäts-Anbieter ist, gibt es nicht das EINE Signal sondern ein ganzes Muster von Signalen, die auch nur in der Kombination zu einer entsprechenden Bewertung führen. Allein stark wachsender Content reicht nicht aus und massenhaft Keyword-Links auch nicht. Tja, das SEO-Leben ist komplex. Schlechte Links können ja auch gut funktionieren – wenn ein paar andere Faktoren passen.

Wenn ich eine Suchmaschine wäre (was zum Glück nicht der Fall ist) würde ich alles ein bisschen auswerten und einige Signale wichtig und andere unwichtig nehmen. Eine technisch gut gebaute Seite mit schnell in mittel-attraktivem Umfeld wachsendem Content, einem Hang zu Keywords-Backlink und 90 % Google-Traffic bei einer Verweildauer von unter einer Minute pro Seite würde ich jedenfalls sehr skeptisch betrachten…

Fazit 2: Was bedeutet das für uns?

Unsere Kunden betreiben keine Content-Farmen, da bin ich mir sicher, denn sonst wären es ja nicht unsere Kunden. Aber bei der Aufzählung der Faktoren musste ich schon an die eine oder andere Kunden-Seite denken. Es wird deshalb für uns sehr spannend sein zu beobachten, welche Kollateralschäden Google mit dem Farmer Update verursacht.

UND: Wer aus diesem Artikel nun die Lehre zieht, dass man besser nicht mehr viele Inhalte produziert, diese nicht gut strukturiert und auf Keywords optimiert – dem empfehle ich die erneute Lektüre. Denn das habe ich damit nicht gesagt.

Und noch on top die aktuelle Berichterstattung zum Thema „Farmer Update“:

  • DIE Frage und viele Antworten auf Quora.
  • Searchengineland über die Gewinner und Verlieree.
  • Und was die Kollegen vom US-SEOBook dazu zu sagen haben.

Sobald es nicht nur quantitative sondern auch qualitative Analysen gibt, werde ich darüber berichten. Momentan, wenn man sich die Gewinner und Verlierer anschaut, würde ich sagen, dass die Verweildauer ein heißer Tipp für einen wichtigen Faktor ist…

GD Star Rating
loading...
Farmer-Update: Was ist denn nun "schlechter" Inhalt?, 5.0 out of 5 based on 1 rating

Eric Kubitz

Eric Kubitz ist einer der Chefs der CONTENTmanufaktur GmbH . Außerdem ist er Redner auf Konferenzen, Dozent bei Hochschulen, schreibt über SEO (und über andere Dinge) und ist der Chefredakteur des SEO-Book.

More Posts - Website - Twitter - Facebook - LinkedIn - Google Plus

Kommentare (12)

  1. Hendrik

    Verweildauer ist so ein Ding für sich. Eine kurze Verweildauer könnte auch als Indikator für guten Content gelten – schließlich hat der User schnell das gefunden, was er gesucht hat. Beispiele dafür wären Event-/Datums-/Adressrecherchen.

  2. Eric

    Right Hendrik! Aber genau bei diesen rein lexikalischen Seiten dürften praktisch alle anderen Faktoren anders sein als bei Seiten mit 200 Wörtern und einer Optimierung auf ein Info- oder Money-Keyword. Ich denke schon, dass irgendjemand bei Google die intellektuelle Leistung schafft, die Verweildauer bei Seiten mit viel Text anders einzuschätzen als bei Adress-Übersichten.

  3. Pingback: Warum es keine Zukunft hat SEO-Texte zu formulieren – Teil I | SEOtology.com

  4. Andreas

    Interessanter Artikel allerdings solltest Du vielleicht auch mal multimedialen Content (Bilder, Video, Audio etc.) als Qualitätsmerkmale heranziehen, nicht nur Text. Im Bezug deiner angeführten User Signale sicherlich nicht zu verachten.

    Gruß,
    Andreas

  5. Pingback: Google killt das Artikel Marketing - Webseiten Labor

  6. Eric Kubitz (Beitrag Autor)

    @andreas: Völlig richtig! Das werde ich wohl gleich mal ergänzen.

    Vielen Dank!

  7. Pingback: Farmer-Update gegen SEO-Bauern - SEO Schmied

  8. Bastian

    Toller Artikel, gleich mal ge’bookmark’t! Ich würde vielleicht noch den Punkt: „Menschliche Kontrolle durch Google-Mitarbeiter“ hinzufügen. Ich meine, es ist doch logisch, das Artikelverzeichnisse (nehmen wir mal willkürlich articlesbase) nicht unbedingt dazu dienen, ebenjenes lexikalisches Wissen mit dem Anspruch auf Vollständigkeit & toller Erklärung zu sammeln, sondern für Linkaufbau herhalten. So kann natürlich ein Mitarbeiter für große Seiten festlegen: „aha, hier werden hauptsächlich minderwertige Beiträge für SEO-Zwecke eingestellt“ und die Seite auf einen qualitativ niedrigeren Index setzen.

  9. Tom

    Sehr guter Artikel mit vielen guten Ansätzen. Doch ich konnte daraus jetzt nicht ableiten was schlechter Content ist. Google wird sich zwar seine Gedanken gemacht haben. Doch es werden sicher viele gute Artikel nicht auf den vordersten Plätzen zu sehen sein, obwohl der Content vielleicht der beste ist. Guten und schlechten Content kann man in meinen Augen nicht in einem automatischen Algorithmus trennen. Nur mit manueller Prüfung kann man sich hier sicher sein.

  10. Werner

    Hallo Eric, der erste Artikel, der zumindest in die Nähe einer Antwort auf die Frage nach guten und schlechten Inhalten kommt. Vor allem kann ich mir nicht vorstellen, wie das ein Algorithmus feststellen soll. Ironie, Wortwitz…. Ich schließe mich da voll dem Kommentar von Tom an. Und jetzt sollen Autorenportale wie suite101 vielleicht zusperren oder inhaltliche Zensur ausüben?

  11. eric

    Hey Werner,
    ich denke, eine manuelle Kontrolle kann Google nicht wollen. Das ginge auf jeden Fall schief. Und durch die Zahlen über das Nutzerverhalten hat die Suchmaschine ja auch viele Signale, auf die Bewertung von Ironie und Witz zu verzichten. Google schaut, wie sich die Benutzer verhalten – und reagiert dann. Das kann natürlich nicht die ganze Wahrheit sein – aber ein immer größerer Teil.
    Dass es auch bei suite101 gute Inhalte gibt, ist meiner Meinung nach sogar unbestritten. Dicht machen brauchen die alle nicht. Aber sie brauchen auch nicht mehr zu glauben, mit einer ausgefuchsten Keywordrecherche und Texten die in 10 Minuten geschrieben sind, reichlich Reichweite machen zu können. Das dürfte vorbei sein…

  12. Pingback: Tripsbytips Blog » Blog Archiv » SEMSEO Recap: Content bleibt King und der Panda der Gute

Kommentare sind geschlossen.