Der Panda-Penguin, der eigentlich ein CTR-Update war

Es ist war rätselhaft: Vor zwei Wochen hat Google das SEO-Book kräftig zusammen gestutzt. Unsere Sichtbarkeit und damit auch der Traffic von Google sind mächtig in die Knie gegangen. Und das bei einer Seite die bisher völlig ohne Linkaufbau, massive Keyword-Verlinkungen und internen SEO-Mist ausgekommen ist. War die CTR in den Suchergebnissen der Hauptfaktor?

Genervt hat mich fürchterlich etwa diese Kurve. Sie zeigt, dass selbst wirklich ordentliche Beiträge aus den SERPs entfernt wurden:

Böse: Für "Google Webmaster Tools" hat es uns völlig zerhackt.

Unter der Kurve ist zu sehen: Durchschnittliche Verweildauer bei zehn Minuten!

Zehn Minuten Verweildauer und trotzdem ’ne Penalty? Na gut, die Absprungrate ist hoch – aber na und? Wer erst nach zehn Minuten die Seite wieder verlässt, hat gefunden, was er wissen wollte. BTW: Na, habt ihr auch solche Durchschnittswerte? 🙂

Return-Bonus, Tag-Seiten oder externe Verlinkung?

Und warum? Es gibt viele Vermutungen, warum Seiten wie das SEO-Book und einige andere haben leiden müssen. Ich hatte gestern über einen Return-Bonus gerätselt, weil dadurch die „Neuen Besucher“ bei den Besuchern von Google deutlich mehr geworden sind. Andere haben eine heftige interne Verlinkung oder die Blogroll in Verdacht. Und vielleicht war es doch der Penguin – und alle Links von SEO-Seiten wurden entwertet? Es ist rätselhaft.

Es geht nicht um Qualität sondern darum, ob ein Beitrag dort auch wirklich hin gehört

Christoph hatte die Idee, doch mal nach der CTR für das Keyword „Google Webmaster Tools“ zu schauen. Das kann man ja in eben diesen Google Webmaster Tools machen. Sein Gedanke dahinter: In dem Beitrag geht es um das Fixen von Errors in den GWT. Aber weil er ordentlich optimiert wurde und weil das SEO-Book ein gutes Standing bei Google hat hatte, stand der Artikel trotzdem beim generischen Keywords „Google Webmaster Tools“  top in den SERPs. Und siehe da: Die Google Webmaster Tools zeigen „0 %“. Und das macht auch Sinn. Denn wer nach „Google Webmaster Tools“ sucht, will ja nicht unbedingt Fehlerseiten fixen – und das Snippet für den Beitrag sieht halt nun mal so aus:

Da war also dieser sehr spezielle Beitrag unter einem sehr allgemeinen Keyword gut zu finden – und wurde nicht geklickt. Nicht, weil er schlecht war, sondern weil er da nicht hin gehört.

Wir haben das sofort auch für die anderen Keywords und auch die Keywords einer anderen Seite, die betroffen ist, geprüft. Das Ergebnis:

  • Bei allen (!) Keywords für die die Google Webmaster Tools eine höhere CTR zeigten, waren noch immer dort, wo sie bisher waren.
  • Alle Keywords mit einer Klickrate unter einem bestimmten Wert haben mächtig verloren.

Der Wert könnte abhängig von der vorherigen Position sein. Ab fünf Prozent jedoch scheint man sicher zu sein, darunter muss man mit Positionsverlust rechnen.

Die Versicherung gegen die CTR-Penalty: Werte ab 5 Prozent Durchklickrate in den GWT.

Doch das ist natürlich nicht die ganze Wahrheit! Diese „CTR-Abwertung“, die ja eigentlich keine ist sondern falsche Plätze in den SERPs korrigiert, gilt offensichtlich nur für besondere Seiten bei besonderen Keywords. Es scheint so zu sein, dass Google entweder Keywords (z.B. Money- und SEO-Keywords o.ä.) oder kritische Seiten (mit starker interner Keyword-Verlinkung, aus bestimmten Themenbereichen o.ä.) nun stärker nach CTR filtert als andere. Man muss also erst in diesen Filter hinein geraten und dann pickt sich Google die Keywords zur Bereinigung heraus und verschiebt die nach hinten.

Was meint Ihr? Könnte das sein? Das würde auch erklären, warum der Sichtbarkeitsverlust derart heftig ist – sich aber nicht so stark auf den Traffic auswirkt (denn die User wären ja eh nicht gekommen).

Also: Es war die CTR! Ist SEO jetzt tot?

Im Ernst: Die Stärkung eines solchen CTR-Filters für bestimmte Seiten oder Inhalts-Kategorien macht Sinn. Warum sollte eine starke Seite für ein spezielles Thema ranken – wenn die User (noch) nach allgemeinen Infos suchen? Und dass das nur bei bestimmten Keywords  bzw. Seitenarten eingesetzt wird, macht auch Sinn. Denn hier ist die Gefahr von „Keyword-Hijacking“ besonders groß. Und hier braucht Google viel stärker als woanders eine Antwort auf den heftigen, kommerziellen Linkaufbau der vergangenen Jahre.

Und wir SEOs stehen nun vor der gleichen Aufgabe, vor der wir seit Jahren stehen: Tolle, passende Inhalte zu generieren – und diese in den SERPs per Snippet perfekt ankündigen. Ein super Teaser auf der Suchergebnisseite und dazu passende Inhalte werden noch wichtiger als bisher. Und zwar in dieser Reihenfolge:

  1. Tollen Inhalt erstellen.
  2. Die Frage identifizieren, die der Beitrag beantwortet (das ist nämlich das Keyword).
  3. Inhalt auf Keyword abstimmen/optimieren.
  4. Mit Title-Tag und Description die Frage beantworten.

SEO ist natürlich überhaupt nicht tot. Aber es ist günstig, wenn man jetzt einen guten „Blattmacher“ im SEO-Team hat.

Eric Kubitz

Eric Kubitz ist einer der Chefs der CONTENTmanufaktur GmbH . Außerdem ist er Redner auf Konferenzen, Dozent bei Hochschulen, schreibt über SEO (und über andere Dinge) und ist der Chefredakteur des SEO-Book.

More Posts - Website - Twitter - Facebook - LinkedIn - Google Plus

Durch die weitere Nutzung der Seite stimmst du der Verwendung von Cookies zu. Weitere Informationen

Die Cookie-Einstellungen auf dieser Website sind auf "Cookies zulassen" eingestellt, um das beste Surferlebnis zu ermöglichen. Wenn du diese Website ohne Änderung der Cookie-Einstellungen verwendest oder auf "Akzeptieren" klickst, erklärst du sich damit einverstanden.

Schließen