Der Panda-Penguin, der eigentlich ein CTR-Update war

Es ist war rätselhaft: Vor zwei Wochen hat Google das SEO-Book kräftig zusammen gestutzt. Unsere Sichtbarkeit und damit auch der Traffic von Google sind mächtig in die Knie gegangen. Und das bei einer Seite die bisher völlig ohne Linkaufbau, massive Keyword-Verlinkungen und internen SEO-Mist ausgekommen ist. War die CTR in den Suchergebnissen der Hauptfaktor?

Genervt hat mich fürchterlich etwa diese Kurve. Sie zeigt, dass selbst wirklich ordentliche Beiträge aus den SERPs entfernt wurden:

Böse: Für "Google Webmaster Tools" hat es uns völlig zerhackt.

Unter der Kurve ist zu sehen: Durchschnittliche Verweildauer bei zehn Minuten!

Zehn Minuten Verweildauer und trotzdem ’ne Penalty? Na gut, die Absprungrate ist hoch – aber na und? Wer erst nach zehn Minuten die Seite wieder verlässt, hat gefunden, was er wissen wollte. BTW: Na, habt ihr auch solche Durchschnittswerte? 🙂

Return-Bonus, Tag-Seiten oder externe Verlinkung?

Und warum? Es gibt viele Vermutungen, warum Seiten wie das SEO-Book und einige andere haben leiden müssen. Ich hatte gestern über einen Return-Bonus gerätselt, weil dadurch die „Neuen Besucher“ bei den Besuchern von Google deutlich mehr geworden sind. Andere haben eine heftige interne Verlinkung oder die Blogroll in Verdacht. Und vielleicht war es doch der Penguin – und alle Links von SEO-Seiten wurden entwertet? Es ist rätselhaft.

Es geht nicht um Qualität sondern darum, ob ein Beitrag dort auch wirklich hin gehört

Christoph hatte die Idee, doch mal nach der CTR für das Keyword „Google Webmaster Tools“ zu schauen. Das kann man ja in eben diesen Google Webmaster Tools machen. Sein Gedanke dahinter: In dem Beitrag geht es um das Fixen von Errors in den GWT. Aber weil er ordentlich optimiert wurde und weil das SEO-Book ein gutes Standing bei Google hat hatte, stand der Artikel trotzdem beim generischen Keywords „Google Webmaster Tools“  top in den SERPs. Und siehe da: Die Google Webmaster Tools zeigen „0 %“. Und das macht auch Sinn. Denn wer nach „Google Webmaster Tools“ sucht, will ja nicht unbedingt Fehlerseiten fixen – und das Snippet für den Beitrag sieht halt nun mal so aus:

Da war also dieser sehr spezielle Beitrag unter einem sehr allgemeinen Keyword gut zu finden – und wurde nicht geklickt. Nicht, weil er schlecht war, sondern weil er da nicht hin gehört.

Wir haben das sofort auch für die anderen Keywords und auch die Keywords einer anderen Seite, die betroffen ist, geprüft. Das Ergebnis:

  • Bei allen (!) Keywords für die die Google Webmaster Tools eine höhere CTR zeigten, waren noch immer dort, wo sie bisher waren.
  • Alle Keywords mit einer Klickrate unter einem bestimmten Wert haben mächtig verloren.

Der Wert könnte abhängig von der vorherigen Position sein. Ab fünf Prozent jedoch scheint man sicher zu sein, darunter muss man mit Positionsverlust rechnen.

Die Versicherung gegen die CTR-Penalty: Werte ab 5 Prozent Durchklickrate in den GWT.

Doch das ist natürlich nicht die ganze Wahrheit! Diese „CTR-Abwertung“, die ja eigentlich keine ist sondern falsche Plätze in den SERPs korrigiert, gilt offensichtlich nur für besondere Seiten bei besonderen Keywords. Es scheint so zu sein, dass Google entweder Keywords (z.B. Money- und SEO-Keywords o.ä.) oder kritische Seiten (mit starker interner Keyword-Verlinkung, aus bestimmten Themenbereichen o.ä.) nun stärker nach CTR filtert als andere. Man muss also erst in diesen Filter hinein geraten und dann pickt sich Google die Keywords zur Bereinigung heraus und verschiebt die nach hinten.

Was meint Ihr? Könnte das sein? Das würde auch erklären, warum der Sichtbarkeitsverlust derart heftig ist – sich aber nicht so stark auf den Traffic auswirkt (denn die User wären ja eh nicht gekommen).

Also: Es war die CTR! Ist SEO jetzt tot?

Im Ernst: Die Stärkung eines solchen CTR-Filters für bestimmte Seiten oder Inhalts-Kategorien macht Sinn. Warum sollte eine starke Seite für ein spezielles Thema ranken – wenn die User (noch) nach allgemeinen Infos suchen? Und dass das nur bei bestimmten Keywords  bzw. Seitenarten eingesetzt wird, macht auch Sinn. Denn hier ist die Gefahr von „Keyword-Hijacking“ besonders groß. Und hier braucht Google viel stärker als woanders eine Antwort auf den heftigen, kommerziellen Linkaufbau der vergangenen Jahre.

Und wir SEOs stehen nun vor der gleichen Aufgabe, vor der wir seit Jahren stehen: Tolle, passende Inhalte zu generieren – und diese in den SERPs per Snippet perfekt ankündigen. Ein super Teaser auf der Suchergebnisseite und dazu passende Inhalte werden noch wichtiger als bisher. Und zwar in dieser Reihenfolge:

  1. Tollen Inhalt erstellen.
  2. Die Frage identifizieren, die der Beitrag beantwortet (das ist nämlich das Keyword).
  3. Inhalt auf Keyword abstimmen/optimieren.
  4. Mit Title-Tag und Description die Frage beantworten.

SEO ist natürlich überhaupt nicht tot. Aber es ist günstig, wenn man jetzt einen guten „Blattmacher“ im SEO-Team hat.

GD Star Rating
loading...
Der Panda-Penguin, der eigentlich ein CTR-Update war, 4.0 out of 5 based on 26 ratings

Eric Kubitz

Eric Kubitz ist einer der Chefs der CONTENTmanufaktur GmbH . Außerdem ist er Redner auf Konferenzen, Dozent bei Hochschulen, schreibt über SEO (und über andere Dinge) und ist der Chefredakteur des SEO-Book.

More Posts - Website - Twitter - Facebook - LinkedIn - Google Plus

Kommentare (36)

  1. Pingback: Was tun? Suchmaschinenoptimierung / Linkbuilding nach Pinguin und Panda

  2. Gudrun

    Guter Artikel – ich find’s absolut logisch und habe genau dieses Vorgehen von Google schon erwartet.

  3. Malte Landwehr

    Das wäre natürlich die perfekte Erklärung dafür, warum viele Seiten an Sichtbarkeit verloren, es im Traffic aber nicht gespürt haben.

  4. Viktor Dite

    deckt sich in etwa mit meiner Beobachtung. Die (beiden) gepanelten Artikel waren alle unter 2% CTR
    http://mizine.de/suchmaschinenoptimierung-internet/panda-pinguin-google-quality-update/

  5. Pingback: SEO / Linkbuilding nach Pinguin und Panda [Howto] » t3n News

  6. Raoul

    Sehr interessante Erkenntnisse. Ich werde das ebenfalls bei meinen Seiten überprüfen, obwohl das allerdings nur ein Teil des ganzen Updates gewesen sein kann.

    Zum Thema SEO ist tot: http://buzzmatic.net/seo-ist-tot-nein-aber-auf-intensivstation

  7. Till T. Kleinert

    Mal eine ganz neue Erkenntnis zum Update. In den letzten Tegn wurde sehr viel über den Pinguin gerätselt und geschrieben. Das prüf ich gleich mal.

  8. Nils

    Ich halte das für eine falsche Fährte. Und zwar, weil ein SEO-Blog die denkbar schlechteste Grundlage ist, um ein Google-Update zu evaluieren, das sich in erster Linie die Off-Page-Strategien der SEOs vornimmt.
    Meine These, die ich hier http://www.tagseoblog.de/analyse-meiner-sichtbarkeitverluste-pinguin-panda-und-co#comment-95088 ausführlich dargelegt habe und die Du mit diesem Posting belegst, lautet kurz und bündig: Da die Linkquellen der SEOs massenhaft entwertet wurden, sind auch deren Links weniger wert und die SEO-Blogs, die nur aus dieser Community verlinkt werden, sind die Leid tragenden.
    Umso höher die Stärke der eingehenden Links, umso mehr rankt man auch vielfach für Suchbegriffe, die nicht genau passen, was die Sichtbarkeit drastisch erhöht. Verringert sich diese Stärke, dann wird man nur noch zu genau passenden Anfragen gelistet, wo natürlich die CTR auch höher ist. Das Update trifft diesen Blog, wie wohl jeden SEO-Blog, also indirekt, über die Abwertung seiner eingehenden Links.
    Es wäre spannend, ob andere SEO-Blogs ähnliche Sichtbarkeitsverluste hinnehmen mussten.

  9. SabrinaTietmeyer

    An diese Variante hatte ich noch gar nicht gedacht. Klingt aber spannend und plausible.

  10. Tino

    Nach Nils Meinung wäre es die „Pinguine“ und nach Deinen Vermutungen Eric, wäre es die „Pandas“ die für die Abwertungen verantwortlich sind. Google und die Tierwelt.
    Aber beide Updates lagen ja so zeitlich so dicht beieinander, dass es die Sache echt schwer macht zu analysieren.

    Aber wo ist denn der spürbare Traffic denn weggebrochen, den Du im Beitrag zuvor beschrieben hast?

  11. eric108

    @Nils: Dagegen spricht allerdings, dass es eine Menge SEO-Blogs gibt, die nicht mit dem Update zu kämpfen haben. Oder?

  12. eric108

    Das ist halt die Summe der vielen kleinen Verluste. Wir haben in der einen Woche 76 % Sichtbarkeit und danach noch einmal um 80% verloren. Der Traffic aus den SERPs ist um vielleicht 50 % eingebrochen. Das ist natürlich ein komisches Verhältnis. Aber damit ist nun auch klar, dass wir mit den verbleibenden paar Prozenten Sichtbarkeit verhältnismäßig viel Traffic ziehen. Weil das eben auch die richtigen Snippets in den richtigen SERPs soind.

  13. Tino

    Aber 50% Trafficverlust ist schon heftig und leider auch mir wohlbekannt. Wie sieht denn die Verweildauer und Bouncerate bei den noch verbliebenen Trafficbringern aus?

    Ich konnte bei mir beobachten, das es sich auf Verzeichnis-Ebene auswirkte. Unterseiten die schon immer gut performten waren von den ganzen Updates nicht betroffen. Aber Seiten die in betroffenen Verzeichnissen sich befinden oder neu zukommen, haben es sehr schwer sich zu erholen bzw. überhaupt zu ranken.

  14. eric108

    Na ja, 50 % vom SERPs-Traffic und das ist etwa 1/3 von allem….
    Verzeichnis-Ebene ist interessant muss ich mal gucken.

  15. Maximilian Wenzel

    Hallo Eric,

    in meinen Augen ist es trotzdem dein Linkprofil und die CTR kommt auf einer anderen Ebene hinzu. Meiner Meinung nach wird Google bei solchen Updates oftmals klüger und besser gemacht, als sie in Wirklichkeit sind. (Wie lange können sie angeblich schon Semantik etc…)

    Wenn ich mir dein Linkprofil ansehe und als „Maschine“ drauf schaue, sehe ich vor allem eines: häufige Keywordverlinkungen, also SEO + Book und nur wenige Brandverlinkungen wie z.B. seo-book.de.
    Quelle: http://suite.searchmetrics.com/en/research/links/backlink-analysis?url=seo-book.de Google verstehen eben hinter den beiden Begriff Keywords und keinen Brand.

    Ach ja und zum Thema Sichtbarkeit kann ich nur dazu raten, sich endlich eigene branchenspezifische Sichtbarkeitslisten anzulegen, die wirklich eine Aussage haben und nicht die „über-alles“ Sichtbarkeitsindize, die gerade bei Nischen kaum bis keine Aussagekraft besitzen!!!

  16. eric108

    Mmmmh. Ich denke nicht, dass wir Google für zu klug halten. Die Frage ist immer, wie viel Rechenleistung braucht ein Update? Und wenn die CTR der ersten zehn Positionen stärker eingerechnet wird als vorher ändert sich daran nichts.
    Und ich denke auch, dass Google sehr gut zwischen „SEO Book“ und „SEO“ „‚Book“ unterscheiden kann. (http://suite.searchmetrics.com/de/research/links/anchor-texts?url=seo-book.de)
    Aber ich bin ganz deiner Meinung, dass Faktoren geben muss (das könnten die Anchor-Texte sein), die bei mir sagen: Guck mal auf die CTR.

  17. Christoph Baur

    @Nils: Naja, ob wir damit richtig liegen kann man wohl nicht hundertprozentig sagen, aber ohne mir deinen Post durchlesen zu haben: warum dankt dann beispielsweise der seodeluxe jetzt zu Webmaster Tools auf Seite 1? Der hat nach deiner Theorie sicher die gleichen bzw. Sehr ähnliche Links wie wir. Aber ich werde mir deine Theorie auch mal ansehen. Aber da ansonsten ja sehr viep Zustimmung geäußert wird, scheint unsere Theorie ja schon mal nicht komplett aus der Luft gegriffen. Davon abgesehen: Wieso stoppten Links von SEO Blogs für Keyword entwertet werden, die zum SEO Kontext passen? Z. B. „Google News“ oder „Google Webmaster Tools“? Aus meiner Sicht macht da ein SEO Blog durchaus Sinn und das wird nunmal von anderen SEOs verlinkt oder nicht? Im Vergleich zu Unterseiten von Google passt SEO Book natürlich weniger und bekommt eine schlechte CTR. Alles logisch soweit.
    Aber ich stimme dir zu, wir bräuchten auch ein paar Berichte von Seiten aus anderen Branchen.

  18. Dominik

    Ist bei meinen Projekten auch so. Zumindest mit Masse. Einzelne Seiten wurden auch nach unten gerankt, die eine einigermaßen vernünftige CTR haben. Also werd ich wohl nicht drum herum kommen, die Snippets zu überarbeiten.

  19. Maximilian Wenzel

    Ich empfehle mal dazu Rand sein aktuelles Video, der von einem bunten Updatemix spricht: https://plus.google.com/u/1/112544075040456048636/posts/hHaXg8Rs5Lf

    Klar können sie das, aber deine primären Anchors sind eben keine Brandkeywords.

  20. Sven Hauswald

    Stimmt, überall steht „Keyword-Textlinks“ sind Schuld…. – aber der Ansatz ist mal was anderes.

  21. Pingback: Worauf es nun ankommt im Neukunden-Magnet | Marketing-Weblog Werbeagentur Thoxan Ostwestfalen

  22. Matthias

    Kann Maximilian hierbei nur zustimmen. Klar, spielt die CTR sicherlich eine Rolle, wenn es darum geht ob eine Seite auf Platz 3 oder 8 rankt. Aber das deshalb eine Seite 20 oder noch mehr Plätze nach hinten gereicht wird?!

    Es scheint ein Mix aus sehr vielen Faktoren zu sein (siehe auch hier: http://www.pinguinjagd.de). In der Umfrage wird ersichtlich, dass neben den Ankertexten auch noch die Verweildauer und Absprungrate eine Rolle spielen.

    Wenn du für ein Keyword rankst und 80% der Besucher deinen Inhalt wieder verlassen, dann ist das kein gutes Zeichen. Offensichtlich hatten Sie sich eigentlich was anderes vorgestellt.

    Wenn dann noch wenige Leute überhaupt klicken…

  23. Nils

    Jein, ich habe auf Deinen Einwand hin, mal zwei Gewinner und Deinen sowie den tagseoblog im opensiteexplorer angeguckt.
    Die stärksten Links von den beiden „Verlierer“-Blogs kommen aus dem SEO-Bereich. Anders sieht es bei den Gewinnern aus, wo doch ein höherer Anteil an Nicht-SEO links drunter sind. Wenn die Blinden verlieren, dann muss es ja auch Einäugige geben, die zumindest leicht gewinnen.
    Ich habe leider keine SEO-Software zur Verfügung, deshalb kann ich die These auch nicht fundiert belegen, aber meine kurze Recherche bestärkt mich in meiner These.

  24. Supporter

    Das mit der CTR kann ich bestätigen. Seiten mit sehr starken CTR´s hatten bei mir in den Webmaster Tools keinen Verlust. Andere aber enorm…

  25. Pingback: Blog-Statistik April 2012

  26. Pingback: Google Penguin Update Teil 1 – Faktoren und Erfahrungen

  27. Leidloff

    ich kann das nur bestöätigen, ein großteil der Seiten welche bei uns verloren haben hatte unter 2%, ich glaub aber die Seiten welche nun in der Top 10 stehen weren keine Bessere Klickquote haben. Mal schauen wie google darauf reagiert.

  28. Pingback: Google Penguin Update – Was bedeutet dies für Affiliates > Google, Linkaufbau, SEO > Google, Penguin, Update, Backlinks, Keywordlinks, Linkaufbau

  29. Peter

    Das Problem ist bei „und diese in den SERPs per Snippet perfekt ankündigen“, dass man dann zwar eine bessere CTR hat aber sich die durchschnittliche Verweildauer veringert. Denn letzendlich zählt der Inhalt. Es bringt ja nichts, etwas toll anzukündigen und dahinter verbirgt sich etwas mit weniger Qualität. Ich denke Google checkt sehr viel, CTR aber sicher auch viele andere Aspekte.

    Snippets toll und gut. Aber wenn es sehr oft die machen, die es bitter nötig haben, weil sich dahinter nichts tolles verbirgt, werden es in Zukunft auch die Suchenden merken und weniger Augenmerk darauf setzen.

    Wie schon im Artikel richtig erwähnt: Content is King. Das war schon immer so und nun ist es noch deutlicher. Google wird grundsätzlich Alles tun, um den besten Inhalt an den Mann bzw. Suchenden zu bringen. Und wenn parallel viele Big-Player nun das SEO-Budget in AdWords stecken müssen um wieder Traffic zu bekommen, ist das ja ein toller Nebeneffekt…oder vielleicht doch Hauptziel 😉

  30. dradicke

    Darf man fragen, ob Ihr jetzt – nach 5 Monaten – etwas geändert habt? Eure Sistrix-Sichtbarkeit ist ja seit dem Sommer nahe 0…. ist der SEO-Traffic ähnlich runtergegangen?

  31. eric108

    @dradicke Klar darfst du fragen. Und, ja, wir haben etwas aufgeräumt (interne Verlinkungen) und auch sonst versucht, wieder mehr Sichtbarkeitzu bekommen. Allerdings ohne Erfolg. Wie bei einigen anderen SEO-Blogs scheint Google ganz manuell das SEO-Book aus dem Rennen genommen zu haben. Der Google-Traffic ist dementsprechend eingebrochen – wir haben das dann aber über Content wett gemacht und haben jetzt sogar etwas mehr Traffic als vorher.
    Trotzdem ärgert mich das fürchterlich!

  32. dradicke

    @eric108  @dradicke Danke für die Antwort! Ich habe bei ein paar meiner Kunden, die nichts mit SEO zu tun haben, ganz ähnliche Entwicklungen, die mich/uns ebenfalls sehr ärgern… z.B. bei http://www.koerpertherapie-zentrum.de/ . Die nette Ärztin, die die Seite betreibt, hatte vorher das Wort „SEO“ noch nie gehört, und jeder einzelne Abschnitt auf der Seite ist hand-ge“klöppelt“…

  33. dradicke

    @eric108 Und noch etwas: hier ist die CTR m.E. nicht Schuld.
    Ich sehe eher das Problem, daß der Content „zu speziell“ ist, d.h. für eine kleine Zielgruppe ist der Inhalt exakt richtig (z.B. alle, die wegen Rückenschmerzen nach einer Krankengymnastik-Methode suchen). 
     
    Der Mainstream, also 80% der Besucher, wollen allerdings keine Krankengymnastik, sondern schnelle Abhilfe (Schmerz-Spritze). Diese gehen auf die Seite, bouncen sofort, und klicken dann in den SERPS auf ein anderes Ergebnis.
     
    m.E. ist also in diesem Fall der Panda ein „Mainstream“-Update…

  34. eric108

    @dradicke Das kann zu einem Teil richtig sein. Allerdings werden auch schon viele in den SERPs sehen, dass sie dieses spezielle Thema nicht wollen und nicht rüber kommen. Jedenfalls waren das die Seiten, die eine ziemlich miese CTR hatten. Ich kenne ja das Traffic-Volumen und weiß, was bei mir angekommen ist….

  35. Pingback: Die Google-Updates der vergangenen Jahre | SEO BookSEO Book

  36. Pingback: Institut für Story-Marketing – Worauf es nun ankommt

Schreiben Sie einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *