10 leicht zu vermeidende Onpage-Fehler

Onpage FehlerJa, SEO zu machen ist viel einfacher, als mit einer Rakete zum Mond zu fliegen. Der größte Teil unserer Arbeit ist pures Handwerk. Und es gilt das Pareto-Prinzip: 80 % der Ergebnisse lassen sich in 20 % der Gesamtzeit erreichen. Danach wird es knifflig.

Hier zehn Onpage-Fehler, mit denen 80 % aller Probleme gelöst sind. Und mit etwas Köpfchen und ordentlicher Technik sind sie alle relativ einfach zu vermeiden:

1. Fehler mit dem Canonical Tag

Bei unserer Umfrage nach den größten Onpage-Fehlern kam das Canonical-Tag auf Platz 1. Zwar passieren die Fehler damit nicht wirklich häufig – aber wenn, dann mit großem Effekt. Dabei ist die Regel für Canonical-Tags recht einfach: Setze es genau in zwei Fällen ein:

  1. Wenn du Gefahr läufst, durch die URL (weitere Sub-Domains, sinnlose Parameter) doppelten Inhalt auf deiner Seite geben könnte,
  2. oder wenn ein Filter im Shop („rote“ Cowboystiefel „zwischen „20 und 40 Euro“) zu parametrisierten Seiten führt, die nicht in den Index gehören weil sie meist leer oder immer gleich wären.

In allen anderen Fällen (z.B. bei paginierte Seiten) lass die Finger davon. Nun ja, es gibt einige schicke Tricks, die man mit dem Canonical Tag anstellen kann. Aber wir reden hier ja von Handwerk und dem Pareto-Prinzip…

Beim Surfen immer im Blickfeld ist das Canonical Tag mit dem Firefox AddON SearchStatus.

robots.txt, noindex und das Canonical Tag passen nicht zusammen

Unfug: So sieht es aus, wenn man robots.txt und "noindex" gegeneinander kämpfen lässt...

Unfug: So sieht es aus, wenn man robots.txt und „noindex“ gegeneinander kämpfen lässt…

Ich kann gar nicht alle Fälle aufführen, in denen diese drei technischen Hilfsmittel kombiniert verwendet wurden und werden. Doch das ist immer falsch. Eine alte Regel lautet: Es darf nur einen geben! Also entweder Seiten in der robots.txt vor dem Crawling sperren ODER die Seiten per Robots-Metatag „noindex“ vor dem Indexieren schützen ODER eine Seite als Duplicate Content einer anderen Seite auszuzeichnen. Das sind jeweils eigene Lösungen für eigene Probleme. Mehrere davon zusammen führen meist zu ziemlich undefinierten Zuständen! Also: Keine Seite mit mehr als einem dieser Hilfsmittel behandeln.

Den Robots-Meta-Tag erkennt ihr beim Surfen mit dem Firefox-Addon Seerobots.

Unnötige Seiten im Index

Der vermutlich beste Schutz vor dem Panda ist eine ehrliche Antwort auf die Frage: Welcher Content auf meiner Seite ist wirklich gut, welche Seite ist nur Futter für den Robot? Denn seit dem Panda Anfang 2011 hat Google gezeigt, dass die Erkennung von „Robot-Futter“ ziemlich gut funktioniert und auch den guten Content mit in den Abgrund reißen kann. Also: Weg mit den Futterseiten! Und wie? Dafür gibt es einige Möglichkeiten:

  • Wenn sie völlig unnötig sind, dann werden sie gelöscht.
  • Wenn sie ein anderes Ziel verfolgen (z.B. die Durchblutung der Seite, also etwa paginierte Seiten) dann sollten sie mit dem Robots-Metatag „noindex,follow“ versehen werden.
  • Wenn es massenhafte Filter in einem Shop sind (siehe oben), dann ist das Canonical-Tag eine gute Lösung.
  • Wenn sie inhaltlich eigentlich o.k. sind, aber zu viele, dann kann man sie per robots.txt ausschließen.

Einen guten Wert für das Verhältnis zwischen „guten“ und „schlechten“ Seiten dürfte der Inhalt eurer XML-Sitemap sein (wenn darin nur Contentseiten sind) und der tatsächlichen Seitenzahl, die ihr per Crawling (z.B. Screaming Frog SEO Spider) heraus bekommt. 

Blockierte Inhalte

Wer in der robots.txt Inhalte und mit der Parameterbehandlung in den Google WebmasterTools Parmeter ausschließt, sollte sich mit einem Post-IT am Bildschirmrand immer daran erinnern. Denn Parameter ändern sich – und dann ist es ärgerlich, wenn eine neue Seitenart nicht ernst genommen wird, weil der Parameter Jahre zuvor in den GWT ausgeknipst wurde. Und (ganz wichtig bei Umzügen und Relaunches): Die robots.txt muss immer aktuell sein.

Zu sehen ist der robots.txt-Status von Unterseiten mit dem Firefox-Addon „roboxt!

Fehler mit XML-Sitemaps

In die XML-Sitemap gehören die Seiten, die in den Google-Index gehören. So einfach ist das. Diese Sitemap hilft euch nichts beim Ranking, aber ihr gebt Google damit eine aktuelle Übersicht, was ihr so im Angebot habt. Es gibt drei Dinge, die häufig falsch gemacht werden:

  1. Die Sitemap wird durch unsinnige Seiten (z.B. fragmentierte Kommentare) aufgepumpt. Das ist sinnlos, unnötig und stört nur.
  2. Weil das CMS keine Sitemap generieren kann, lässt man einen Crawler eine solche erstellen. Das ist völliger Blödsinn. Denn einen Crawler hat Google selbst – und der wird besser sein als jeder andere…
  3. Die Sitemap wird einmal zusammen gestellt; weil das aber aufwändig per Hand gemacht wurde, bleibt sie ein halbes Jahr lang gleich obwohl sich die Beiträge ändern.
Alarm! Da stimmt etwas nicht: nur 12 von 20 Seiten sind indexiert...

Alarm! Da stimmt etwas nicht: nur 12 von 20 Seiten sind indexiert…

Noch eines: Wer eine XML-Sitemap hat, sollte deren Status im Blick halten. Selbstverständlich sollte man sich unbedingt ausführlich damit beschäftigen, wenn in den Google Webmaster Tools zu sehen ist, dass nur 50 % der XML-Sitemap auch wirklich aufgenommen wurde. Merke: Werden weniger als 90 % der Sitemap aufgenommen, IST das ein wichtiges Signal.

Die nächsten 5 Onpage-Fehler…

…gibt es in einem zweiten Beitrag dazu. Darin gehe ich auch auf die vielen OnPage-Tools ein, die uns bei dieser Optimierung ja helfen wollen.

Ich freue mich auch, wenn ihr in den Kommentaren diese Fehler kommentiert – und mit weitere einfach zu vermeidende Onpage-Fehler nennt. Vielleicht werden es am Ende dann ja auch 15 😉

GD Star Rating
loading...
10 leicht zu vermeidende Onpage-Fehler, 4.3 out of 5 based on 16 ratings

Eric Kubitz

Eric Kubitz ist einer der Chefs der CONTENTmanufaktur GmbH . Außerdem ist er Redner auf Konferenzen, Dozent bei Hochschulen, schreibt über SEO (und über andere Dinge) und ist der Chefredakteur des SEO-Book.

More Posts - Website - Twitter - Facebook - LinkedIn - Google Plus

Kommentare (10)

  1. Theodor

    Hi Eric,
     
    ich habe in meinen Webmastertools eine Diskrepanz in den Sitemaps: unter Sitemaps zeigt es mir 267 eingereichte und 27 indexierte Websieten an, unter Indexierungsstatus jedoch 427 Seiten. Das erschließt sich mir nicht.Kannst du mir das erklären?

  2. eric108

    @Theodor Hast du denn vielleicht eine zweite Sitemap? Die verstecken sich gerne mal hinter dem Link „eigene“ bzw. „fremde“ Sitemaps…

  3. Theodor

    @eric108 Nein, leider nur eine.

  4. eric108

    @Theodor Dann kann ich mir das aus der Entfernung nicht erklären. Den Fall kenne ich nicht. Sorry.

  5. Theodor

    @eric108 Okay, macht nix, danke!

  6. Pingback: SEO Auslese Januar 2013 | Online Marketing Agentur (Projecter GmbH)

  7. Pingback: 11 leicht zu vermeidende Onpage Fehler | cfko.de

  8. KentClarke

    Hallo,
    ich habe 267 eingereichte Seiten aktuell im Webmastertools. vor einem halben Monat waren ca. 75% aller Seiten auch im roten Balken als indexiert markiert. seit einer Woche sinkt aber die zahl täglich, so dass es heute nur noch 83 Seiten sind. Ich habe die Sitemap überprüft, sie ist echt schlank und korrekt gemanaget worden vom Yoast Seo Plugin. …Ausserdem, ist das Indexierungsdiagramm von 214 indexierten innerhalb zwei Wochen auf 140 abgefallen. Ich komme einfach nicht ganz dahinter, was da nicht stimmt. Oberndrein weiss ich nicht ob es mit dem beschriebenen Problem was zu tun hat aber seit einer Woche ca. bleibt der Traffic von Google gänzlich weg. Das einzig auffällige, was ich an meiner Page veränderte zuvor, war das Theme…
    Danke, für eventuelle Hilfe.
    Aleksej.

  9. eric108

    KentClarke Wie soll ich dir helfen? Deine Indexierung wird dünner – aber ich kann doch nicht wissen, woran das liegt? Wenn du ein neues Theme eingebaut hast, solltest du mal schauen, ob das möglicherweise böse Links enthält. Aber mehr kann ich da leider nicht sagen. 
    Eric

  10. Pingback: 10 leicht zu vermeidende Onpage-Fehler | fastline SEO-Blog

Kommentare sind geschlossen.