Die 5 wichtigsten Faktoren für eine gelungene Onpage Optimierung

seo frageIm Beitrag vom Montag haben wir von unserer Leserschaft interessante SEO-Fragen gefordert. Derjenige, dessen Frage auch unser Interesse weckt, gewinnt per Lehr-DVD einen Blick ins Hirn von Eric Kubitz.

Mittlerweile sind auch einige Fragen bei uns eingegangen. Folgende hat sich eine DVD verdient:

Frage: Google wird immer besser wenn es darum geht Manipulationen durch den Kauf von Links aufzudecken. Neue Konzepte wie der Authorrank lassen darauf schließen, dass Links in naher Zukunft nicht mehr derart ins Gewicht fallen, wie sie es heute noch tun. Eine gute Onpage-SEO wird aber wieder die Basis bleiben.

Ich würde gerne wissen, welches eurer Meinung nach die 5 wichtigsten Faktoren für eine gelungene Onpage Optimierung sind.

Antwort: Die 5 wichtigsten Onpage-Faktoren? Na, hoffentlich verzähle ich mich jetzt nicht….

Meta-Angaben

Besonders der Title ist eines der unverzichtbaren Kriterien um dem Crawler die Richtung der Seite mitzugeben. Während  die Pflege der Meta-Keywords schon fast unter Negativ-SEO fällt 😉 , ist der Title in seiner Wichtigkeit sehr beständig geblieben und die Meta-Description ist für die Durchklickrate auf der Suchergebnisseite mega-wichtig.

Also: Immer wichtiger wird die einheitliche Pflege des Brands, denn Google steht einfach auf Brands. Wir empfehlen das Keyword vorne anzustellen und den Brand an das Ende des Titles zu setzen. Stopwords dürfen nicht fehlen, um den Title nicht „spammy“ wirken zu lassen.

Nicht vergessen, bei rund 50-55 Zeichen ist Schluss. Andernfalls wird der Title von Google gekürzt, was weniger zum Klicken einlädt. Gastautor Ludwig Coenen hat einen interessanten Beitrag darüber geschrieben, wie Titles zu unwiderstehlichen Klickmagneten werden.

Crawlability

Gut, hier haben wir mehrere Punkte zusammengefasst. Verdeutlicht werden soll allerdings, dass der Crawler die jeweiligen Seites natürlich crawlen können muss, er aber auch verstehen muss, um was es darauf geht.

Robots.txt

Nur was der Crawler lesen kann, kann er auch indexieren.

In erster Linie muss dazu natürlich die Robots.txt passen, denn, was dem Crawler verboten wird zu crawlen, crawlt er auch (meist) nicht. Seiten, die nicht im Index landen sollen, müssen mit den Robots-Meta-Tags ausgeschlossen werden. Die Robots.txt bietet hier keine 100%ige Sicherheit.

Wer noch etwas Nachholbedarf in Sachen Robots.txt hat, hier gibt es alles rund um´s Thema im Detail nachzulesen.

Navigation

Ebenfalls ist es wichtig, dem Crawler eine Hierarchie zu verdeutlichen, ihm also verstehen zu geben, welche Inhalte wichtiger sind als andere.

Die Navigation einer Seite gibt bereits einen Überblick über die auf der Seite behandelten Themen. Sie ist aber eben auch ein Verteilerknoten, welcher eine Hierarchie verdeutlicht. Von Ihr aus  bahnt sich der Crawler seinen Weg durch die Website. Hier finden sich mehr Details zur internen Struktur.

Natürlich hört die Struktur einer Seite nicht bei der Navigation auf. Auch auf jeder einzelnen Seite sollte der Aufbau stimmen. Der korrekte Einsatz von Headlines ist Pflicht.

JavaScript

Der Quelltext der Seite sollte auch noch alle Links enthalten, sofern JavaScript deaktiviert ist. Google arbeitet bekanntlich ohne JavaScript-Unterstützung (bzw. kann man sich nicht darauf verlassen, dass sie es lesen können). Wichtig ist also, dass die Navigation auch noch so vorhanden und bedienbar ist. Produkte sollten nicht via AJAX nachgeladen werden, sondern eher über paginierte Seiten dargestellt werden. Oder es wird kompliziert…

In-Text-Links

Zusätzliche In-Text-Links sorgen für ein „durchwachsen“ der Websitestruktur und helfen Lesern, sich gerade in neuen Themengebieten leichter zurechtzufinden.  

Parameter in der URLs

Außerdem sollte darauf geachtet werden, dass nicht zu viele Variablen oder Parameter in den URLs auftauchen, um nicht in die Duplicate Content-Falle zu treten und Crawler nicht unnötig mit unnützen Dubletten zu beschäftigen.

Canonical Tag

Wo wir beim Thema „Duplicate Content“ wären. Der Canonical Tag kann und sollte Abhilfe schaffen.

Sitemaps

Weiterhin sollten alle, zumindest jedoch die wichtigsten Seiten in einer XML-Sitemap hinterlegt werden. Über die Google-Webmaster-Tools lässt sich der Indexierungsstatus leicht überprüfen. Zudem empfehlen wir, mit einer HTML-Sitemap zu arbeiten. So, dass der Crawler auch möglichst schnell auf jede Unterseite kommt.

Ladegeschwindigkeit

Die Ladegeschwindigkeit dient nicht nur der Usability und ist schon fast eine Voraussetzung für eine ordentliche Conversion Rate, sie ermöglicht auch, dem Crawler mehrere Seiten in gleicher Zeit zu crawlen. Auch der Crawler von Google ist im Endeffekt nur ein User und muss Seite um Seite einzeln anfragen. Da er lediglich eine bestimmte Zeit pro Website zur Verfügung hat, je nachdem für wie wichtig er sie hält, wird ihm durch eine kurze Ladezeit ermöglicht mehr Dokumente zu sichten.

Hier können wir gtmetrix  empfehlen – so lässt sich das ein oder andere Plugin sparen und der Browser bleibt schön schlank.

Nochmal alles zum Thema Crawlablility.

Freshness

Die Freshness einer Website sagt etwas darüber aus, wie viel Bewegung dort herrscht, sprich, wie aktuell sie ist. Das ist mit der Bedeutung der Website für User fast gleichzusetzen. Damit ist auch das Userverhalten im Sinne von Kommentaren, etc.  gemeint. Aber auch das provoziert man am besten mit einer Kontinuität an neuem Content.

Warum „Aktualität“ nicht nur der Schumaschinen-Optimierung dient lässt sich in Eric´s Beitrag nachlesen.

Content

Welchen Rat erwartet ihr von der CONTENTmanufaktur? Content – und zwar guten Content!

Qualitätscontent spielt jedem Webmaster in vielerlei Hinsicht in die Karten. Er ist das, woraus sich der Trend des Content Marketings gebildet hat. Nicht zu Unrecht, denn irgendwann hat auch der Letzte verstanden, dass sich attraktiver Inhalt durchsetzt.

Man hält seine User bei Lauen, dadurch steigt im besten Fall die Klick-Through-Rate, die Bounce-Rate sinkt und es wird über Themen diskutiert, wodurch wiederum Bewegung in die Seite kommt– sprich, Google registriert ein ordentliches User-Verhalten.

Außerdem wird Content, welcher wirklich etwas zu sagen hat, auch schnell Selbstläufer in Sachen Offpage-Optimierung. Damit sind nicht nur klassische Links gemeint, auch Citations, Shares, Likes und Tweeds erfreuen den Webmaster heute.

Damit auch der Crawler was vom Content hat, sollte noch ein bisschen auf die WDF*IDF-Kurve geachtet werden.

Zusammenfassen lässt sich das wohl alles in dem Satz: Und die Moral von der Geschicht´, schlechter Content lohnt sich nicht.

Übrigens, wo dieser Content erhältlich ist, müssen wir hoffentlich nicht mehr erwähnen. 🙂

Nicht 5 sondern 4 bzw. 12 wichtigste Onpage-Faktoren

So, das waren dann wohl nur vier (oder 12?) Kriterien, was die Sache hoffentlich nicht schlechter macht.

Auf guten Content und viel Spaß mit der DVD.

GD Star Rating
loading...
Die 5 wichtigsten Faktoren für eine gelungene Onpage Optimierung, 4.2 out of 5 based on 13 ratings

Max Bloch

Das Thema „Online“ begleitet Maximilian Bloch (29) seit inzwischen zehn Jahren.
Er studierte Wirtschaftsinformatik an der Hochschule Augsburg und war als SEO-Consultant bzw. Senior SEO-Consultant bei der CONTENTmanufaktur tätig. Momentan ist er als Senior Online Marketing Manager für die technische Suchmaschinenoptimierung der Allianz Deutschland AG verantwortlich und betreut mit seinem SEO-Atelier Kunden und Websites aller Größen hinsichtlich SEO, Online Marketing-Strategie und Workshops. Weiterhin übernimmt er eine Dozentenrolle für Suchmaschinenoptimierung bei der Akademie der Bayerischen Presse (ABP).

More Posts - Facebook