Schlagwort Archiv: Robots.txt

Steuerknüppel für den Google Robot: die robots.txt

Viel kann man mit der robots.txt nicht machen. Aber das Wenige kann sehr wichtig sein und im schlimmsten Fall auch viel Schaden anrichten. Deshalb gehört der richtige Umgang mit der robots.txt ganz klar zum SEO-Geschäft. Hier ein paar Tipps.

Suchanfrage/Seite des Tages: robots.txt von Google

Hurra! Ein neues Format – mal informativ, mal lustig. Aber hoffentlich immer lehrreich. Darin wollen wir euch künftig Seiten oder Suchanfragen vorstellen, auf die sich ein kurzer (oder manchmal längerer) Blick lohnt. Um das Ganzen mit einem seriösen Charakter zu starten, fangen wir natürlich mit dem informativen Teil an. Fragen zur robots.txt-Datei Immer wieder tauchen in Verbindung mit der robots.txt-Datei Unsicherheiten auf. Wie war das mit der Reihenfolge „Disallow“ und dem „Allow“ nochmal? Wie hinterlege ich mehrere Sitemaps korrekt? Wie kommentiere ich… Mehr Lesen >

Mythos oder SEO-Tipp? 16 Test-Ergebnisse

Google ändert ständig seinen Algorithmus – aber ändert Google auch wirklich die Ranking-Faktoren? Es lohnt sich ab und an, mal wieder einige alte und neu SEO-Aussagen auf ihre Wahrheit zu testen. James Rynolds und seine Kollegen von seosherpa.com haben das getan, und 16 Experimente zusammengetragen. Doch Experimente funktionieren manchmal nur im Labor und auch die Schlussfolgerungen sind oft nicht eindeutig. Und weil wir zu einigen dieser Experimente unsere eigene Erfahrung haben, haben wir die Aussagen übersetzt und prüfen, ob sie hierzulande und… Mehr Lesen >

Gute Seiten, schlechte Seiten: Indexierbarkeit und Crawlability

Welche Unterseiten gehören in den Index? Welche nicht? Und: Wie schließt man „schlechte Seiten“ aus? Das sind sehr häufige Fragen in unserer Bertungs-Praxis – deshalb habe ich auf der SEO Campixx 2015 dazu einen Vortrag gemacht. Hier die Folien und ein paar Erläuterungen. Warum sollen manche Seiten nicht in den Index? Grob gesagt: In den Google-Index gehören nur Seiten, die ein gutes Suchergebnis bieten. So gehören z.B. die Ergebnisse der eigenen Seiten-Suche nicht in den Index. Denn sie sind nun… Mehr Lesen >

Auswertung 2014:
Die größten SEO-Fehler der Welt

Jedes Jahr frage ich euch nach den größten SEO-Fehlern, von denen ihr wisst. Sortiert nach den OnPage/OffPage-Fehlern und dabei jeweils nach den SCHLIMMSTEN Fehlern und den HÄUFIGSTEN Fehlern. Und wie jedes Jahr hat sich einiges getan. Die Umfrage In zwei Schritten habe ich euch auch in diesem Sommer wieder nach euren Erfahrungen hinsichtlich SEO-Fehlern gefragt. Jeweils zwischen 150 und 200 Suchmaschinenoptimierer haben auf die Frage nach den größten SEO-Fehlern „OnPage“ und „OffPage“ geantwortet. Und: Nein, das ist keine repräsentative Auswahl… Mehr Lesen >

Die 5 wichtigsten Faktoren für eine gelungene Onpage Optimierung

Im Beitrag vom Montag haben wir von unserer Leserschaft interessante SEO-Fragen gefordert. Derjenige, dessen Frage auch unser Interesse weckt, gewinnt per Lehr-DVD einen Blick ins Hirn von Eric Kubitz. Mittlerweile sind auch einige Fragen bei uns eingegangen. Folgende hat sich eine DVD verdient: Frage: Google wird immer besser wenn es darum geht Manipulationen durch den Kauf von Links aufzudecken. Neue Konzepte wie der Authorrank lassen darauf schließen, dass Links in naher Zukunft nicht mehr derart ins Gewicht fallen, wie sie… Mehr Lesen >

Die besten SEO-Tools Teil 1: Browser-Plugins

Firefox und Chrome sind die wichtigsten Freunde des SEOs! Allerdings nur, wenn sie mit den richtigen Plugins zum Allzweckwerkzeug gepimpt wurden. Deshalb beginne ich meine Serie über die besten SEO-Tools mit den Browser-Plugins der beiden Webbrowser. In unserem Arbeitsalltag als SEO Consultants bekommen wir es tagtäglich mit einer Vielzahl von Webseiten zu tun. Unsere Aufgabe besteht meist darin, Fehler und Potentiale aufzudecken, die dem Kunden bzw. der Kundenseite zu besseren Rankings verhelfen. Dabei nutzen wir natürlich eine Vielzahl an SEO-Tools…. Mehr Lesen >

Was ein SEO über die robots.txt wissen sollte

Die kleine Text-Datei „robots.txt“ ist ein kleines Stück Technik, das man als SEO verstehen sollte. Denn sie steuert die Crawler der Suchmaschinen über die eigene Webseite. Oder, besser gesagt: In der robots.txt kann man die Suchmaschinen-Bots bitten, bestimmte Bereiche der Webseite in Ruhe zu lassen. Google jedenfalls hält sich dran. Allerdings gibt es einige Details und Eigenheiten der robots.txt zu beachten. Über die robots.txt allgemein Wer sich in das der robots.txt zugrunde liegende Robots Exclusion Standard Protokoll einlesen möchte, findet… Mehr Lesen >

Etwa 22 Werkzeuge für bessere Crawlability

Nennen wir es „Crawlabilty“: Wie führen wir den Google-Crawler durch unsere Seite? Möglichst schnell und auf alle wichtigen Seiten. Dazu gehört natürlich auch, dass wir ihn nicht mit unnötigen URLs unnötig beschäftigen. Hier etwa 22 Werkzeuge für diese Arbeit. Alle (wichtigen) Seiten in den Index bringen 1. Die XML Sitemap Weniger ein Ranking-Faktor als ein Analyse-Tool sind die XML-Sitemaps, die man in den Google Webmaster Tools anmelden kann. Einige Faustregeln dafür: In die XML-Sitemaps gehören alle guten Seiten rein –… Mehr Lesen >

10 leicht zu vermeidende Onpage-Fehler

Ja, SEO zu machen ist viel einfacher, als mit einer Rakete zum Mond zu fliegen. Der größte Teil unserer Arbeit ist pures Handwerk. Und es gilt das Pareto-Prinzip: 80 % der Ergebnisse lassen sich in 20 % der Gesamtzeit erreichen. Danach wird es knifflig. Hier zehn Onpage-Fehler, mit denen 80 % aller Probleme gelöst sind. Und mit etwas Köpfchen und ordentlicher Technik sind sie alle relativ einfach zu vermeiden: