Schlagwort Archiv: Robots.txt

Steuerknüppel für den Google Robot: die robots.txt

Viel kann man mit der robots.txt nicht machen. Aber das Wenige kann sehr wichtig sein und im schlimmsten Fall auch viel Schaden anrichten. Deshalb gehört der richtige Umgang mit der robots.txt ganz klar zum SEO-Geschäft. Hier ein paar Tipps.

SEO-Woche: Von Superhelden, Frageonkeln und Rückzugsgedanken

Was habe ich da nur getan? Meine Aktion „Fragt uns eure SEO-Fragen“ kam so gut an, dass ich jetzt einen Sack voller unbeantworter Fragen habe. Ich werde mich da aber durch arbeiten, denn viele Fragen sind wirklich spannend und machen Spaß. Ihr könnt uns also weiter damit bombardieren – müsst aber ein wenig Geduld mitbringen. DANKE noch einmal an Eisy, der als Urlaubsvertretung  eine derart großartige SEO-Woche geschrieben hat, dass ich mir nun nicht mehr so sicher bin, ob ihr… Mehr Lesen >

Google Webmaster Tools als Ping-Service?

Google macht weiter beim Ausbau der Google Webmaster Tools zu einem lebensnotwendigen Toolset: Gerade habe ich erstmals eine Erweiterung bei den Fehlern („Diagnose / Crawling-Fehler“) gesehen. Und was man da sieht, ist zwar noch nicht fertig, verspricht aber echten Mehrwert: Oberhalb der gewohnten Fehler gibt es weitere Buttons: „DNS“, „Serververbindung“ und „Abruf von robots.txt“. Momentan scheinen die GWT noch nicht an Googles DNS-Service zu hängen – deshalb gibt es die Mitteilung, dass keine Kommunikation mit der Seite möglich war. Doch… Mehr Lesen >

SEO-Woche: Gästebloggen, Technohausen und der Schutz vor dem Besucheransturm

Nein! Ich rede nicht über das Wetter. Auch, wenn das Panorama vor dem Fenster so wohltuend ist: schneebedeckte Berge unter stahlblauem Himmel und hinter sonnenbeschienenen Wiesen. Tja, so sieht Frühling aus. Aber: Nein, dazu sage ich jetzt nichts. Echt nicht! Einfach Klappe halten und genießen.

Google Webmaster Tools: Crawling-Fehler fixen

Inspiriert von SEOmoz habe ich mir heute mal die Crawling-Fehler großer Seiten in den Google Webmaster Tools etwas genauer angesehen. Viele Inhouse SEOs kennen das wahrscheinlich nur allzu gut: Man wagt einen Blick in die Google Webmaster Tools und findet dort eine ungeheure Anzahl an Crawling-Fehlern vor und weiß gar nicht, wo man mit dem Fixen dieser Fehler anfangen soll. Tatsächlich sollte man sich in Anbetracht dieser überwältigenden Anzahl an Fehlern einen Plan zurechtlegen, nach welchem man vorgehen möchte. Das… Mehr Lesen >

SEO Check Teil 4: "Technik" – Ladegeschwindigkeit, robots.txt & Co.

In unserem Beratungsalltag als Suchmaschinenoptimierer stoßen wir regelmäßig auf große, zum Teil sogar sehr große Seiten mit guten, einzigartigen Inhalten und vielen Backlinks. Doch je größer und älter eine Seite ist, desto mehr Funktionen und Features kommen im Laufe der Jahre hinzu. So stellen vor allem gewachsene Systeme mit vielen tausend Unterseiten immer wieder eine besondere Herausforderung für den Suchmaschinenoptimierer dar. Der vierte Teil unserer SEO Check-Serie richtet sich deshalb insbesondere an Inhouse-SEOs großer Unternehmen, die es mit gewachsenen Systemen… Mehr Lesen >

Durch die weitere Nutzung der Seite stimmst du der Verwendung von Cookies zu. Weitere Informationen

Die Cookie-Einstellungen auf dieser Website sind auf "Cookies zulassen" eingestellt, um das beste Surferlebnis zu ermöglichen. Wenn du diese Website ohne Änderung der Cookie-Einstellungen verwendest oder auf "Akzeptieren" klickst, erklärst du sich damit einverstanden.

Schließen