Schlagwort Archiv: Google Search Console

Das schweizer Messer für SEOs: die Search Console

Man kann sich gar nicht mehr vorstellen, wie SEO ohne die Search Console (formerly known as „Google Webmaster Tools“) funktionieren sollte. Der Werkzeugkasten aus Mountain View ist – für professionelle Whitehat Suchmaschinenoptimierung – vermutlich das wichtigste Tool. Denn die dort gebotenen Informationen sind unschätzbar und aktuell.

  • XML Sitemaps (und ihre Fehler)
  • Zugriff des Crawlers (inkl. Statistiken)
  • Parameter-Behandlung
  • Suchanfragen (CTR & Co.)
  • Links zur Webseite (na ja, nicht alle…)
  • HTML-Empfehlungen
  • Crawling-Fehler

Google und das Crawl-Budget

Wie viele Seiten crawlt Google auf Deinen Seiten und woher kommt dieses „Crawling Budget“? Auch darüber gibt es viele unterschiedliche Meinungen. Google liefert dazu aktuelle Infos und möchte nun etwas Klarheit in das Ganze bringen. Dazu wurde gestern unter anderem durch Garry Illyes einen entsprechenden Blogpost veröffentlicht. Die deutsche Version des Artikels findet ihr hier. Wie immer sollte man die Aussagen auf dem Google Webmaster-Zentrale Blog mit Vorsicht genießen. Dennoch steht da einiges drin.   Zunächst einmal definiert Google das Crawling-Budget und… Mehr Lesen >

Aktualisierung der Webmaster Guidelines

Google hat wieder mal die „Richtlinien für Webmaster“ aktualisiert. Gravierende Neuigkeiten oder Raketenwissenschaften sind darin nicht zu finden. Aber dennoch können einige kleine aber feine Unterschiede für uns SEOs von Bedeutung sein. Folgendes wurde in den „Webmaster Guidelines“ geändert bzw. neu hinzugefügt   Crawling-Budget   Verwalten Sie Ihr Crawling-Budget mithilfe der robots.txt-Datei auf Ihrem Webserver, indem Sie das Crawling von unbegrenzten Bereichen wie Suchergebnisseiten verhindern. Halten Sie Ihre robots.txt-Datei auf dem neuesten Stand. Hier erfahren Sie, wie Sie das Crawling mithilfe… Mehr Lesen >

SEO-Frage: Indexierte URLs identifizieren

SEO-Frage von einem anonymen Anrufer: Über die Google Search Console kann man ja herausfinden, wie viele URLs sich im Index befinden. Dort bekomme ich aber nur eine Zahl geliefert! Kann man auch identifizieren, um welche URLs es sich dabei handelt?         Antwort: Ja kann man! Es gibt zwei einfache Möglichkeiten die indexierten URLs zu identifizieren. Über den site-Befehl identifizieren Für die meisten SEOs unter euch ist dieser Befehl höchst wahrscheinlich ein gängiges Werkzeug in der täglichen Arbeit. Einfach in… Mehr Lesen >

Billigstmögliche SMX, Search Console und ambivalente Deutsche

Willkommen vom SEODay in Köln. Also, genau genommen, habe ich das schon gestern geschrieben, weil ich ja nicht nach Köln fahre, um dort in mein Notebook zu starren. Schauen wir also mal, was bisher in dieser Woche passiert ist und darüber, was hier passiert ist und warum Jens Fauldrath Speaker des Tages, wurde, dann vielleicht in der nächsten Wochen. Machen wir uns nix vor: Auf die SMX in München (17.-18. März 2015) gehen wir doch eh alle. Rand Fishkin ist… Mehr Lesen >

Tool-Wettrennen um die Google Search API

Searchmetrics kann es schon eine ganze Weile, seit dem 31. August dürfen auch Kunden der Sistrix Toolbox die Daten der Google Search Console mit ihrem Account verknüpfen (Sistrix API). Und mit „Impact“ wird auch onpage.org die API angraben, und zwar richtig! Starten wir hier damit, wie die Google Search Console in Sistrix rein kommt: In eurem Account einloggen und den Punkt „Google Search Console“ auswählen. Als nächstes eine neue „API-Connection“ erstellen, den „Google Search Console“ Login eingeben… …und das war´s…. Mehr Lesen >

News from the Suchmaschine: Panda, Interstitials und Mobile

Es gibt wieder Neues aus der Google-Welt. Und heute lohnt sich eine kleine Rundum-Info – zumal die Punkte auch irgendwie zusammen hängen können. 1. Panda-Update 4.2. kullert Von einem Ausrollen des Panda-Updates kann eigentlich keine Rede sein. Denn Google behauptet, dass dies einige Monate dauern wird. Krass! Seit Caffeine soll Google auf Steroiden sein – und kullert dann ein Update über Monate hinaus durch die Welt? Egal. Worum geht es in dem Update? Kurz: Man weiß es nicht. Am besten… Mehr Lesen >

Google Webmaster Tools vs. Screaming Frog

In der vergangenen Woche haben wir den SEO-Frühling ausgerufen und euch um Fragen gebeten. Noch zwei DVDs sind zu verschicken, eine geht an diesen Kollegen für die sehr praxisorientierte Frage: Frage: Hab eine Frage aus dem eher technischen Bereich. Die GWT geben mir aktuell, bei einem Online Shop, ca. 47.000 Seiten mit dem Code 404 aus. Lasse ich Screaming Frog über den Shop laufen, erhalte ich aber lediglich 44 mal den Fehlercode 404. An was liegt das? Gibt Google mir… Mehr Lesen >

XML-Sitemap in zwei Google Webmaster Tools anmelden?

Frage: Es geht um einen internationalen Auftritt mit zahlreichen separaten Länderseiten, die alle unter derselben generischen Top Level Domain (.com) laufen, aber jeweils über die Verzeichnisse eindeutig unterschieden werden: z.B. www.xxx.com/de (bzw. ausgeschrieben: www.xxx.com/de/deutschland/home.jsp), www.xxx.com/us (http://www.xxx.com/en/usa/home.jsp), etc.. In den Webmastertools haben wir einen gemeinsamen Eintrag (xxx.com), in dem wir alle Sitemaps hochgeladen haben, um diese auf einen Blick sehen und analysieren zu können. Darüber hinaus gibt es zu jeder Länderseite einen eigenen Eintrag in den WMT, um die Geo-Targeting-Funktion nutzen… Mehr Lesen >

hreflang & Co: Signale für internationale Seiten

So, in Deutschland klappt das mit dem SEO ganz gut – wie aber internationalisieren? Shops und Portale haben häufig auch ausländische Märkte im Blick. Doch Vorsicht beim digitalen Zuzug – etwa in die Schweiz. Mal davon abgesehen, dass die Mehrheit der Schweizer offenbar am liebsten nur Geschäfte mit Schweizern machen: Das SEO-Problem bei einer Internationalisierung in den kleinen, reichen Staat ist vor allem ein Sprachenproblem. Denn die Schweizer bedienen sich gleich dreier fremder Sprachen – und das könnte auf Duplicate… Mehr Lesen >