Tool-Wettrennen um die Google Search API

Searchmetrics kann es schon eine ganze Weile, seit dem 31. August dürfen auch Kunden der Sistrix Toolbox die Daten der Google Search Console mit ihrem Account verknüpfen (Sistrix API). Und mit „Impact“ wird auch onpage.org die API angraben, und zwar richtig!Google-Search-API

Starten wir hier damit, wie die Google Search Console in Sistrix rein kommt:

  • In eurem Account einloggen und den Punkt „Google Search Console“ auswählen.
  • Als nächstes eine neue „API-Connection“ erstellen, den „Google Search Console“ Login eingeben…

Sistrix mit der Google Search Console verknüpfen

  • …und das war´s. Es keine einige Zeit dauern bis die Daten geladen werden.

…Oder auch etwas länger…

Google Search API

Nun ja, letztlich könnt ihr unter dem Punkt „Google Search Console“ die Daten hinsichtlich eurer eignene Domain auf Verzeichnisebene einsehen.

Ihr findet dort KPIs wie Klicks, Impressions, CTR und die durchschnittliche Rankingposition in den SERPs. Zudem könnt ihr das Ganze nach unterschiedlichen Devices und Ländern filtern.

Sistrix - Google Search API

Quelle: http://seo.at/ctr-impressionen-position-und-klicks-sistrix-toolbox-speichert-historische-daten-aus-search-console/

Die Vorgeschichte zum neuen Feature

Nachdem uns Google nach und nach alle Keywords aus Google Analytics weg genommen hat und den Search Analyse-Anbietern ständig das Leben schwerer macht, haben die Ingenieure in Mountain View Anfang August mal etwas Gutes getan und die Suchanalyse-API der Seacrh Console (ehemals Google Webmaster Tools) zur Verfügung gestellt.

Die Tool-Anbieter haben promt reagiert und so sind wir „Daten-Nerds“ nicht mehr an das Limit der Datenspeicherung von 90 Tagen gebunden. Mit Hilfe der API ist es gängigen SEO-Tools möglich, die Daten langrfristig zu speichern. Wir als SEOs können also unsere Analysen auf Grund historischer Daten durchführen.

Aber, da müsste doch mehr möglich sein, oder? Wir werden sehen…

Warum soll ich Sistrix meine Daten präsentieren?

Ein Problem ist da aber noch: Du gibst damit deinen wertvollen Zugang zur Search Console in die Hände eines Dritten. Zwar haben angeblich weder Sistrix noch andere Nutzer einen Einblick darauf und wir möchten da auch nichts unterstellen. Aber die Aussage oben „wir prüfen gerade die Daten“ macht mich etwas nervös, und Datenschutz ist nun mal Datenschutz. Deshalb sind wir da ziemlich kritisch…

Bedenklich finde ich nämlich die Tatsache, dass Sistrix (und auch Searchmetrics) einen vollständingen Zugang zum Google Search Account haben will. Habt ihr also beispielsweise Zugänge von Kunden für das Webmaster Central oder dergleichen, werden diese Daten ebenfalls frei gegeben. Also entweder alles oder gar nichts. Das heißt für uns: nichts. (Nun, hier gibt es einen Workaround, der vielleicht für euch passt). Denn unsere Vertraulichkeitsvereinbarungen mit unseren Kunden lassen es natürlich nicht zu, dass wir deren Login für so sensible Daten an einen „Dritten“ geben.

Außerdem ist dieses Feature keine Option für größere Websites, da das Limit der API auf 5000 Datensätze begrenzt ist. Hier muss also noch eine Möglichkeit gefunden werden.

Für meine eigenen Projekte habe mir die Frage, ob ich Sistrix meine Daten liefern möchte, auch gestellt. Zumal man das Ganze ja in der Search Console selbst analysieren kann. Doch die Vorteile liegen klar auf der Hand…

  • zum Einen die erwähnte Speicherung historischer Daten.
  • und zum Anderen die Unabhängigkeit der vordefinierten Keyword-Sets von Seiten der Tool-Anbieter.

Somit werden eure Analysen wesentlich aussagekräftiger!

Warum? Das möchte ich eben verdeutlichen…

Haben wir es mit einer sinkenden Sichtbarkeit zu tun kann dies durchaus mit schlechter rankenden Keywords für diese Domain zusammenhängen. Doch diese Rankings im Einzelnen entsprechen nicht zwingend der Realität. Warum? Tools wie Sistrix und Searchmetrics crawlen wöchentlich. Das bedeutet die angezeigten Rankings sind statisch. In Wirklichkeit können sich, wie wir alle wissen, Rankings täglich ändern. Der Durchschnittwert der Google Search Console ist daher wesentlich aussagekräftiger und ist durch „Live-Daten“ begründet.

Der Schritt der SEO-Tool Anbierter, die API zu intergrieren, wird somit zwingend notwendig um wettbewerbsfähig und um „up to date“ zu bleiben.

The next Step: Onpage.org

Sistrix hat also den ersten Schritt gemacht und zeigt, wie man auf Domain bzw. Verzeichnisebene in den Search Daten herum analysieren kann. Das ist schon gar nicht mal so schlecht.

Und was hat Onpage.org vor? Die Münchner haben  ja vor geraumer Zeit Onpage.org Impact angekündigt. Hier steht nicht wirklich die Importfunktion der Daten im Vordergrund, wie es bei Sistrix der Fall ist, sondern der Detailgrad der Rankingdaten. Mit anderen Worten: Hier werdet ihr die Möglichkeit haben, das Ganze auf Basis bestimmter Unterseiten zu analysieren und eben nicht für gesamte Verzeichnisse. Und direkt neben diesen Ranking-Daten liegen dann auch gleich die Probleme und das Optimierungspotential der jeweiligen URL – wie wir es halt von Onpage.org kennen. Cool, oder?

Auszug aus Onpage.org Impact

Quelle: https://de.onpage.org/blog/onpage-org-impact-echte-ranking-daten-echter-impact

Aus „Not Provided“ wird somit „All Provided“ und das Team von Onpage.org verspricht, es tatsächlich zu schaffen, dass Thema der verschleierten Keyword-Analysen zu beheben. Klar hätte man solche Anaylsen und entsprechende Reportings auch selbst mit Hilfe von Pivot-Tabellen und Co aus der Search Console ziehen können. Aber wer hat darauf ernsthaft Lust?  😉

Inwiefern uns Zeit erspart bleibt und wie gut das Ganze umgesetzt ist werden wir sehen. Natürlich werden wir das Ganze ausführlich testen und darüber auf SEO Book berichten.

Aber hoffe, dass Marcus, Merlin und Co wieder neue Maßstäbe setzen. Erste Einblicke gibt es ja bereits. Ihr könnt euch auch für limitierte Testerplätze der Beta Version eintragen.

Wo wird das enden?

Nun stelle ich mir noch eine, wichtige Frage: „Wie lange macht das Google mit?“ Mit welchem Zweck bzw. welcher Absicht hat Google diese API zur Verfügung gestellt. Ist das die nächste Kampfansage gegen Ranking-Tracker?

Was meint ihr?

In diesem Sinne „SEO might be the CEO“…

GD Star Rating
loading...
Tool-Wettrennen um die Google Search API, 3.0 out of 5 based on 4 ratings

Andreas Burde

Andreas Burde hat sich nach seiner Zeit bei der CONTENTmanufaktur als Berater im Bereich der Suchmaschinenoptimierung und Webseiten-Erstellung mit Spezialisierung auf den KMU selbstständig gemacht.
Hier kann man mehr über ihn erfahren.

 

More Posts

Kommentare (2)

  1. termfrequenz

    Moin zusammen,

    ja, das Abfragelimit ist auf 5.000 Zeilen beschränkt. Es sind aber weiterhin alle Daten die Google in der alten Analyse unter „angezeigte“ dargestellt hat abrufbar. Man muss nur korrekt filtern. Es ist nicht total trivial, aber möglich. 
    Da SISTRIX das ganze ohne zusatzkosten anbietet, erwarte ich aber keine umfangreiche Filterabfragelogik. Der Aufwand würde doch erheblich steigern und es gibt ja auch API-Call Limits zu beachten. 
    Hinsichtlich der Datenübergabe habt Ihr aber absolut recht. IdR benötigt man eigentlich einen Datenverarbeitungsvertrag mit dem Toolanbieter und einen entsprechende Klärung mit dem Kunden. Leider bieten die aktuellen Toolanbieter keine Datenverarbeitungsverträge an. War ja auch nicht nötig, solange man selbst Daten erhebt und keine von Dritten verarbeitet. Ich denke aber, dass sich das Problem mitelfrisitg lösen wird. Dann wird es aber sicher kein kostenloses Goodie mehr sein. Der Verwaltungsaufwand auf der Anbieterseite steigt dann ja erheblich.
    In kurz, schöner erster Wurf und die Zukunft wird es richten 🙂

  2. Andreas Burde

    termfrequenz 
    Und auch schon Onpage getestet? Kann ja so einiges wie ich finde….

Kommentare sind geschlossen.