SEOkomm 2015 – Von großem Kino, Performance und Antworten von Google

seokomm recapGanz großes Kino: Den Abschluss des SEO-Konferenz-Jahres bildet die SEOkomm in Salzburg. Als Fachbeirat bin ich natürlich befangen – aber offensichtlich sind sich auch alle anderen Besucher darüber einig, dass sich die Reise nach Österreich gelohnt hat.

Das CONTENTmanufaktur-Team hat wieder eine Reihe von Vorträgen besucht – und sammelt hier die wissenswerten Eindrücke. (Beitrag wird jeweils neu aktualisiert…)

Keynote Marcus Tandler

Marcus Tandler KeynoteEin Highlight ist bei der SEOkomm immer der Auftakt, die Keyonote von Marcus Tandler von Onpage.org. In diesem Jahr hat er 463 Slides voller neuer Gedanken mitgebracht. Ein Horror für den Berichterstatter. 😉

  • Machine Lerning ist ein Gamechanger in unserer Branche, ach im Internet. Hierbei muss man überwachtes Learning (also im Gespräch mit Menschen) und „Überwachung“ unterscheiden..
  • Zum Beispiel Smartwatches sind dafür ein sehr gutes Tool. Denn diese Wearables überwachen den User natürlich auch, wenn er gerade nicht sucht – und sind geradezu dafür da, vorauszusagen, was der Träger als nächstes tun möchte. Ähnlich wie Google Now.
  • Oder Google Chrome: Über den Browser ist das Mikrophon nun standardmäßig aktiviert. Aha. Dass Google damit keinen Unfug macht, nun, da muss man den Kollegen Mountain View wohl einfach vertrauen.
  • Ein dazu passender Vorschlag für ein prima Feature: Wenn Google in einem Gespräch ein ungewohntes Fremdwort hört, könnte auf der Smartwatch gleich die Erklärung dafür erscheinen – damit der Träger höchst intelligent wirkt.
  • Macht uns das Angst? Nein, aber manche fühlen sich unwohl. Doch klar ist, das wird Realität. vermutlich auch einfach, weil es möglich ist. Und „Happy User“ sind nun mal das Ziel von Google – und die meisten werden eine solche Hilfe mögen.
  • Weiter: Alles ist Content Marketing, auch dieser Vortrag. Und ohne gutes Content Marketing wäre Jesus Christus nicht so populär geworden. Geholfen haben ihm dabei auch die Evangelisten, sozusagen „Guest Blogger“ 😉
  • Doch wenn es besser geht, dann ist gut nicht mehr gut genug. Stellt euch immer die Frage, ob irgendjemand euren Content vermissen würde, wenn ihr ihn löschen würdet.
  • Marcus stellt drei wichtige Metriken für „Guten Content“ vor:
    • Klickrate aus den Ergebinsse. Wobei User, die immer nur auf das erste Ergebnis klicken, nicht so wichtig genommen werden können, als die, die vielfältiger klicken. (Verbesserungsmöglichkeit durch Rich Snippets)
    • Verweildauer – und natürlich, ob sich die User dann auch weiter durch die Seite klicken. Man kann das auch als „Long Klick“ bezeichnen. (Verbesserung durch eine gute interne Verlinkung oder auch externe Seite)
    • Pogo-Stickiing aka Bouncerate, wenn der User also sofort zurück zu den Suchergebnissen springt. (Verbesserung vor allem durch beseren Page-Speed. Amazon sagt, dass das Sinken der Ladezeit um 1 Sekunde, die Conversion um 7 % senkt.)
  • Marcus betont: Du musst deine Kunden immer mit dem richtigen Kanal und dem richtigen Content erreichen. Es gilt also nicht nur die Conversion Rate zu erhöhen sondern alle weiteren Bedürfnise des Users möglichst gut zu befriedigen.
  • Eine wichtige Rolle dabei spielt der Page-Speed. Und Google unterstützt viele Publisher mit dem AMP-Projekt dabei. Sehr große Publisher profitieren dabei von der Zusammenarbeit mit Google und machen damit ihre Webseiten schneller. Allerdings: AMP killt dabei sehr viel Java-Script – von anderen Werbe-Anbietern. Kein Wunder: AMP ist komplett in der Hand von Google. Das Projekt hilft – aber am Ende vielleicht vor allem nur Google. Sollen wir dabei Böses ahnen? Wir werden sehen.
  • Nächster Punkt: Google hat ein echtes Problem mit Apps. Denn darin kann die Suchmaschine zunächst nicht suchen. Deshalb wird das Anbieten von App-Interstitials oder Pop-Ups mittlerweile mit einer Penalty bestraft. Andererseits versucht Google mittlerweile auch in Apps suchen. Und nicht nur das: Es soll auch möglich sein, dass Suchergebnisse in Apps angezeigt werden – ohne, dass der User diese App hat. (Das müssen wir uns mal genauer anschauen.)
  • Fazit: Don’t Panic – konzentriere dich darauf, deine User happy zu machen:
    • Hast du eine hohe CTR?
    • Beschäftigen sich die User mit der Seite?
    • Wird sie weiterempfohlen?
    • Wie hoch ist die Bouncerate?
    • Generiere viele PIs aus den Suchergebnissen
    • Achte auf eine hohe Wiederkehrrate

Obacht: So ein Live-Bericht ist keine 1:1 Wiedergabe. Natürlich habe ich das daraus gemacht, was ich gehört habe und einige Gedanken von mir mit eingeflochten.

Prozessoptimierung für SEO Agenturen

Sebastian Ehrlhofer, Geschäftsführer der mindshape GmbH, zeigt in seinem Vortrag, wie ihr eure Prozesse innerhalb der Agentur optimieren könnt, um am Ende des Tages den Kunden zufrieden zustellen.
Key-Massage: „Arbeitet zunächst an euch selbst, der Rest kommt von alleine.

  • Was bringt Prozessoptimierung eigentlich innerhalb einer Agentur? Qualität, Effektivität, Effizienz, Happyness, Innovation und Kreativität. Und ganz wichtig! Am Ende ein top Produkt, das den Kunden glücklich macht.
  • Wie geht man also vor?
    • Delegiert jemanden, der sich nur mit der Thematik Prozessoptimierung beschäftigt.
    • Automatisiert wenn möglich wo ihr könnt
    • Etabliert diese Prozesse innerhalb der „Agentur-Kultur“. Sensibilisiert eure Mitarbeiter, dass es intern Prozesse zu erarbeiten bzw. zu optimieren gilt. In´m Klartext: „Identifiziert die Kernprozesse eures täglichen Geschäfts!“. Schafft Zeit und Raum um an Prozessen zwischen Agentur und Kunden zu arbeiten. Das Ganze natürlich strategisch und auch in Betracht auf die Ressourcen-Planung.
    • Vermeidet „Fehlleistungen“! Sprich Arbeitsleistung effektiv einsetzen.
    • Know-how von allen Seiten in die Prozesse integrieren.
    • Fehler innerhalb der Prozesse identifizieren und zukünftig vermeiden.

Fazit des Vortrags: „Haltet euch an diese Schritte und der Workflow funktioniert. Wichtig: Immer am Ball bleiben. Es handelt sich um ongoing Maßnahmen…

Relaunch am Beispiel von Salzburg.com

David Radicke spricht über den Relaunch von Salzburg.com. Ausgangssituation war, dass sich salzburg.com nach dem Relaunch hilfesuchend an David gewandt hat. Mit dem Aufzeigen dieser oftmals typischen Fehler liefert er eine Liste typischer, aber vermeidbarer Fehler.

  • Generelle Probleme von CMS-Systemen
    • Duplikate Pfade
    • Content Schnipsel
    • Große Menge von Inhalten und beteiligten Personen
    • Mangelhafte Verknüpfung untereinander. Dies sei ein generelles Problem von Zeitungen
  • Das Vorgehen von David: Recherche und Analyse (David nennt es “Wühlen”) in Analytics, Google, Sistrix, Linkdaten, Archive.org, Screaming Frog
  • Anschließend war eine Bewertung des Relaunches möglich – Ergebnis war mangelhaft.
  • Gleiche Inhalte waren unter mehreren URLs erreichbar.
  • Es wurde eine unterschiedliche URL-Syntax verwendet.
  • Auch die Navigation war auf einigen Seiten unterschiedlich.
  • Plötzlich tauchte die Subdomain “geizhals.salzburg.com” auf.
  • Ebenso waren die XML-Sitemaps nicht in Ordnung.
  • Täglich über 10.000 Serverfehler.
  • 45.000 Crawlingfehler. Leider sind über Search Console nur 1.000 abrufbar. Somit sind nicht alle Daten einsehbar.
  • Die zur Verfügung stehenden Crawlingfehler noch einmal per Screaming Frog auf ihren Status hin überprüft.
  • Die Startseite war ca. 6,5 MB groß – eine Ladezeit von >30 Sekunden.
  • Allein 1,5 MB großes Flash auf der Startseite, ebenso eine hohe Anzahl von Requests.
  • Duplikate per Canonical zu behandeln ist “einfach nur ein Pflaster”. Sie sollten gar nicht entstehen.
  • Viele CMS sind noch “dumm”.
  • Falsche Prioritäten – Für Design wird gern Geld ausgegeben.
  • Crawl-Budget einsparen.
  • Altlasten loswerden: Statuscode 410 ist manchmal ok, allerdings sollte man hier beispielsweise auch an gesetzte Bookmarks denken.
  • Wie wird man diese Altlasten los? Das kommt beispielsweise auf die Größe des Projektes an. Weiterleiten auf neue Ziele, wenn möglich.
  • Hier sollten auch eigehende Backlinks berücksichtigt werden.

Fazit: David zeigt am Beispiel des Relaunches von Salzburg.com sehr schön auf, mit welchen Relaunch-Fehler SEO-Berater täglich konfrontiert werden. Anhand der Ausführungen seiner Gedankengänge werden diese typischen Fehler deutlich und lassen sich somit vermeiden.

Do it yourself – Analyse Powertasks ohne Entwickler

Stephan Walcher (onpage.org) zeigt, wie man ohne Entwickler wichtige Tasks durch Kombination von Tools und APIs selbst machen kann. Vereinfacht die Umsetzung eurer Maßnahmen ohne die Hilfe von „bösen“ Entwicklern!

Datenanalyse:

  • Nutzt Google Analytics/Google Search Console in Kombination mit Google Spread Sheet (GSS). Das ermöglicht euch, automatisiert Traffic-Daten aus Google Analytics zu ziehen. Zudem könnt ihr zusätzliche Informationen wie Angaben zu Meta-Angaben, Indexierbarkeit, Crawlability etc. einholen. Alles das, was Google eben über eure Seite weiß. Alles, was ihr dazu braucht, sind unzählige Formeln und Verweise. Keine Panik! Ich werde euch in den kommenden Tagen eine Anleitung bereitstellen.

Monitoring:

  • Um bspw. zu erfahren, wie eure Artikel im Social Web perfomen, nutzt die Importfunktion der GSS und füttert das Sheet mit Daten aus dem „Mention-Bereich“ von onpage.org. Auch hier werde ich euch nachträglich eine Anleitung liefern.
  • Auch über Newsletter-Monitoring erzählt uns Stephan ganz interessante Sachen. Aber mal im Ernst. Erspart euch die Arbeit und schaut mal hier vorbei: http://www.gmailmeter.com/

Fazit des Vortrags: „Sehr schnell gesprochen, ich hab Hunger und es riecht nach Essen…Mehr zum Thema wie gesagt in den kommenden Tagen!

In diesem Sinne „SEO might be the CEO“…

SEO Controlling – so wichtig und doch unterschätzt

Jens Fauldrath beschäftigt sich mit den Herangehensweisen und Tools für Controlling-Aufgaben innerhalb der Suchmaschinenoptimierung. Hierzu liefert er wertvolle Tipps und Erfahrungswerte.

  • Die Search Console
    • Search Console ist mit Abstand das wichtigste SEO-Tool.
    • Tipp: Hier immer auch die Unterverzeichnisse mit einbinden.
    • Liefert mehr Fehler (Beispielsweise Crawlingfehler).
    • In der Search Console werden beispielsweise 404-Fehler lediglich 3 Monate lang angezeigt. Insofern sollten diese Daten dauerhaft notiert werden.
  • Google Analytics
    • Mit Alerts arbeiten. So lässt sich eine Art Frühwarnsystem erschaffen.
  • Reportings
    • Logisch, wird aber oft vergessen: Reportings werden nicht für sich selbst erstellt.
    • Sinnvolle KPIs müssen definiert werden. Diese müssen auch im eigenen Verantwortungsbereich liegen.
    • Bei falsch gewählten KPIs kann es passieren, dass wirkliche Erfolge nicht kommuniziert werden können.
    • Sichtbarkeitsindex macht keinen Sinn und ist kein KPI. Keywordsets zu generell.
    • Medienäquivalenzbewertungen machen keinen Sinn.
    • Ziele müssen definiert und festgelegt werden.
    • Vergleich SEO zu SEA kann oft Sinn machen.
  • Konkurrenzanalyse
    • Jens arbeitet hier gern mit Sistrix um einen schnellen Überblick zu bekommen.
    • Excel & APIs sind dein Freund. Das Nutzen dieser Möglichkeiten kann sehr sinnvoll sein.
    • Nicht nur auf Domain konzentrieren – auch Kategorieseiten (und weitere Seitenarten) gegenprüfen um zu sehen, wie die Sichtbarkeit zustande kommt.
    • Was sind die Treiber der Sichtbarkeit?
    • Gegenüberstellen mit der Anzahl der indexierten Seiten sinnvoll.
    • Anzahl der indexierten Seiten und der strukturelle Aufbau sollte man sich pro Kategorie ansehen.
    • Eigene Indexierungsprobleme lassen sich damit identifizieren.
    • Linkanalysen, Technologieanalysen.

Fazit

Jens gehört zu einem der erfahrensten SEOs überhaupt. Das wurde auch bei diesem Vortrag bemerkbar, welcher von guten Tipps und konkreten Handlungsempfehlungen gespickt war. Weiteres Interessantes von Jens gibt es auf Termfrequenz.

So… und nun zu den wirklich wichtigen Dingen einer Konferenz: Das Essen – streng unter die Lupe genommen vom CONTENTmanufaktur-Gourmet-Team. Evtl. folgt hierzu künftig ein Konferenz-Ranking!

Onpage SEO: Content-Grundlagen

Eric Kubitz, Geschäftsführer der CONTENTmanufaktur, hat so knapp wie möglich beschrieben, wie ein Suchmaschinenoptimierer mit Content umgehen sollte. Dabei geht es natürlich nicht nur um Texte, sondern auch um Bilder, Videos und Meta-Angaben:

  • Google sucht immer nach genau dem Inhalt, der die Suchanfrage des Users am besten beantwortet.
  • Deshalb geht es nicht um die Verwendung von Keywords, sondern um das Beantworten von Suchanfragen.
  • Die W-Fragen-Tools sind hierbei sehr hilfreich.
  • Aber natürlich auch der semantische Zusammenhang (aka WDF*IDF).
  • Bilder: Mit möglichst einfachem HTML einbauen und auf die Text-Bild-Schere achten, die nicht zu weit auseinander gehen sollte.
  • Videos: Am besten auf YouTube einbinden und von dort auf die eigene Seite einbinden. Vorteil: Zusätzlicher Traffic aus YouTube und gute Verweildauer auf der eigenen Seite.
  • Meta-Angaben: Das Keyword-Meta-Tag kannst du im Grunde vergessen. Title-Tag und Meta-Description sind sinnvoll, um Google die Relevanz der Seite zu einem Thema anzuzeigen – aber auch als Teaser in den Suchergebnissen.
  • Text: Den schärfsten Fokus legt Eric Kubitz auf die Struktur-Texte wie Headline, Einstieg und Zwischenüberschriften. Wichtig hierbei ist, dass man von Anfang an strukturiert schreibt. Die Länge eines Beitrags sollte sich an dem Inhalt messen – und nicht an irgendwelchen alten SEO-Mythen.
  • Und, obacht: Immer darauf achten, dass jedes Thema aka Keywords nur einmal auf der Seite optimiert und entsprechend verlinkt wird.

Fazit des Vortrags: „Keep calm and trust in Content“ 😉

Mehr (Page-) Speed geht nicht!

Bastian Grimm von PeakAce mit seinem Steckenpferd – Pagespeed. Er zeigt regelmäßig Methoden und Wege auf, auch noch das Letzte hinsichtlich Ladezeit aus der Seite herauszuholen.

  • Durchschnittlich sind die ersten drei Ergebnisse schneller als der Rest.
  • Vorraussetzungen müssen gegeben sein: Caching, Critical Rendering Path.
  • Tool-Vorschlag Webpagetest – viel besser als PageSpeed Insights von Google (auch von mir persönlich ein ungeliebtes Tool).
  • Die Search Console liefert ebenfalls interessante Daten.
  • Mit sitespeed.io können Ladezeiten punktuell sehr gut beobachtet werden.
  • Weiterhin ein großes Problem: Anzahl der Requests.
    • Weniger ist mehr bei der Anzahl von JS und CSS-Dateien.
    • Wann immer möglich: Asynchrone Requests.
    • HTML5-Attribut bringt ein interessantes Attribut mit: async (Vorsicht bei Abhängigkeiten).
  • Nicht Standardschriften
    • Viele Seiten nutzen Nicht-Standard-Schriften.
    • Nicht Standardschriften müssen zusätzlich geladen werden.
    • Auch diese Schriftarten können asynchron geladen werden: Lt. Google-Tool verlängert sich allerdings dadurch noch die Ladezeit.
    • Besser: TLDR – Selbst hosten, komprimieren und lokal speichern. Natürlich werden Custom-Fonts gecached, allerdings kann hier beim ersten Aufruf Zeit gespart werden.
  • Pre-Fetching & -Rendering
    • Prefetching von Hostnames bei externen Quellen sinnvoll.
    • Durch eine HTML-Zeile umsetzbar.
    • Hierdurch lassen sich DNS-Lookups einsparen.
    • Bei HTTPS noch Pre-Connect sinnvoll.
    • Priorisierung durch Subressource bei Informationen, die auf der Seite noch gebraucht werden. Z. B. ist hier das Vorladen bei Mouseover möglich.
    • Prefetching & Prerendering erlaubt das Vorladen ganzer Seiten, beispielsweise beim Mouseover über Links.
  • Page Visibility API
    • Verschickt JavaScript-Dateien, je nachdem ob Tab sichtbar ist.
    • Erlaubt eventbasiertes Laden. Beispielsweise laden, sofern Tab auch sichtbar. —> Ressourcenfreundlichkeit
  • Bilder
    • WebP – Bildformat von Google
    • Fallback als jpg oder png nötig. Allerdings könnte man hier – sofern WebP vorhanden – dynamisch das jpg oder png austauschen.
    • HTML5 bringt die Möglichkeit, Standard- und Fallbackbild zu definieren.
  • AMP (Kastriertes HTML für maximales Performance)
    • Minimalistische Seitenvariante für maximale Performance.
    • Sehr restriktiv: Keine Frames, Skripte, etc. mehr (Hierzu auf SEO-Book in Kürze mehr)
    • Potential als künftiger Rankingfaktor!
  • HTTP2 ist da
    • Können inzwischen fast alle Browser und Server.
    • Durch das Versenden ganzer Pakete bringt HTTP2 enorme Performance-Vorteile.
    • Tipp: Auf Load-Impact eigene Website testen.
    • Brotli vs. Zopfli: TBA

Fazit:

Wie immer bei Bastian, ein Vortrag auf höchstem technischem Niveau – nichts für Technikfremde und SEO-Anfänger. Sobald man allerdings ein gewisses technisches Know-How mitbringt, handelt es sich bei seinen PageSpeed-Vorträgen jedoch stets um einen der interessantesten und besten Vorträge. Wir versuchen, auf einige der oben angeschnittenen Themen künftig noch genauer einzugehen und diese noch ausführlicher zu erklären.

Big in SEO: Millionen und Abermillionen Seiten optimieren

Dominik Wojcik von den Trust Agents erklärt Möglichkeiten zur Optimierung großer Websites

    • Feste Muster und Syntax festlegen, für:
      • Title Tag
      • Description
      • Headlines
      • das Content Placement
      • Für diese Elemente sollte zusätzlich ein Default-Wert/eine Default-Form festgelegt werden.
      • Hierfür sollte auch eine Kontroll-Instanz vorhanden sein.
    • Auch große Seiten können mit schema.org ausgezeichnet werden.
    • Die Seiten großer Websites lassen sich oft “Clustern”.
      • Vorgehen: Klassische Tools —> Tiefe Analysen —> Aggregation & Thematische Gruppierung —> Klassifizierung (Transactional – Informational – Navigational) —> Scoring — ergibt die Keywordbasis.
      • Ebenfalls lassen sich Seiten hinsichtlich der Informationsarchitektur einteilen – nach der Seitenhierarchie
        • Startseite – Zeitzone – Topkeyword
        1. Ebene – Länder – Shorttail
        2. Ebene – Regionen – Midtail
        3. Ebene – Städte – Longtail
      • Wichtige Seiten sollten auch bei großen Websites innerhalb von 3 Klicks erreichbar sein.
      • Seiten können ebenfalls nach Priorität eingeteilt werden —> Seitentyp A, Seitentyp B
      • Es macht Sinn, Sitemaps thematisch aufzuteilen – nicht die Maximalzahl von 50.000 URLs pro Sitemap ausreizen.
        • Vorteil davon ist, dass sich somit thematische Indexierungsstatus nachvollziehen lassen
        • Eine Sitemap ersetzt keine ausgeklügelte interne Verlinkung
        • Sitemap-Priority wird ignoriert – altbekannt…

Fazit

Im Großen und Ganzen geht es darum, Seiten zu clustern und einzuteilen. Diese in bestimmte Schemata einzuordnen, um anschließend Optimierungen auf eine große Anzahl von Seiten anwenden zu können. Hierzu werden u. a. Seiten in folgende Muster eingeteilt.

Crawl Budget – Best Practices

Jan Hendrik Merlin Jacob onpage.org sagt:“Gerade bei großen Websites muss das Crawl Budget sinnvoll verwaltet werden.“ Also wie kann man dieses mit korrekt eingesetzten Paginierungen, Faceted Search, rel=next, noindex, canonical, Sitemaps… optimieren?

Ich habe euch zusammengefasst, was ihr von dem Vortrag wissen solltet…

  • Achtet auf eine saubere Struktur und geringe Klickpfadlängen der Seite. Sonst hat Google einfach gesagt keine Lust mehr weiter zu crawlen.
  • Was gecrawlt wird, hängt stark vom PageRank ab. Moment mal! Wird das aktuell eingereichte Patent von Google nun zunehmend wichtiger?! Dazu mal an andere Stelle mehr…
  • Seiten mit höherem PageRank werden häufiger gecrawlt.
  • CrawlBudget ist keine URL-Limitierung sondern eher als zeitliche Limitierung zu sehen.
  • Nutzt die Google Search Console zur Überwachung der Crawlability.
  • Crawlability, Indexability und Rankability definieren den Begriff des Crawling-Budget. Prüft eure Inhalte, die gefunden werden sollen, auf diese 3 Faktoren.
  • Das richtige Interpretieren von Ajax ist immer noch ein Problem. Vor allem das Crawling-Budget kann darunter leiden, da teilweise mehrfache Abfragen einer URL nötig sind.
  • „if-modified-since“: Ein sehr technischer Kniff. Kurz gesagt. Vermittle Google, dass sich an einem Inhalt nichts geändert hat, spiele einen „304“ aus und sende quasi eine leere Seite. Ergo die Seite wird nicht erneut gecrawlt. Eine sehr geile Möglichkeit, Crawling-Budget einzusparen, wie ich finde. Notiz für mich: „Werde mir alle technischen Kniffe von Merlin nochmals persönlich zeigen lassen. Ihr dürft dann auf unserem Blog mehr darüber lesen 😉
  • Auch hier kann das Thema FileSize und PageSpeed sehr relevant sein. Also schraubt am Speed eurer Seiten!
  • Ganz wichtig… Gewährt Google den gesamten Crawl eurer Seite und dessen Dateien. Stichwort JavaScript/CSS vom Crawl ausschließen.
  • Fehlerhafte hreflang-Implementierung kann ebenso unsinnig Budget verschwenden. Allgemein der ganze Bereich der mobile Devices kann zu erheblichen Problemen führen.
  • Interne Redirects vermeiden. Stattdessen die Links updaten.

Fazit des Vortrags: „Viel technischer Input in kurzer Zeit. Wie gesagt werde ich mich damit nochmals genauer befassen und auch natürlich davon berichten. Leute, das braucht einfach etwas Zeit…“
Die Key-Aussage ist jedoch: „Lasst nur Seiten crawlen, die für euch und eure User relevant sind!“

In diesem Sinne „SEO might be the CEO“…

Google antwortet – Johannes Müller am heißen Stuhl

Johannes Müller von Google stellt sich den Fragen der Teilnehmer. Mal sehen…

      • Frage: AJAX-Craling wird eingestellt. Der Content von AJAX-Anwendungen kann derzeit nicht gecrawlt werden. Wie sieht das in Zukunft aus?
        • Antwort: Derzeit soll eine vorgerenderte Version der Seite an Google weiter gegeben werden. John meint, dass Google das jetzt auch so verstehen kann. Deshalb wird diese Empfehlung eingestellt. Wichtig ist nach seiner Ansicht, dass die Inhalte z.B. nicht über robots.txt blockiert werden und dass sie über eine URL aufgerufen werden können. Bei vor-gerenderten Seiten ist wichtig, dass man kein Cloaking macht, sondern dass auch die User die vor-gerenderte Version der Seite bekommen. Am besten wäre es, wenn ihr die Seiten immer testet, zum Beispiel mit „Fetch as Google“ in der Search Console. Weil das irgendwie auch für Google wichtig ist, schlägt er vor, neue Seiten nicht mit AJAX auszuliefern – sondern erst später darauf zu wechseln. Problem könnte auch Duplicate Content sein, falls Google nicht den ganzen Inhalt der Seite sehen kann. Aber er wirkt etwas skeptisch.
        • Der Berichterstatter: Wenn ich mir eine Bemerkung erlauben darf: Ich befürchte, dass Google sich da eine Menge vornimmt und es immer noch eine gute Idee ist, möglichst nicht zu viel mit AJAX herum zu spielen. Für mich hört sich das so an, dass Google nicht wirklich damit umgehen kann. Warten wir mit „Klicky & Bunty“ besser ein bisschen ab.
      • Ersetzt „hreflang“ für internationale Seiten den Canonical-Tag?
        • John sagt, er findet, dass die beiden ganz gut zusammen arbeiten. Der Canonical-Tag sollte nicht gegenseitig gesetzt werden – aber sie können sich unterstützen.
      • Pagespeed mit „responsive“ und eine für Bildschirme optimierte Bilder-Auslieferung. Das widerspricht sich ja, da zu viele Dateien geladen werden. Es werden Highres-Bilder auch dann geladen, wenn sie gar nicht angezeigt werden.
        • Wichtig ist, dass nur die Bilder geladen werden, die dazu passen.
        • Kommentar: Ich konnte das nicht so recht verfolgen, wir müssen ihn heute abend auf der Party fragen, wenn er da ist.
      • Wenn wir viele internationale Seiten haben wollen, sollen wir die Texte in Google Translate eingeben?
        • Nun, Google Translate ist wohl ganz gut – aber er warnt davor, das so zu machen. Denn die Qualität von maschinenübersetzten Seiten ist halt nicht so gut. Deshalb lohnt sich eine professionelle Übersetzung schon.
      • Wieso funktioniert Link-Spam trotzdem noch?
        • Google verwendet Links immer noch als Relevanz-Kriterum für Google. Er denkt auch, dass Google viele Spam-Quellen findet. Aber manche kommen halt trotzdem durch und die Seiten ranken trotzdem. Er ruft dazu auf, Link-Spam zu melden.
      • Kann man die gleiche URL für ein X-Default und eine Sprache verwenden?
        • Ja, das kann man machen. Eine Version wird dann zur Default-Version.
      • Dürfen Sie als Google-Mitarbeiter ein iPhone haben? 😉
        • Ja, das dürfen die Mitarbeiter. Auch, weil Google das dadurch auch mal testen kann.
        • Er bleibt sehr entspannt dabei.
      • Wie schaut es mit automatischen Weiterleitungen auf Sprachversionen aufgrund der Browser-Einstellung aus? Ist 302 dafür die richtige Version?
        • John meint etwas zögernd, das wäre *eigentlich* schon die richtige Weiterleitung. Wichtig ist aber, dass man das nur auf der Home und den Kategorien macht und nicht auf den Produkt-Seiten oder Beiträgen. Denn Google sieht ja dann immer nur die eine Version. Es gibt dazu wohl auch weiterführende Dokumente. Auf den Einwurf, dass 303 („see other“) wohl besser wäre, bleibt er dabei, dass 302 schon die richtige Umleitung sei. Auf die Frage, ob man dem User die Entscheidung nicht selbst überlassen sollte statt umzuleiten, schägt er vor, das zu testen. Es gibt viele Möglichkeiten, dies zu organiiseren.
      • Rich Snippets: Trotz Einbau werden diese nicht angezeigt.
        • Google muss erst testen, ob die Qualität der Seite stimmt und ihr vertraut werden kann, dass die Snippets stimmen. Er tippt darauf, dass es nicht am Einbau liegt (wenn das vorher getestet wurde), sondern die Bewertung der Seite nicht stimmt. Auf die Nachfrage, dass sie schon einmal da waren, vermutet er, dass bei einer erneuten Prüfung die Qualität evtl. noch mal neu bewertet wird. Auf den Hinweis, dass die Konkurrenz der Seite offenbar spamt, schlägt er wieder ein Fomular vor, mit dem Rich Snippets Spam gemeldet werden. Übrigens: Wer per Formular gemeldet wurde, bekommt eine Mail, dass dies der Fall ist.
      • Welche Features und Verbesserungen habt ihr 2016 in der Search Console geplant?
        • Er zögert… Es wird weiter daran gearbeitet, aber er will keine Funktionen vorweg nehmen. Hinsichtlich der Suche wird JavaScript-Apps ein wichtiges Thema sein. Außerdem soll „Mobile“ weiter gebracht werden.
      • Häufig wird nicht die Description angezeigt, sondern irgend etwas anderes. Woran liegt das?
        • John sagt, dass Google auf Text auf der Seite umschaltet (statt der Description), wenn Google nichts Wertvolles in der Description findet. Wenn HTML darin auftaucht, dann muss er sich das genauer anschauen. Aber das macht er gerne und wenn ein Fehler vorliegt, dann kümmern sie sich drum.

Ich bin überrascht, denn häufig sind solche Sessions immer in der Kategorie „viel reden, aber nix sagen“. Aber John Müller antwortet recht offen und informativ! Danke! Übrigens: John Müller lädt dazu ein, ihm via Google Plus (viele wissen ja noch, was das ist) ein Feedback zu geben, wenn man Probleme hat.

Keynote Karl Kratz (gestern auf der OMX hier)

Karl, Chef von, äh, Karl Kratz in Berlin, hatte gestern auf der OMX-Keynote gestern drei Smarte Hebel dabei.

          • Während er einer Teilnehmerin immer mehr Schokohasen auflädt, zeigt er anschaulich, dass es nicht nur darum geht, sich immer noch mehr digitale Assets aufzuhalsen. Neue Inhalte, so die Lehre daraus, sind nur so lange gut, wenn man sie noch tragen kann. Oder kurz: „Intensivierung statt Skalierung“. Also bestehende Inhalte zu intensivieren – statt noch mehr hinzu zu fügen.
          • Der nächste Hebel ist „Reduzierung“. Wir versuchen ja auch, durch Redzuierung den unnötigen „Content“ um den Bauchgürtel herum, uns besser zu fühlen. Ähnlich können Webseiten auch „optimiert“ werden: Statt unnötig viele Webseiten zu managen und immer mehr hinzu zu fügen, kann man durch Reduzierung die Mitarbeiter in die Lage zu bringen, ihre Inhalte (Seiten) wirklich „im Griff“ zu haben.
          • Beispiel Chefkoch: Hier werden von der Redaktion nicht in jedem Jahr mehr alle Beiträge für „Weihnachtsmenü“ oder Kürbiszeit neu geschrieben. Die bestehenden Beiträge werden nun jeweils aktualisiert – so werden diese immer besser und es gibt nicht viele unnötige URLs, um die man sich kümmern muss.
          • Weiter: Statt Newsletter händisch immer wieder neu zu schreiben, empfiehlt Karl, einen „Everletter„: Nicht alle Kunden sollten immer mit *irgendwelchen* aktuellen Inhalt versorgt werden. Besser ist, den Livetime-Circle der Kunden zu erkennen und sie jeweils in der richtigen Situation mit der richtigen Information zu erwischen. Und diese situations-abhängige Information (aka Everletter) kann immer weiter verbessert werden. Also: Weniger in Kampagnen sondern mehr in Prozessen denken.
          • Schlließlch stellt Karl die Frage, was nach dem Kauf passiert. Na gut, üblich ist, Bestandskunden Wartungsverträge oder Upselling anzubieten. Aber: Was passiert danach? Karl rät, dies zu automatisieren. (Hier ging leider meine gedankliche Spur verloren und ich kann diesen Punkt nicht mehr verfollständigen. Sorry.)

Was sagt die SEO-Gemeinde zur SEOkomm 2015?

Im Folgenden möchten wir euch eine Liste mit den aktuellen Recaps der Szene zur SEOkomm 2015 liefern.

Haben wir euch vergessen? Dann schickt uns einfach eine Mail an info@contentmanufaktur.net und wir bauen auch euren Beitrag ein.

 

Autoren: Max Bloch, Andreas Burde, Eric Kubitz

GD Star Rating
loading...
SEOkomm 2015 - Von großem Kino, Performance und Antworten von Google, 5.0 out of 5 based on 1 rating

Andi Burde

Andi Burde war zuletzt als SEO-Manager bei der Burda Intermedia Publishing GmbH tätig. Er hat dort u.a. beim Relaunch des Portals BUNTE.de mitgearbeitet und war fortan fur den Support dieses Portals zuständig. Neben BUNTE.de gehörte auch die Betreuung von elle.de und mein-schoenergarten.de in sein Aufgabenfeld. Zuvor studierte er Tourismus an der Fachhochschule Deggendorf. Durch den Schwerpunkt Online-Marketing und ein Praxissemester in Hamburg bei dreamlines.de wurde seine Leidenschaft für die SEO-Szene geweckt.

More Posts

Kommentare (6)

  1. Pingback: OMX Recap 2015 - UBERLIFT Online Marketing

  2. Thomas K.

    Hallo Andi,

    vielen Dank für die Zusammenfassung.

    Long Click:
    15min

    Verweisquelle:
    Xing

    Gruß
    Thomas

  3. Andi Burde (Beitrag Autor)

    Hallo Thomas,

    vergiss an dieser Stelle bitte nicht mein Team Max und Eric 😉

  4. Pingback: Von einem Markendach, Salzburger Festspielen und anderem SEO-Zeugs - Allgemein | SEO-Book

  5. Pingback: Crawling-Budget optimieren | SEO-Book

  6. Pingback: buy backlinks uk

Schreiben Sie einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *