Mythos oder SEO-Tipp? 16 Test-Ergebnisse

Google ändert ständig seinen Algorithmus – aber ändert Google auch wirklich die Ranking-Faktoren? Es lohnt sich ab und an, mal wieder einige alte und neu SEO-Aussagen auf ihre Wahrheit zu testen. James Rynolds und seine Kollegen von seosherpa.com haben das getan, und 16 Experimente zusammengetragen.

Doch Experimente funktionieren manchmal nur im Labor und auch die Schlussfolgerungen sind oft nicht eindeutig. Und weil wir zu einigen dieser Experimente unsere eigene Erfahrung haben, haben wir die Aussagen übersetzt und prüfen, ob sie hierzulande und nach unserer Einschätzung die Realität beschreiben.

„Die CTR beeinflusst die organischen Rankings…“

Snippets mit einer höheren Klickrate werden gegenüber anderen Snippets inkl. der entsprechenden Rankings bevorzugt und innerhalb der SERPs von Google gepusht.

Das sollte kaum einen SEO-Book-Leser verwundern. In meinen Augen ist dies etwas, das schon lange klar ist, und selbst wenn nicht, dann ist dies nur eine logische Schlussfolgerung oder man liest regelmäßig etwas von Marcus Tober. 😉

Denn wir alle wissen, dass Google das Beste für seine User möchte und dementsprechend das bestmögliche Ergebnis liefern will. Den Algorithmus für User-Verhalten zu sensibilisieren und entsprechend darauf auszurichten ist nur logisch.

Fazit: Sicherlich richtig, aber keine Überraschung.

Mobilegeddon war riesig…“

Mobilegeddon

Am 21. April 2015 war…#mobilegeddon… und die SEO-Szene war panisch…hatte Existenzängste…war verwirrt und die Gerüchte hörten nicht auf….

Seit diesem Tag gilt die mobile Optimierung von Webseiten laut Google im mobilen Index als offizieller Rankingfaktor. Ergo werden Seiten, welche diese Anforderung nicht erfüllen, hinsichtlich ihrer Rankings Nachteile einfahren. Daher wurden sämtliche Ressourcen mobilisiert und alles daran gesetzt, dass die eigene Website „mobile friendly ist“. Ist es eure Seite denn?

Allerdings hielten sich die Auswirkungen des Updates in Grenzen. Ein größeres Update wie es Panda oder Penguine ist, wurde prophezeit.

Nun behaupten die Kollegen von seosherpa.com das Gegenteil und beziehen sich dabei auf die Aussage von Eric Enge und seinem Team. Diese veranlassten eine Analyse und heraus kam, dass die Verluste von nicht „mobile-friendly“ Websites enorm sind. Das man das nicht unmittelbar nach dem #mobilegeddon spürbar nachvollziehen konnte, liegt daran, dass es sich dabei um ein langfristiges Roll-Out handelt.

Und in der Tat haben die Kollegen recht. Wohlgemerkt: Im mobilen Index. Wenn der keine Rolle für euch spielt, dann „don’t panic“. Aber wenn ihr ordentlich mobilen Traffic wollt, wartet nicht zu lange und entscheidet euch für eine zusätzliche mobile Version eurer Seiten!

Fazit: Ja, schon richtig (für den mobilen Index).

„Backlinks funktionieren auch wenn diese bereits entfernt wurden…“

seosherpa.com bezieht sich dabei auf einen Kommentar von Martin Panayotov:

Link Ghosts

Moz hat das Ganze mit Hilfe eines Experiments untersucht. Dabei wurden zwei unterschiedliche Websites herangezogen und identische, nicht allzu umkämpfte Keywords, verwendet.

  • Website A – Position 31
  • Website B – Position 11

Jede Website erhieltt 22 Backlinks und wie wir dank Christoph wissen, haben sich diese inerhalb der SERPs sichtlich verbessert.

  • Website A – von Position 31 auf Position 1
  • Website B – von Position 11 auf Position 5

Dann wurden die Links wieder entfernt. Website A hielt die Position und Website B verlor einen Platz. Das ist erstaunlich. Vor allem da sich das Ganze 4,5 Monate hielt und keine der Rankings je wieder auf die Ausgangsposition geschweige denn dahinter fiel.

Ein Einzelfall? Laut Rand Fishkin definitiv nicht:

“This effect of these link tests, remaining in place long after the link had been removed, happened in every single link test we ran, of which I counted eight where I feel highly confident that there were no confounding variables, feeling really good that we followed a process kind of just like this. The links pointed, the ranking rose. The links disappeared, the ranking stayed high.”

Alles sehr erstaunlich, wie ich persönlich finde. Aber bedeutet das nicht auch, das wir beim Abbau von negativen Links Probleme bekommen könnten? Für mich bedeutet das, dass ich zukünftig nur mit dem Disavow-Tool arbeiten werde und gänzlich auf das Anschreiben der Webmaster verzichten werde!

Fazit: In der Tat sehr interessant und wichtig zu bedenken!

„Mit Duplicate Content lässt sich ranken. Sogar für sehr umkämpfte Keywords…“

Whaaat..!?!?

In der Theorie verhält sich Google folgendermaßen, wenn zwei identische Inhalte/URLs identifiziert werden. Derjenige, welcher einen höheren PageRank hat, wird in den Suchergebnissen ausgespielt. Auch die entsprechenden Backlinks werden dann demjenigen Dokument zugewiesen, welches den höheren PageRank hat.Ranken mit Duplicate Content

From time to time a larger, more authoritative site will overtake smaller websites’ in the SERPs for their own content.

Zitat: Dan Petrovic von Dejan SEO

Dan Petrovic ging dem Ganzen auf die Spur. Dazu nahm er 4 separate Websiten und testete, ob er Rankings der SERPs durch Kopieren von Inhalten und dessen Platzierung auf einer Seite mit höherem PageRank übernehmen konnte.

Das Resultat ist erstaunlich:

  • In allen 4 Tests verdrängte die Nachahmerseite mit höherem PR die originalen Seiten.
  • In 3 von 4 Fällen wurde die originale Seite sogar aus den SERPs entfernt.

Ob nun gut oder schlecht. Es gibt sicherlich einige da draußen, die sich solcher Methoden bedienen. Fakt ist, dass man sich nur schwer gegen solche Übernahmen schützen kann und auch Google arbeitet stetig daran, dahingehend einen Durchblick zu bekommen.

Mit folgenden Maßnahmen solltet ihr die Zugehörigkeit eurer Inhalte definitiv etwas verdeutlichen können:

  1. Arbeitet mit absoluten Canonicals, welche auf sich selbst verweisen.
  2. Schafft interne und absolute In-Text-Links.
  3. Arbeitet mit „Google Authorship“.
  4. Tools wie Copyscape helfen Euch DC zu identifizieren, auf welchen ihr Google aufmerksam machen könnt.

Fazit: Verblüffend – aber ich denke, das ist nicht der Regelfall.

„Platz 1 ist nicht mehr das, was er mal war…“

In Zeiten von „Rich Answers“ und „Knowledge Graph“ versucht Google auf gewisse Suchphrasen gleich selbst zu antworten. Die organischen Ergebnisse geraten dadurch weitestgehend in den Hintergrund bzw. die User benötigen oftmals keinerlei weiteren Informationen, wodurch der Klick auf ein organischen Ergebnis ausbleibt.

Rich Answers - Google

 

Auch hier hat Eric Enge und sein Team einen Test durchgeführt. Untersucht wurden dabei 855.243 Suchphrasen. Im Dezember 2014 spielten 22,6% dieser Anfragen „Rich Answers“ aus. Im Juli 2015 waren es bereits 31,2%, welche etwaige Resultate ausspielten.

Ergo werden die Ausspielungen hinsichtlich der „Rich Answers & Co“ sicherlich auch in der Zukunft zunehmen. Vermutlich war auch das einer der Gründe dafür, den sog. W-Fragen-Tools den Kampf anzusagen.

Dennoch habt ihr – zumindest in den USA – die Möglichkeit, für bestimmte Suchphrasen quasi selbst eine „Rich Answer“ zur Verfügung zu stellen. Gut, dies setzt vermutlich ein gewisses Maß an TRUST eurer Seite voraus. Aber immerhin besteht die Möglichkeit noch einen Klick abzugreifen. Noch etwas Lesestoff dazu.

Fazit: Man muss wirklich nichts testen um zu sehen, dass die organischen Treffer verdrängt werden…

„HTTPs schadet eigentlich eurem Ranking…“

Google möchte das Web sicherer machen. Demnach gilt die Verschlüsselung via HTTPs inzwischen auch als Rankingfaktor.

Nun, gibt es da aber eine Studie, welche belegt, dass genau das Gegenteil der Fall ist. Dazu wurden Rankings von 50.000 Keywordanfragen von 218.000 Domains beobachtet . Lediglich 0,3% switchten in dem Betrachtungszeitraum auf HTTPs um. Sichtliche Verbesserungen hinsichtlich der Ranking-Performance zeigten sich nicht. Kurzfristig verloren entsprechende URLs sogar an Positionen.

Ok, das erstaunt mich an dieser Stelle nicht. Zwar gilt der Anteil als Ranking-Faktor im Vergleich als beachtlich laut Searchmetrics, in der Realität haben wir allerdings keine sichtlichen Verbesserungen unserer Kunden feststellen können. Unsere Empfehlung dahingehend ist, wer Zeit, Lust und übrige Ressourcen hat, kann durchaus auf eine SSL-Verschlüsselung umstellen. Vor allem auf Seiten, wo mit sensiblen User-Daten gearbeitet wird, empfiehlt sich dies. In meinen Augen überwiegt allerdings dort der TRUST, welchen ein User mit einer solchen Verschlüsselung in Verbindung bringt. Aus reinen SEO/Performance-technischen Gründen, bringt es keine sichtlichen Vorteile mit sich.

Fazit: Sehr überspitzt, aber schon irgendwie richtig. Bedenkt allerdings auch, dass dieses Thema in der Zukunft höher einzustufen ist als es aktuell der Fall ist. Irgendwann muss jeder dran glauben 😉

„NoIndex via robots.txt funktioniert nicht immer…“

Nun zunächst mal behauptet seosherpa.com, dass mit Hilfe der Anweisung…

Noindex: /artikel_meiner_domain

sowohl das Crawling als auch das Indexieren der entsprechenden Seite ausgeschlossen ist. Wenn man beides erreichen möchte, sollte man Google auch richtige Signale vermitteln. Demnach arbeitet an dieser Stelle mit folgender Anweisung…

Noindex: /artikel_meiner_domain

Disallow: /artikel_meiner_domain

Laut einem Test wird nun behauptet, dass die Implementierung via robots.txt nicht funktioniert. Entsprechende Seiten werden demnach sogar häufiger gecrawlt als zuvor.

Unsere Empfehlung. Einfach selbst testen! Wichtig dabei ist, dass ihr eindeutige Signale dahingehend an Google sendet. Widersprüche sollten vermieden werden…

deepcrawl.com hat dazu einen recht informativen Artikel verfasst, wie ihr vorgehen müsst und wie man das Ganze entsprechend vorab testen kann.

Fazit: Für viele ist es möglicherweise eine Überraschung, dass es überhaupt geht. Und, nun ja, es funktioniert halt nicht immer…

„Harte Anchortexte beim Linkbuilding rocken…“

Mittlerweile hört man immer wieder auf den gängigen Konferenzen, dass sich harte und mehrfach verwendete Anchortexte schädlich auf das Backlink-Profil auswirken. Künftige Penguine-Updates werden euch dem allgemeinen Volksmund nach abstrafen.

Laut James Rynolds ist das nicht so. Er behauptet, dass man durch harte Verlinkungen wie etwa „SEO Relaunch“ oder „Shop Optimierung“ immer noch den gewünschten Erfolg einholen kann. 😉

Rand Fishkin hat sich dem angenommen und eine Testreihe gestartet. Dabei wurden 20 generische Anchortexte auf eine Website und 20 harte Anchortexte auf eine Website geschickt. Der Einfluss der Backlinks, welche via harten Linktexten gesetzt wurden, war immens. Aber seht selbst…

Anchor-Texte

Anchor-Texte

Wie ihr seht, es funktioniert immer noch. Aber ich denke, dass sollte man mit Vorsicht genießen. Kurzfristig sind die Erfolge sicherlich sichtbar, aber wie läuft es, wenn man das Ganze langfristig betrachtet? Ab wann übertreibt man es? Und gilt das womöglich nur für Seiten mit ansonsten sehr guten Signalen? Generell würden wir von dieser Maßnahme abraten und zu möglichst generischen Verlinkungen raten. Ehrlich währt am längsten! Glaubt uns da einfach 😉 Und sicherlich ist es nur eine Frage der Zeit, bis euch Google da auf die Schliche kommt.

Fazit: Diese Aussage lieber wieder vergessen, falls ihr nicht in den Pinguin rennen wollt…

„Verlinkt auf andere Websites, um euer Rankings zu verbessern…“

Viele SEOs sind auch heute noch der Meinung, dass das externe Verlinken der eignen Seite schadet. Vor allem in Hinblick auf die Linkjuice/PageRank-Verteilung wird oftmals mit „nofollow-Attributen“ gearbeitet. Doch überlegt doch mal logisch!

Realisiert Google, dass User alles an Informationen über den Einstieg auf eurer Seite finden können (was ihr nicht abdecken könnt, verlinkt ihr eben extern), wird eure Seite sicherlich nicht an „Ansehen, TRUST“ – wie auch immer – verlieren. Eher das Gegenteil trifft ein.

Das sagt nun auch die These von seosherpa.com. Bzw. Shai Aharony, der einen entsprechenden Test durchgeführt hat. Dazu hat Shai 10 Websites erstellt, welche von der Struktur ähnlich sind. Jede dieser Websites bekam einen 300 Wort-Artikel verpasst, welche auf ein bestimmtes Kunstwort Externe Verlinkungenoptimiert wurden.

Nun wurden 3 „follow“ Links auf 5 der 10 Seiten platziert. Natürlich externe Verlinkungen. Dabei handelte es sich um sehr glaubwürdige bzw. starke Seiten:

  • Oxford University (DA 92)
  • Genome Research Institute (DA 85)
  • Cambridge University (DA 93)

Nun seht selbst…

Outbound Links

Das Schöne daran ist, dass wir das schon seit langem an unserer Kunden weitergeben. Demnach für uns und sicherlich auch für euch nichts Neues. Und wenn sich jetzt die Frage stellen sollte, ob nun „nofollow“ oder „follow“ verwenden, würde ich sagen das ist egal. Denn Google macht dahingehend keine großartigen Unterschiede. Bei „nofollow“ handelt es sich meiner Meinung nach um ein Signal an Google, welches man vermitteln möchte. Eben ob man sich von dem verlinkten Inhalt distanzieren möchte oder nicht und dazu steht.

Fazit: So lange man gute und nützliche Links einbaut, ist diese Aussage sicher richtig.

„Nofollow kann Eure Rankings sichtlich verbessern…“

Nun mal sehen ob ich euch grad Blödsinn erzählt habe 🙂

Anhand einer Studie von Rand Fishkin wurde untersucht, ob sich „nofollow“ Links sogar positiv auf Rankings auswirken. Für mich persönlich diente die Vergabe von „nofollow“ Links einst überwiegend dem sog. PageRank Sculpting. Die Zeiten sind vorbei und man richtet dadurch eher Schaden an als alles andere. Übrigens gab es dazu letztes mal eine ganz interessante Diskussion…

Guten Morgen. Macht es Sinn interne Nofollow Links zu Nebenseiten wie dem Impressum als gravierenden Seitenfehler in einem SEO Tool Seiten-Report auszuwerfen?

Posted by Marco Janck on Mittwoch, 2. März 2016

Gut, zurück zur Studie. Dazu wurden Teilnehmer gebeten, von ihren 55 unique Domains „nofollow“ Links (In-Text-Links) auf  eine bestimmte Seite zu setzen (Basis dafür war ein umkämpftes Keyword). Man sah, dass sich nichts tat. Lediglich eine Veränderung von Position 16 auf Position 15 war die Folge. Nachdem die Teilnehmer die Links aber wieder entfernten, schoss die entsprechende Seite auf Position 6.

Ist das ein Einzelfall?

“My takeaway. The test should be repeated 2-3 times more at least, but early data suggests that there seems to be a relationship between ranking increases and in-content, no followed links” says Rand.

Und es wurde erneut getestet und das mit ähnlichen Resultaten. Die Quintessenz ist also, das „nofollow“ Links durchaus wichtig für uns SEOs sind bzw. für unsere Seiten. Den Effekt dieser Untersuchung kann ich mir selbst allerdings nicht erklären. Wichtig ist nur, dass wir einsehen, dass etwaige Links durchaus noch Auswirkungen haben können.

Wenn ihr mich fragt, ich gehe hinsichtlich dem Thema „nofollow“ Links auch nach folgendem Motto vor:

Links führen zu Links…

nofollow-Links

Fazit: Wir sollten uns lieber nicht so viele Gedanken darüber machen, wie genau Backlinks aussehen. Hauptsache, es kommt Traffic darüber.

„Je mehr ausgehende Links eine Seite hat, desto weniger wertvoll ist ein Backlink von dieser Seite…“

Dieses Thema wird in der Szene oft diskutiert. Um dem Ganzen auf den Grund zu gehen, hat Dan Petrovic einen entsprechenden Test aufgesetzt.
Dazu erstellte Dan 2 Webseiten (A und B). Beide .com Top-Level Domains waren strukturell sehr ähnlich und hatten auch charakteristisch ähnliche Inhalte (unique Inhalte versteht sich).
Webseite B wurde nun von http://www.debian.org (PageRank7), welche 4.225 externe Follow-Links hat, verlinkt. Webseite A hingegen erhielt diese Verlinkung nicht.

Das Resultat…

dejan-page-rank-split-test

Fazit: Auch Links von starken Seiten, welche viele externe Links aufweisen, tragen zu essentiellen Ranking-Veränderungen bei. Der Mythos ist demnach zumindest in diesem Experiment widerlegt. Allerdings ist das ein sehr vager Test, in welchem essentielle Faktoren nicht berücksichtigt werden.

„Verlinkungen via Bilder funktionieren sehr gut…“

Die These, dass Text, welcher sich um einen Link befindet, eine semantische Rolle hinsichtlich des Google-Algorithmus hat, gibt es schon länger. Dan Petrovic hat dies mit einem Test versucht zu belegen. Dazu wurden 4 fast identische Domainnamen registriert:

  1. http://********001.com.au
  2. http://********002.com.au
  3. http://********003.com.au
  4. http://********004.com.au

Jede dieser Domains wurde von einer gut performenden separaten Seite verlinkt. Dabei wurden 4 verschieden Verlinkungsarten angewandt:

  1. Anchortext in Form der exakten Phrase… (bspw. Katzenklo)
  2. Verlinkt wurde die exakte Phrase mit umgebenden Text… (bspw. ein Örtchen, wie dasKatzenklo, trägt zum entspannen bei)
  3. Ein Verweis via Image, welches als ALT-Attribut die exakte Phrase beinhaltete…
  4. Verlinkt wurde „Hier klicken“ mit umgebenden Anchortext… (bspw. wer ein Örtchen zum entspannen such, sollte hier klicken und sich ein Katzenklo zu kaufen)

Und hier das Resultat:

Verlinkungsexperiment

Fazit: Diesen Test empfinden ich ehrlich gesagt als extrem vage, da man mit bloßem Auge etliche weitere Faktoren sehen kann, welche hinsichtlich der Gewichtung dieser Verlinkungen, außer Acht gelassen werden (in Bezug auf die Linkquelle beispielsweise). Dennoch finde ich, dass die Bildersuche in diesem Zusammenhang oftmals zu sehr vernachlässigt wird. Um sich mit dem Thema etwas mehr zu beschäftigen, solltet ihr zumindest mal checken wie viel Traffic über die Google Bildersuche generiert wird.

„Links aus Pressemitteilungen funktionieren noch immer…“

Wer kennt sie nicht. Die Zeit als noch alles möglich war 🙂 Quantität statt Qualität war angesagt und die SEO-Szene generierte minderwertige Backlinks via Artikelverzeichnisse, Pressemitteilungen, Blog-Kommentare usw.

Nun scheint es als wirken sich Links aus Pressemitteilungen immer noch positiv auf eure Rankings aus. Matt Cutts äußerte sich zu diesem Thema folgendermaßen…

„I wouldn’t expect links from press release web sites to benefit your rankings.”

Nun ja. Das spiegelt mit Sicherheit auch die Meinung einiger SEOs da draußen. Um diese Aussage zu widerlegen, wurde ein Test initiiert.  Dabei wurde das Wort „Sreppleasers“ innerhalb einer Pressemitteilung mit Verweis auf Matt Cutt`s Blog erzeugt. Diese Phrase tauchte niemals zuvor auf seiner Webpräsenz auf. Sreppleasers

 

Fazit: Der Test zeigt zwar, dass es in irgendeiner Form noch funktioniert, aber sicherlich spielen dabei auch die externen Verweise auf die PM selbst eine Rolle. Demnach ist dieser Test wohl nicht mehr als eine gelungene PR-Maßnahme.

„Sobald eine Webseite mehr als einmal auf eine andere Seite verweist, beachtet Google lediglich den ersten Link…“

Das ist ein sehr interessantes Thema, welches im täglichen Umgang mit unseren Kunden öfter aufkommt.

Um sich diesem Thema anzunehmen, wurden zwei Webseiten erstellt. Webseite A und Webseite B. Webseite A verlinkt auf Webseite B mit Hilfe von zwei Links und unterschiedlichen Anchortexten. Dann wurden drei unterschiedliche Szenarien beobachtet.

Szenario 1

Webseite B rankt für den ersten Anchortext und nicht für den zweiten Anchortext…

Test-Anchortext

Szenario 2

Nun wurden die Postionen der Verlinkungen auf Seite A nach B vertauscht. Nun verschwand Webseite B aus den SERPs für den ehemals ersten Anchortext. Stattdessen rankte Webseite B nun für den nun ersten Anchortext (in Szenario 1 zweiter Anchortext)…

Test-Anchortext

Szenario 3

Um das Ganze zu validieren, wurde die Konstellation wieder in ihren Ursprung versetzt. Und es zeigte sich auch wieder das Bild des Szenarios 1.

Fazit: Google scheint in der Tat lediglich den ersten Verweis zu werten. Für uns ist das nichts Neues. Allerdings werden wir dahingehend selbst Tests veranlassen. Eventuell hat sich mittlerweile ja etwas geändert.

„Anchortexte beeinflussen den PageTitle Eurer Seite…“

Wer kennt es nicht? PageTitle Optimierung als das A und O hinsichtlich der Keyword-Ausrichtung einer Seite. Das dieses Thema ein essentieller Punkt ist kann keiner leugnen. Klar ist aber auch, dass es einiges an Zeit kostet. Demnach finden wir auch unter unseren Kunden einige Webmaster, welche dieses Thema weitestgehend vernachlässigen. Nun steht die Hypothese im Raum, dass Anchortexte den PageTitle definieren, falls Google diese als nicht aussagekräftig genug erachtet.Sollte dies der Fall sein könnt Ihr das mit Hilfe der Google Search Console feststellen…

Search_Console_-_HTML-Verbesserungen_-_https___www_haufe-akademie_de_blog_

Um die Hypothese zu belegen, initiierte Dan Petrovic einen Test. Dazu wurden Teilnehmer gebeten, auf eine seiner Seiten mit dem Anchortext „banana“ zu verlinken. Der PageTitle dieser Seite lautete „Untitled Document“.

Nun untersuchte Dan 3 unterschiedliche Queries:

Das Resultat zeigt, dass Google in der Tat Anchortexte zur Hilfe nimmt, um PageTitle zu definieren…

anhor-text-page-title-experiment

Fazit: Das ist interessant! Allerdings raten wir euch, dennoch aussagekräftige PageTitle zu vergeben. Zum einen habt ihr darauf direkten Einfluss und auf der anderen Seite könnt ihr somit gezielt die CTR innerhalb der SERPs beeinflussen. Außerdem möchte man so etwas nicht dem Zufall überlassen. Daher weiterhin Ressourcen in die Optimierung stecken.

„Negative SEO mit Hilfe minderwertiger Links funktioniert…“

Diesen Punkt möchten wir nicht ernsthaft ausführen. Der Vollständigkeit halber schneiden wir das Thema kurz an.

Fazit: Es ist definitiv möglich mit Hilfe einer großen Zahl an minderwertigen Backlinks der Konkurrenz zu schaden.

Danksagung…

Ich hoffe wir konnten Euch den Artikel von seosherpa.com etwas näher bringen. Sicherlich waren einige interessante Erkenntnisse dabei. Allerdings liegt vieles im Auge des Betrachters. Also einfach selbst testen 😉

Nun möchte ich noch gewissen Leuten danken, welche die Grundlage dieses Artikels bilden…

In diesem Sinne „SEO might be the CEO“…

GD Star Rating
loading...
Mythos oder SEO-Tipp? 16 Test-Ergebnisse, 4.6 out of 5 based on 9 ratings

Andreas Burde

Andreas Burde hat sich nach seiner Zeit bei der CONTENTmanufaktur als Berater im Bereich der Suchmaschinenoptimierung und Webseiten-Erstellung mit Spezialisierung auf den KMU selbstständig gemacht.
Hier kann man mehr über ihn erfahren.

burde.media|Experte für KMU Webseiten-Erstellung und Vermarktung

More Posts

Kommentare (10)

  1. P. David

    Das mit den Backlinks finde ich sehr interessant, wo doch Google vor allem auch gegen den ganzen Linkhandel und hier Linkmiete usw. vorgeht. Wenn das tatsächlich so ist – und laut Moz zu sein scheint – dann rechnet es sich ja für einen Webmaster, einen Link z.B. für 6 oder 12 Monate zu mieten und danach behält er einfach sein Ranking.
    Man müsste hier vor allem aber auch den Zusammenhang mit der Qualität des Contents berücksichtigen. Ich denke eine Seite mit schlechten Inhalten sollte danach auf jeden Fall zurückfallen, wenn sie z.B. eine schlechte CTR hat und somit für die Nutzer nicht wertvoll ist.

  2. Andi Burde (Beitrag Autor)

    Sehe ich auch so. Das ist eben das Problem an den ganzen Test-Szenarien. Wesentliche Faktoren, vor allem externer Natur, werden nicht mit einbezogen.

  3. Artur Kosch

    Ich fand das Experiment „Sobald eine Seite eine Webseite mehr als einmal auf eine andere Seite verweist, beachtet Google lediglich den ersten Link…“ interessant und bestätigt die allgemein Lage.

    Was mich persönlich interessieren würde, ob das Ergebnis genauso aussehen würde, wenn beide Verlinkungen noch zusätzlich in der Navigation, Sidebar und Footer (Site-Wide) vorhanden wären. Also Position der Links inkl. Side-Wide Links vs. Links aus dem Content.

    Gruß
    Artur

  4. Pingback: Mythos oder SEO-Tipp? - iWORK

  5. Andi Burde (Beitrag Autor)

    Warum sollte sich Google da Deiner Meinung nach anders verhalten?

    VG
    Andi

  6. Pingback: 5 weitere Arten von Blogartikeln, die deine Leser lieben werden

  7. Timo

    Schöne Zusammenfassung der „Mythen“ die so im Raum stehen. Wieder ein bisschen was dazu gelernt. Das Thema Ghost-Links war mir nicht ganz neu, ist dafür aber umso interessanter. Wie David oben schon sagte, werden gemietete Links über kürzere Zeiträume dadurch eventuell sehr interessant. Und als Seitenbetreiber kann man eine Linkposition immer wieder neu vermieten. Das ist sicher nicht in Gs Sinn. 🙂

  8. Pingback: Top 10 der Woche 12/16 - SEO-united.de Blog

  9. Corrado

    Frage zum thema mehrfach verlinkung auf die selben seiten: hat jemand Erfahrungen damit wie sich das in rrsponsive layouts verhält bei denen links in der desktop Variante auf display none sind und in mobile Auflösung wiederum die desktop links display none sind? Ich hab in der desktop Variante bild links und in der mobile variante blende ich stattdessen textlinks ein womit die smartphone besucher nachweislich besser klar kommen. sind diese doppelten display none links irgendwie nachteilhaft?

  10. Constantin

    Sehr guter Artikel, vielen Dank dafür. Ich habe nur zwei Kritikpunkte.

    > Aus reinen SEO/Performance-technischen Gründen, bringt es [HTTPS] keine sichtlichen Vorteile mit sich.

    Das stimmt so leider nicht. Ausschließlich durch HTTPS kann das neue HTTP/2 Protokoll verwendet werden, was durch Multiplexing und Komprimierung die Ladezeiten deutlich verkürzt, was nicht nur für die Nutzer ein positives Signal ist. Alle modernen Browser unterstützen HTTP/2, nur leider noch nicht alle Webhosting-Anbieter. Mehr dazu hier: https://www.tunetheweb.com/blog/http-versus-https-versus-http2/

    > „Harte Anchortexte beim Linkbuilding rocken…“

    Ein gewisser Teil sollten schon Exact Matches sein. Laut einer aktuellen Ahrefs-Studie (die von euch erwähnte ist bald 3 Jahre alt) liegt der ideale Anteil von Exact Match Anchors bei 2-4% und Phrase Match bei 25-30%. Der Rest wären dann Naked URLs, Generic, etc. Je nach Branche/Keyword, kann der ideale Exact Match Anteil höher oder niedriger ausfallen. Eine wichtige Rolle spielt er aber definitiv noch. Ich würde Exact und Partial Match bei hochwertigen Links (z.B. innerhalb von einem vertrauenswürdigen, relevanten Blogbeitrag) einsetzen und Brand, Generic oder Naked URLs bei Foren, Verzeichnissen, Pressemeldungen, etc. Mehr dazu hier: https://ahrefs.com/blog/anchor-text/

    > Es ist definitiv möglich mit Hilfe einer großen Zahl an minderwertigen Backlinks der Konkurrenz zu schaden.

    Kommt darauf an wie man vorgeht. Um nicht ausversehen irgendwelche „Tipps“ zu geben, kann ich nur sagen, dass nach meiner Erfahrung ein großer Teil solcher „Negativ-SEO-Versuche“ mittlerweile von Google erkannt wird und die Links weder positiv noch negativ gewertet werden, sondern sich meist gar nichts an den Rankings ändert. Dies trifft zumindest zu, wenn genug gute Links und hochwertige Inhalte bestehen, also die SEO-Strategie nicht ohnehin schon schlecht war.

Schreiben Sie einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.