Banner zu den SEO-Strategien Teil 1

Die besten SEO-Strategien

Timo Abid und das Team bei seo2b

 

Erfolg in der Suchmaschinenoptimierung kommt nach Tausenden von Optimierungen.

AJ Kohn in Ignoring Link Spam isn't working

 

Die Welt verändert sich rasend schnell. Die SEO-Branche kommt seit 2012 (Pinguin 1) kaum noch hinterher, was Updates und Änderungen seitens Google betrifft. Für den SEO von heute bleibt eine große Frage offen:

Wie muss eine moderne SEO-Strategie heutzutage aussehen?

Mit welchen Mitteln, Vorgehensweisen und Taktiken kann sich eine Website auf nachhaltige und sichere Art und Weise stabile Rankings erarbeiten? Welche Schritte sind notwendig, um eine Website ohne Sichtbarkeit zu einem echten „Player“ zu machen? Wie hoch ist der Aufwand bis zur Position 1 tatsächlich?

Dieser Guide beantwortet diese und weitere Fragen. Grundsätzlich lässt sich erstmal festhalten, dass sich die Suchmaschinenoptimierung in verschiedene Bereiche untergliedern lässt:

  1. OnPage: Dieser Bereich widmet sich den technischen Optimierungsmöglichkeiten. Hierzu gehören die URL-Struktur, der Aufbau der einzelnen Seiten, der Content aus technischer Sicht, die interne Verlinkung und viele weitere Aspekte.
  2. Content: Hier entscheidet sich, welche Inhalte für gute Rankings sorgen sollen. Es geht darum die richtigen Inhalte für die unterschiedlichen Zielgruppen zu finden. Darunter fallen u. a. potenzielle Interessenten, Käufer, Kunden, aber auch Inhalte für Publikum, welches stark mit der Website interagiert und potenziell externe Links setzt.
  3. Links: Sie spielen auf unabsehbare Zeit eine entscheidende Rolle. Externe Links sind Indizien dafür, dass andere Websites die eigene Website gut finden. Je öfter das vorkommt, desto besser ist in der Regel das eigene Ranking.
  4. Interaktivität: Chrome und Android liefern Google wahrscheinlich die Nutzungsdaten von mehr als der Hälfte aller Menschen weltweit. Sie wissen genau, welche Menschen, wann, wie, auf welche Links klicken, welche Websites und Seiten sie lesen, was sie kaufen oder wie sie sich sonst wie betätigen. Google nutzt diese Daten auch bei der Bestimmung von Rankings in den organischen Suchergebnissen.

Um echte Dominanz in den Suchmaschinen erreichen zu können, muss eine Website in allen Bereichen eine überdurchschnittliche Performanz vorweisen. Nur so lassen sich langfristig hohe und stabile Rankings erreichen.

Für wen ist dieser Guide?

Eine ultimative SEO-Strategie hat den Anspruch, dass sie ein Großteil aller Website-Betreiber verwenden kann, und zwar weitestgehend unabhängig vom Businessmodell. Sie soll für News-Website genau so funktionieren wie für Onlineshops, Social-Sites, Blogs, aber auch für Hobby-Sites, Affiliateprojekte, Websites von Institutionen, B2B und auch beliebige andere Typen von Websites. Selbstverständlich haben all diese Projektarten unterschiedliche Ansprüche, sodass die Gewichtung der Strategieelemente verschieden sein kann. Im Kern jedoch soll der Großteil der Strategieelemente sich von allen genannten und auch nicht genannten Projektarten anwenden lassen.

Denn die Prinzipien hinter der Suchmaschinenoptimierung sind immer die Gleichen:

  1. Sorge für eine aus technischer Sicht fehlerfreie Publikationsplattform.
  2. Erschaffe Inhalte für Menschen, die ultimativ zu deinen Kunden werden sollen.
  3. Erschaffe Inhalte für Menschen, die ultimativ über dich schreiben und dabei verlinken.
  4. Optimiere idealerweise jede Seite so, dass ihre Besucher so viel wie möglich mit ihr interagieren.

Wer es schafft die SEO-Technik (1), den Content (2), die Links (3) und die Interaktivität (4) optimal umzusetzen, der sichert sich langfristigen Erfolg in den Suchmaschinen – und das nicht nur bei Google.

„Klassisches“ SEO und wie es sich verändert hat

Ein kurzer Blick in die Vergangenheit: Was waren das doch für wundervolle Zeiten! Auch wenn Wissenschaftler und Zukunftsforscher sich darüber einig sind, dass in der Vergangenheit eben nicht alles besser war. In der Suchmaschinenoptimierung war es auf jeden Fall so – wenigstens für SEOs. Mit einfachsten Tricks war es vor 2012 - und vor allem noch vor 2008 möglich - sich auch bei den schwierigsten Suchbegriffen an der Konkurrenz vorbeizuschummeln.

Wie das damals funktioniert hat, erklärt uns Joe Sinkwitz (Cygnus) in einem Video-Interview auf YouTube. Joe hat über 20 Jahre Erfahrung in der Suchmaschinenoptimierung.

Hier ein paar Highlights aus seinem Interview bezogen auf die damalige Situation und SEO-Strategie:

  • Joes Unternehmen betrieb Tausende von Websites.
  • Viele seiner Websites haben die oberen Positionen für die lukrativsten Suchbegriffe beherrscht, z. B. „viagra“, „payday loans“, „car insurance“ etc.
  • Bevor Google auf die Bildfläche kam, hat es gereicht, einfach via Copy&Paste die Meta-Tags zu übernehmen und einfach das gewünschte Keyword öfter darin zu wiederholen, als dies auf Konkurrenz-Websites geschieht. Joe hat z. B. Tausende von Keywordvariationen in die Meta-Tags gestopft und war damit sehr erfolgreich.
  • Als Google immer populärer wurde, spielten auch die Links eine immer größere Rolle.
  • In der frühen Zeit war es regelrecht egal, von wo Links kamen.
  • Es ging nur darum, so schnell wie möglich Links zu kaufen, um das Linkwachstum stets zu beschleunigen.
  • Joes Unternehmen machte 1,5 Mio. USD Gewinn im Monat bis zum ersten Pinguin-Update im April 2012.
  • Erreicht hat er das, indem er alle Links aufgebaut hat, die irgendwie zum jeweiligen Thema der Website passten. Egal, ob er sie kostenlos bekam oder sie kaufen oder mieten musste.
  • Trotz diverser Rettungsversuche verloren fast alle seiner 5.000 Domains Mitte 2012 ihre komplette Sichtbarkeit– und Joe fast sein gesamtes Vermögen. Außerdem musste er 90 % seiner Belegschaft entlassen.

Das vollständige Video-Interview:

Was heutzutage notwendig ist, um bei Google erfolgreich zu sein

Die Zeiten der alten Black-Hat-SEOs sind vorbei, wie das beeindruckende Beispiel von Joe Sinkwitz zeigt. (Mittlerweile bedient er übrigens ausschließlich quietschsauberer Strategien.) Zwar funktionieren manche Strategien heutzutage immer noch kurzfristig, so ist deren Einsatz für seriöse Unternehmen und Projekte in den meisten Fällen viel zu riskant. Moderne SEO-Strategien bringen die eigene Website nicht nur nach oben in die Suchergebnisse, sondern sie gefährden auch nicht, dass diese dort verbleibt.

Website-Betreiber müssen immer im Hinterkopf behalten, dass es vielleicht hier und da eine Hintertüre geben mag, die SEOs ausnutzen könnten. Allerdings schlafen Leute, die solche Hintertüren verwenden, immer mit einem offenen Auge. Denn sobald Google diese Hintertüren findet und schließt, sind potenziell alle Rankings weg und gleichzeitig vermutlich auch alle Einnahmen.

Es gibt allerdings auch legitime Strategien, die es Website-Betreibern erlauben, im Rahmen der Google-Webmaster-Richtlinien eine Website gefahrlos und ohne Risiko ganz nach vorne zu bringen – und sie auch dort zu behalten. Aufgrund der Marktherrschaft konzentriert sich dieser Guide fast ausschließlich auf Google. Andere Suchmaschinen funktionieren aber fast identisch und haben ebenfalls sehr ähnliche Webmaster-Richtlinien.

Wie lassen sich solche Strategien überhaupt erkennen bzw. entwickeln? Wie weiß ein SEO, ob die eingesetzten Strategien nicht nur effektiv, sondern auch legitim sind?

Glücklicherweise liefert uns Google selbst alle Antworten auf diese Fragen in den Qualitäts-Richtlinien für die Suche, auf Englisch „[Search Quality Evaluator Guidelines]“. Dieser Guide hat die Version vom 27.07.2017 zur Grundlage. Google bringt in den letzten Jahren 2- bis 3-mal im Jahr aktualisierte Fassungen raus. Diese unterscheiden sich in kleinen Details, sind jedoch im Kern seit Jahren unverändert.

Die Search Quality Evaluator Guidelines (SQEG)

Die SQEG dienen Googles Quality-Ratern als Grundlage für die Bewertung der Qualität von Seiten und ganzen Websites. Daher sind die SQEG auch als „Die Google-Quality-Rater-Guidelines“ bekannt. Google beschäftigt weltweit mehr als 10.000 solcher Quality-Rater.

Die Aufgabe eines Quality-Raters besteht darin, nach Vorgabe eines real existierenden Suchbegriffs die Qualität der Ergebnisse und die Qualität der Website/Seite zu bestimmen.

Der Begriff „Website“ (engl. site) steht für die Gesamtheit aller Seiten einer Domain. Eine „Seite” oder „Webseite”/”Unterseite” (engl. page) beschreibt eine einzelne Seite einer Website, die in der Regel über eine eindeutige URL erreichbar ist.

Im weiteren Verlauf ist es wichtig, sich diese Unterscheidung stets im Hinterkopf zu halten.

 

Needs Met Rating und Page Quality Rating in Relation

Quality-Rater bewerten die Suchergebnisse. Dabei ermitteln sie zwei Werte. Die page quality (PQ, rechts) bestimmt die Qualität einer Seite. Dazu schaut der Quality-Rater sich den main content (MC), supplemental content (SC) und die Werbung (ads) an. Weiterhin bestimmt er die E-A-T – Expertise, Autorität und Vertrauenswürdigkeit (trustworthiness). Die Website-Reputation (WR) sagt etwas darüber aus, was andere über die Website/Seite sagen. Quality-Rater recherchieren explizit nach Informationen über die Website, ihre Autoren, den Hauptinhalt (MC) und die Organisation, die hinter der Website steht.

 

Quality-Rater ermitteln die Qualität der Suchergebnisse und bewerten sie anhand des needs met ratings (NMR). Sie versetzen sich in die Lage des Suchenden und prüfen anhand der Suchintention (SI) die Suchergebnisliste (SERP) und entscheiden dabei, wie gut die Bedürfnisse des Suchenden erfüllt wurden (needs met). Das PQR kann den NMR beeinflussen. Ein niedriges PQR kann ein NMR negativ beeinflussen und ein hohes PQR kann ein NMR positiv beeinflussen, siehe weiter unten.

Google sammelt die Bewertungen der Quality-Rater in einer Datenbank, die den Google-Ingenieuren dazu dient, den Algorithmus weiter anzupassen, zu erweitern oder zu verbessern. Die Quality-Rater nehmen allerdings keinen direkten Einfluss auf die Rankings.

Im Hinblick auf eine SEO-Strategie sind die einzelnen Anweisungen und Erklärungen in den SQEG wie ein erweitertes Gesetzeswerk zu betrachten. Google erklärt nicht nur seinen Quality-Ratern, wie sie bei der Qualitätsbestimmung vorgehen sollen, sie liefern für die Suchmaschinenoptimierung regelrecht eine Art Blaupause, die sich auch leicht als „Gesetze der Suchmaschinenoptimierung“ auslegen lassen.

Diese „Gesetze der Suchmaschinenoptimierung“ gehen aus den SQEG hervor

Google eröffnet die SQEG mit folgendem Satz:

Deine Bewertungen werden dazu genutzt, die Qualität der Suche auf der ganzen Welt zu evaluieren. Gute Suchmaschinen liefern Ergebnisse, die für ihre Benutzer in ihrer Sprache und Umgebung hilfreich sind.

Hinweis der Redaktion: Wo immer wir auf Beiträge und Dokumente in englischer Sprache gestoßen sind, haben wir diese der Lesbarkeit halber direkt ins Deutsche übersetzt.

Quality-Rater müssen also den typischen Nutzer repräsentieren.

Biete auf der eigenen Website ausreichend hilfreiche Inhalte an.

Google unterscheidet zwischen Websites, die hilfreich für ihre Nutzer sind und Websites, die nur dazu gemacht werden, ihren Betreibern Geld einzubringen. Oft seien diese „Money-Websites“ kaum oder gar nicht hilfreich für Nutzer. Manche Seiten dienen sogar dazu, Nutzern Schaden zuzufügen.

Quality-Rater müssen den Unterschied zwischen diesen Seiten erkennen. Sie sollen solche Seiten bewerten und ihnen ein Rating zuweisen, das Page-Quality-Rating (PQ). Quality-Rater bewerten also nicht nur Suchergebnisseiten, sondern auch die Seiten selbst.

Websites und Webseiten sollten dazu da sein, ihren Nutzern zu helfen. Tun sie dies nicht, sondern schaden sie ihren Nutzern oder täuschen sie diese oder sind sie nur dazu da, Geld zu verdienen, ohne hilfreich für ihre Nutzer zu sein, dann sollten diese Websites und Webseiten das geringste PQ-Rating erhalten.

Dieser Punkt ist für die Entwicklung einer SEO-Strategie von zentraler Bedeutung. Es lässt sich hier sehr deutlich zwischen den Zeilen herauslesen, dass Google Websites, die nur dazu da sind, Geld zu verdienen, überhaupt nicht gerne sieht.

Nur ist das Geldverdienen nicht ein legitimer Grund für das Betreiben einer Website? Google selbst existiert ja auch aus dem Grund für das eigene Unternehmen Geld zu verdienen.

Google meint damit eine ganz gewisse Konstellation an Websites. Wer sich ein wenig in der SEO-Branche auskennt, der weiß, dass gefühlte 90 % der Websites, z. B. Affiliate-Sites in den Vergleichssparten genau so aufgebaut sind. Sie wollen einfach nur Geld verdienen und bieten kaum nutzwertige Informationen. Genau das setzt Google jedoch voraus, um eine Website bzw. Webseite mit einer hohen Bewertung zu versehen. Geldverdienen alleine soll nicht für gute Rankings reichen.

Biete keine reinen Money-Websites an.

Google stellt auch klar heraus, dass ein PQ-Rating nicht vom Typ einer Website abhängt. Eine Humorseite kann von höherer Qualität sein, als die Seite einer Enzyklopädie. Es geht Google darum, die Qualität einer Website/Seite anhand ihrer idealen Zielgruppe(n) zu bestimmen und wie gut sie es schafft, ihren Zweck zu erfüllen (achieve its purpose).

Hilfreiche Zwecke sind z. B.:

  • Informationen zu einem bestimmten Thema anbieten.
  • Persönliche oder soziale Informationen anbieten.
  • Informationen in verschiedenen Medienformaten anbieten, z. B. Bilder und Videos.
  • Eine Meinung oder eine Sichtweise zu präsentieren.
  • Zu unterhalten.
  • Produkte und Leistungen zu verkaufen.
  • Usern erlauben, Fragen zu stellen, auf die andere User antworten können.
  • Usern erlauben Dateien auszutauschen oder Software herunterzuladen.

Jede Website/Seite muss zusätzlich zu Verkaufsinhalten einen redaktionellen Anteil an Inhalten anbieten.

„Dein Geld oder dein Leben“

Google unterscheidet zwischen normalen Seiten und Seiten, die echte monetäre oder gesundheitliche Konsequenzen für einen Menschen haben könnten. Der Name für solche Seiten ist „Your Money or Your Life (YMYL)“, weil sie entweder das Geld oder das Leben eines Menschen beeinflussen könnten. Darunter fallen z. B. transaktionsorientierte Seiten in Onlineshops, aber auch Seiten mit finanziellen Informationen, die einen Menschen dazu bringen könnten, Geld zu verlieren. Darunter würden beispielsweise Seiten zu den Themen Aktien, Steuern, Hauskauf etc. fallen. Außerdem fallen Seiten darunter, die Gesundheitsinformationen bereitstellen, also Infos zur Gesundheit, zu Medikamenten, Krankheiten, Ernährung etc. Auch Newsportale oder andere Websites fallen darunter, wenn sie Informationen verbreiten, die Menschen zu finanziellen Handlungen oder anderen Aktivitäten veranlassen, die negative Auswirkungen auf Gesundheit, finanzielle Stabilität oder einfach nur auf die Glücklichkeit eines Menschen haben könnten, z. B. Regierungsseiten, Seiten mit Handlungsanweisungen für Notfallsituationen, wissenschaftlichen Informationen etc.

Bei solchen Seiten sind Quality-Rater besonders dazu angehalten, höchste Sorgfalt bei der Bewertung walten zu lassen.

Die Gestaltung von YMYL-Seiten erfordert höchste Sorgfalt.

Hauptinhalte, Nebeninhalte & Werbung

Quality-Rater unterscheiden Inhalte auf einer Seite auf drei Arten:

  1. Der Hauptinhalt (main content) einer Seite ist der Inhalt, der zur Zweckerfüllung dient. Findet der User, der auf die Seite kommt, die Antwort auf die Suchanfrage, die er bei Google gestellt hat?
  2. Der Nebeninhalt (supplementary content) dient dazu die User-Experience der Seite weiter zu verbessern. Dazu gehören z. B. Navigationslinks, verwandte Produkte, Social-Buttons, Kommentare etc.
  3. Unter Werbung fallen nicht nur gekennzeichnete Werbeanzeigen, sondern auch alle Formen von Affiliate-Links und sogar Spendenaufrufe.

Jede Seite braucht einen Hauptinhalt, aus dem klar der Zweck der Seite hervorgeht.

Kontaktinformationen und Über uns

Quality-Rater suchen auf Websites gezielt nach Informationen, die Aufschluss über die Identität einer Person oder Organisation geben. Dies steht zwar nicht so in den SQEG, allerdings ist die SEO-Technik „Impressum als Bild“ wahrscheinlich ein Faktor, der sich negativ auf das Ranking auswirken könnte.

Biete so viele Informationen wie möglich über die eigene Identität an.

Website-Reputation: Was sagen Andere über mich?

Der Bereich Website-Reputation ist wahrscheinlich einer der wichtigsten Bereiche in den SQEG – vielleicht sogar DER wichtigste. Quality-Rater sollen nämlich den Informationen auf einer Website nicht blind vertrauen. Vielmehr gehöre zur Reputationsanalyse auch dazu, dass Informationen zur Person oder zur Organisation eingeholt werden. Dazu dienen die Aussagen von Usern der Website genauso, wie das, was externe Experten und andere Websites über einen schreiben.

Wichtig: Die Reputationsanalyse ist für jeden Quality-Rater und für jede zu prüfenden Website/Seite zwingend notwendig!

Die SQEG besagen ausdrücklich, dass eine hohe Anzahl an positiven Bewertungen in Onlineshops ein „Beweis“ für eine positive Reputation ist.

Empfehlungen aus Expertenkreisen stellen die wertvollsten Signale dar. Dabei sind Informationen von echten Personen immer maschinenaggregierten Daten vorzuziehen. Die SQEG listen als Expertenquellen auf:

  • Newsberichte
  • Wikipedia-Artikel
  • Blogbeiträge
  • Magazinartikel
  • Forendiskussionen
  • Bewertungen von unabhängigen Organisationen

 

Website-Reputation

Je mehr externe Expertenquellen positiv über die eigene Website berichten, desto höher steigt die Website-Reputation.

 

Dies beantwortet auch eindeutig die oft gestellte Frage, ob sich ein Link von Wikipedia lohnt. Auch wenn alle externen Wikipedia-Links mit Nofollow gekennzeichnet sind, so kann die Information aus dem Artikel – insofern sie positiv ist – als positives Signal dienen und somit die Reputation einer Website/Seite stärken.

Quality-Rater werden dazu angehalten auch wirklich alle Bewertungen/Reviews/Aussagen vollständig durchzulesen, um sich eine klare Meinung bilden zu können.

Fördere viele positive Bewertungen durch die eigenen Besucher/Kunden und achte darauf, was andere über deine Website und das Unternehmen sagen.

Von den Positiv- und Negativbeispielen lernen

Die SQEG beschreiben die allgemeinen Richtlinien zur Bewertung von Webseiten auf nur zwölf Seiten. Daraufhin folgen deutlich mehr Seiten mit hunderten Beispielen, die genau zeigen, wie die Qualität einer Webseite eingestuft werden kann. Am lehrreichsten sind sicher die Beispiele für Seiten von geringster Qualität. Das sind Websites und Seiten,

  • die lediglich dazu existieren ihren Usern zu schaden, sie in die Irre zu führen oder einfach nur dazu da sind, Geld zu verdienen ohne für ihre Nutzer hilfreich zu sein.
  • die kein wirkliches Problem lösen.
  • die Hass und Gewalt verbreiten, z. B. gegen andere Ethnizitäten, Religionen, das Geschlecht, Nationalitäten, Behinderungen, Alter oder sexuelle Orientierung.
  • die ihre Inhalte einfach nur zusammenkopiert haben.
  • die ihre Nutzer hinters Licht führen wollen, z. B. mit Fake-Reviews, Falschmeldungen etc.
  • YMYL-Websites, die keine Kontaktinformationen haben, sodass die Nutzer nicht wissen, wer hinter dem Angebot steht.
  • die nicht vertrauensvoll, unzuverlässig, ohne Expertise, inakkurat oder täuschend sind.
  • die faktische Fehler enthalten, z. B. aus den Bereichen Gesundheit, Wählen, Steuern etc.
  • die gehackt oder zugespammt sind.
  • die eine extrem schlechte Reputation haben.
  • die gegen Googles Richtlinien für Webmaster verstoßen oder kaum eigene Inhalte anbieten.

Für eine Vielzahl dieser Websites und Seiten bietet Google Beispiele in Form von Screenshots, auf denen man genau sehen kann, warum es diese Richtlinien gibt.

Vermeide unter allen Umständen die Kriterien, die Google auf Seiten von geringster Qualität anwendet.

Vielmehr geht es darum nur extrem hochwertige Websites und Seiten anzubieten. Websites und Seiten von höchster Qualität

  • zeigen einen sehr hohen Level an E-A-T – Expertise, Autorität und Vertrauenswürdigkeit (trustworthy), sowohl bei der Organisation, die hinter der Publikation steht, als auch bei dem Autor, der den Inhalt verfasst hat.
  • haben eine zufriedenstellende Menge an Hauptinhalt (MC).
  • bieten höchst befriedigende Hintergrundinfos zum Website-Betreiber, bzw. zu den Verantwortlichen hinter den Inhalten, bei Onlineshops auch Infos zu möglichen finanziellen Transaktionen und allgemein einen höchst zufriedenstellenden Kundenservice.
  • demonstrieren eine sehr positive Website-Reputation für die jeweilige Seite und Publikation. Dies zeigt sich beispielsweise durch entsprechende prestigelastige Auszeichnungen, Empfehlungen von anerkannten, unabhängigen Experten und Organisationen. Bei Websites und Seiten, die keine YMYL-Inhalte anbieten, z. B. Humorwebsites, Sammlungen von Kochrezepten etc., können auch Popularität, Anzeichen von Nutzerinteraktion und Bewertungen für die Bestimmung der Reputation herangezogen werden.
  • bieten extrem hochwertige Inhalte an, die erkennen lassen, dass sie eine große Menge an Zeit und Aufwand verursacht haben. Dabei ist es weniger wichtig, ob die Inhalte von einem echten Experten, Hobbyisten oder Gelegenheitsautoren geschrieben wurden bzw. kommt es hier darauf an, dass der Grad an Expertise zum allgemeinen Nutzen und der Wichtigkeit der Inhalte (YMYL) passen.
  • haben umfassende und akkurate Inhalte von sehr hoher Qualität, die auch, insofern sie wissenschaftlich Natur sind, dem allgemeinen Konsens entsprechen.

Auch wenn es nicht ganz einfach ist, alle diese Kriterien zu erfüllen, so sollte die „ultimative“ SEO-Strategie natürlich versuchen so viele wie möglich davon umzusetzen.

Gestalte deine Website und Seiten so, dass sie so nah wie möglich an alle Kriterien für die höchste Qualitätsstufe herankommen.

Needs Met: Wie gut befriedigt ein Suchergebnis die Bedürfnisse eines Nutzers?

Mehr als 60 % der SQEG widmen sich der Frage, wie zufriedenstellend denn eine bestimmte Suchergebnisseite (SERP) bzw. ein Suchergebnis ist. Besonders erwähnenswert ist, dass die Quality-Rater die Bewertung grundsätzlich auf dem Smartphone machen sollen. Vermutlich hat das damit zu tun, dass die Bedienung über ein Smartphone immer etwas unkomfortabler ist, als von einem Desktop und so die Zufriedenheit (oder Unzufriedenheit) stärker hervortritt. Es zeigt aber auch, wie wichtig es ist, den Mobile-First-Gedanken zu berücksichtigen. Google meint es ernst damit, dass das Mobiltelefon/Smartphone eine höhere Priorität hat, als der Desktop.

Google bewertet den Grad der Zufriedenheit auf einer fünfstufigen Skala:

  1. Fully Meets (FullyM): Nur gewisse Suchanfragen können die höchste Bewertung erreichen. Fast alle oder alle Smartphonenutzer finden sofort die Antwort auf ihre Frage und müssen nicht weitersuchen.
  2. Highly Meets (HM): Sehr hilfreich für viele oder die meisten Smartphonenutzer. Manche wollen vielleicht noch weitere Ergebnisse abrufen.
  3. Moderately Meets (MM): Hilfreich für viele Nutzer oder sehr hilfreich für Smartphonenutzer. Manche wollen vielleicht noch weitere Ergebnisse abrufen.
  4. Slightly Meets (SM): Hilfreich für weniger Smartphonenutzer. Es gibt zwar eine Verbindung zwischen der Suchanfrage und den Ergebnissen, aber sie ist nicht stark oder sonderlich hilfreich. Viele oder die meisten Nutzer wollen weitere Ergebnisse abrufen.
  5. Fails to Meet (FailsM): Die Suchanfrage liefert kein hilfreiches Ergebnis. Alle oder fast alle Nutzer wollen noch weitere Ergebnisse abrufen.

Das Zusammenspiel von Page Quality und Needs Met

Google verwendet hauptsächlich zwei Tests. Die Page Quality bestimmt unabhängig von der Qualität der Suchergebnisse die Qualität einer Website oder Seite. Dabei berücksichtigt sie nicht nur die Inhalte auf einer einzelnen Seite, sondern auch die Art und Weise, wie diese Inhalte eingebettet sind und auch von wem diese Inhalte verfasst wurden. Darüber hinaus überprüft ein Quality-Rater die Reputation, nicht nur der Website, sondern, falls ersichtlich, auch die Reputation des Autors der Website und die der Organisation, die hinter der Website steht.

Die Page Quality ist grundsätzlich erstmal losgelöst von den Needs Met zu sehen. Ausnahmen bestätigen aber hier die Regel:

  • Unnütze Suchergebnisse erhalten immer ein FailsM, auch wenn die Seite eine hohe PQ vorweisen kann. Unnütz ist Unnütz.
  • Passende und hilfreiche Inhalte mit einem niedrigen PQ erhalten jedoch auch ein niedrigeres Needs Met Rating (NMR) als eine Seite, die ebenso passende und hilfreiche Inhalte biete. Hieran lässt sich klar erkennen, dass Google reputable Websites mit gleichen Inhalten grundsätzlich den Vortritt lässt.
  • Eine Seite mit niedriger PQ sollte niemals ein hohes NMR erhalten.
  • SM kann für Seiten eingesetzt werden, die eine hohe PQ vorweisen können. Wenn jedoch die PQ sehr niedrig ist, dann sollte eine Seite auch grundsätzlich mit FailsM bewertet werden.

Das NMR interagiert also tatsächlich mit dem Page Quality Rating, was auch sicher Sinn ergibt. Insgesamt lässt sich bezogen auf unsere SEO-Strategie noch anmerken, dass es durchaus möglich ist, z. B. durch Snippet-Optimierung, Einfluss auf das NMR zu nehmen und so potenziell auch die PQ weiter zu verbessern. Je besser unsere Snippets die Suchintention treffen und den Wunsch nach Inhalt erfüllen, desto höher ist auch die Zufriedenheit der Besucher.

Fazit SQEG

Es ist wirklich erstaunlich wie transparent Google mittlerweile ist. Die Suchmaschine wird am 4.9.2018 20 Jahre alt. Schon in den ersten 10 Jahren gab es durch diverse Sprachrohre (GoogleGuy, Matt Cutts u. a.) immer wieder zu hören, dass der Suchmaschinenoptimierer die Zufriedenheit der Nutzer im Auge haben sollte. Nur konkrete Hinweise darauf, wie das dann in der Praxis umzusetzen sei, gab es bisher nicht.

Die SQEG ändern das und so lässt sich vielleicht behaupten, dass das Dokument für die moderne Suchmaschinenoptimierung das wertvollste überhaupt darstellt. Aus dem Dokument lässt sich mit ein bisschen Kreativität, ein großer Teil für die ultimative Strategie ableiten.

Die Regeln und Richtlinien aus den SQEG bilden die Grundlage der modernen Suchmaschinenoptimierung.

Strategie & Workflow

Wie sieht sie nun aus, die „ultimative“ SEO-Strategie? Googles Richtlinien für Webmaster und die SQEG zeigen einem, was gewünscht ist und was man besser unterlassen sollten. Der Rahmen ist abgesteckt. Es bleibt die Frage, wie genau ein bestimmtes Projekt jetzt umgesetzt werden soll. Da es so viele verschiedene Möglichkeiten gibt, steckt der Guide einen gewissen Rahmen in Form eines Beispiel-Projektes.

Das Beispiel-Projekt: Der SuperSchuhShop

Unser Onlineshop soll Schuhe verkaufen. Es existiert bereits ein Lager mit Bestand von 100.000 verschiedenen Schuhen über alle Kategorien hinweg, die Software ist einsatzfähig, Logistik ist geregelt und Mitarbeiter gibt es auch schon. Die Nachfrage ist riesig, die Konkurrenzsituation heftig. Wir sind verantwortlich für die Suchmaschinenoptimierung und sollen die Domain, die bis jetzt noch gar nicht existiert, innerhalb von zwölf Monaten in den Suchmaschinen (also hauptsächlich bei Google) konkurrenzfähig machen. Dafür stellt uns das Unternehmen 1.000.000 (Million) Euro Startkapital zur Verfügung. Ein großzügiges, wenn auch kein unendliches Budget. Technik, Content und Links, aber auch alle Gehälter für Teammitglieder und auch Agenturen müssen davon bezahlt werden.

Da die Mitarbeiter im Lager bereits gelangweilt vor den Regalen stehen und auf erste Bestellungen warten, wird es höchste Zeit, mit der Suchmaschinenoptimierung loszulegen.

Die Planungsphase

Die erste Version unserer Shopsoftware steht in den Startlöchern. Wie es üblich ist, wurde das SEO-Team natürlich nicht in den Auswahlprozess integriert und so wurde eine Software ausgewählt, die einen wundervollen Satz an Features aus Salessicht hat, die aber noch so gut wie gar nicht auf Suchmaschinen vorbereitet wurde. Welche Software das im Einzelfall ist, spielt für diese Betrachtung keine Rolle. Sie wurde im eigenen Haus (weiter)entwickelt – von erfahrenen Programmieren, die jedoch mit dem Thema SEO keine Berührung hatten. Ganz normaler Alltag also für die SEO-Verantwortlichen.

Es gibt auf dem heutigen Markt eine schier unendliche Zahl an Softwareanbietern. Sowohl für Onlineshops, als auch für CMS/Blogs. Eine Suche nach [Onlineshop Software] fördert einige zutage. Eine Empfehlung für eine bestimmte Lösung ist im Prinzip unmöglich. Die verschiedenen Pakete erfüllen jeweils unterschiedliche Anforderungen. Idealerweise sollte die Lösung durchweg SEO-optimiert sein, damit nachher so wenig Änderungen wie möglich vorgenommen werden müssen. Außerdem empfiehlt sich eine Software, die auch gleichzeitig die Möglichkeit bietet, beliebige Contentbereiche auf der eigenen Website einzurichten, z. B. ein Blog, Magazin oder unterschiedliche Infobereiche. Der Zugriff auf den Source-Code ist ein entscheidendes Merkmal. Ohne diesen könnte es bei der Umsetzung von SEO-Maßnahmen zu langen Verzögerungen kommen, die ein hohes Verlustpotenzial mit sich bringen.

Auswahl der Domain

Ein Blick auf die ersten Suchergebnisse für die Suchanfrage [Schuhe] liefert ein interessantes Ergebnis:

 

Ergebnisse der Suchanfrage [Schuhe]

Nur eine einzige „Keyword-Domain“.

 

Schuhe.de und Goertz haben für den Begriff [Schuhe] ein gutes Ranking. Allerdings laut SISTRIX Sichtbarkeitsindex nur eine Sichtbarkeit von < 10. Zalando und Otto haben eine Sichtbarkeit von weit über 100. Alles in allem lässt sich davon ausgehen, dass eine Exact-Match-Domain (EMD) auch heute noch Vorteile mit sich bringt. Aus SEO-Sicht macht es dann auch Sinn eine solche zu beschaffen. Es kommt jedoch hier auf die Ausgangssituation an. Mit dem SuperSchuhShop bei [Schuhe] in die Top-10 zu kommen, wäre ein netter Nebeneffekt. Allerdings muss fast jede neue Domain erst einen Vertrauensbonus bei Google aufbauen. Das bedeutet auch, dass in der Anfangszeit höchste Rankings für sogenannte Long-Tail-Keywords möglich ist. Im Laufe der Zeit, mit wachsendem Vertrauen und stärkerer Autorität kommen dann auch immer mehr Marken- und Kategoriebegriffe hinzu. Ein typischer Verlauf könnte so aussehen:

 

Beispielverlauf Longtail zu Shorttail

Marke: clarks bampton schwarz 43 → clarks bampton schwarz → clarks bampton → clarks
Kategorie: businessschuhe schwarz 43 → businessschuhe schwarz→ businessschuhe

 

Bereits seit 2012 werden EMDs nicht mehr bevorzugt behandelt, obwohl diese laut früheren Aussagen von Google einen kleinen Bonus erhielten.

Minor weather report: small upcoming Google algo change will reduce low-quality "exact-match" domains in search results.

Matt Cutts (@mattcutts) 28. September 2012

Der Wortlaut bei Google „reduce low-quality 'exact-match' domains“ lässt darauf schließen, dass EMDs von guter Qualität immer noch einen kleinen Bonus bekommen. Aber eben nur bei dem entsprechenden Suchbegriff. Für die Zwecke des SuperSchuhShops würde es sich sicher nicht lohnen, einen eventuell hohen sechsstelligen Betrag des Budgets nur auf eine EMD zu verwenden. Schuhe.de ist ohnehin schon weg.

Bei weniger ambitionierten Projekten und wo es nur um vereinzelte Nischenprodukte geht, z. B. ausschließlich [Nike Air Jordan 1 Retro] würde eine EMD deutlich mehr Sinn machen.

Der Vorteil von EMDs ist also ein eventueller, kleiner Rankingboost beim entsprechenden Begriff. EMDs haben aber auch viele Nachteile. Der größte davon:

EMDs schränken mit hoher Wahrscheinlichkeit zukünftige Richtungswechsel ein. Eine Marke wie NotebooksBilliger.de wird Schwierigkeiten damit haben, z. B. frische Produkte oder gar Mode anzubieten. Oder wie würde man seinen Freunden erklären, dass die eigene Unterwäsche von NotebooksBilliger.de stammt?

Zalando demonstriert, dass ein Onlineshop für Schuhe auch leicht Mode mitanbieten kann. Letztendlich könnte Zalando auch einfach zum Vollsortimenter werden, ohne dass sich jemand daran stoßen würde. Eine EMD oder auch einfach nur eine Domain, die einen (Teil-)Suchbegriff enthält, wie SuperSchuhShop.de, legt das Unternehmen zu sehr fest. Schließlich heißt Amazon auch nicht SuperBookShop.com.

Markendomain

Eine Markendomain zeichnet sich dadurch aus, dass sie keine Suchbegriffe enthält. Mehr noch ein eigenes Wort, eine Abkürzung, ein Phantasiebegriff oder eine Wortneuschöpfung bildet. Bekannte Beispiele für Markendomains sind amazon.com, google.com, ebay.com, apple.com, ibm.com etc.

Nach ca. einer halben Stunde Kreativarbeit, sind wir auf den Namen Kasenko gestoßen. Der Name ist nicht sehr geläufig, hat aber einen guten Klang. Außerdem ist er auch international einsetzbar. Die TLD-Domains sind im Juli 2017 noch alle zu haben, was nicht üblich ist. Hier haben wir also keine Kosten mehr. Weil so viele Domains heutzutage schon registriert sind, ist es durchaus üblich, ein Budget von ca. 10–50.000 € für den Kauf von Domains zurückzulegen. Außerdem sollten natürlich die Markenbegriffe entsprechend geschützt werden, was aber nicht aus dem SEO-Budget kommt.

Der SuperSchuhShop heißt jetzt Kasenko. Der Einsatz einer Markendomain erlaubt in Zukunft beliebige Waren anzubieten. Auch sollte der Begriff „Shop“ nicht in der Domain vorkommen, weil es möglich ist, auf der Domain mehr als nur einen Shop anzubieten, wie Amazon das z. B. mit all seinen Produkten macht (Streaming, Hosting etc.) Dies gibt dem Projekt maximale Freiheit bei minimalen Einbußen. Der Einsatz einer Keyword-Domain würde eventuell etwas bei der Optimierung helfen, allerdings sind die Vorteile, die dadurch in diesem Szenario entstehen eher zu vernachlässigen.

Top-Level-Domains (TLDs) und die neuen Varianten

TLDs bringen keinen Ranking-Vorteil. Dies verkündet Google seit mindestens 2012 und zuletzt auch hochoffiziell im Google Webmaster Central Blog. Dabei ist es egal, ob es sich um generische (gTLDs) handelt (z. B. .com, .net, .org oder .brand) oder um Länderdomains (z. B. .de, .at, .ch). Grundsätzlich nutzt Google anfangs die ccTLD (Länderdomain), um Sprache und Region einer Website zu bestimmen. Google geht also schon davon aus, dass eine .de-Domain auch deutsche Inhalte aus Deutschland anbietet. Theoretisch ist es aber genauso gut möglich, deutsche Inhalte aus Deutschland auf einer japanischen Domain (.jp) und umgekehrt anzubieten. In so einem Fall lässt sich das Land über Googles Search Console einstellen. Dies ist aber nicht zu empfehlen, weil es die Nutzer wahrscheinlich völlig verwirren würden.

Kasenko startet demnach zuerst in Deutschland, soll aber nachher auch im ganzen D/A/CH-Raum versenden. Im zweiten dann europaweit und ab dem dritten Jahr in ausgewählte Länder weltweit. Deswegen wird als Haupt-TLD die .com ausgewählt. Trotzdem werden alle anderen Varianten der Domain ebenfalls registriert, wenigstens jedoch (.de, .net, .org).

Wenn klar ist, dass das Unternehmen/die Website niemals ins Ausland expandiert, dann reicht eine .de-Domain vollkommen aus. In allen anderen Fällen ist eine möglichst generische TLD zu empfehlen, z. B. .com, .net, .org, .biz, .info etc.

Verwende grundsätzlich eine generische Top-Level-Domain für alle Versionen und Sprachen. Nur in sehr gut begründeten Ausnahmefällen, sollte ein Projekt über mehrere Länderdomains betrieben werden.

Selbstverständlich kann jedes Unternehmen trotzdem Länderdomains in der Außenkommunikation verwenden, denn diese erhöhen das Vertrauen der nationalen, lokalen bzw. regionalen Kundschaft. In der Fernsehwerbung erhält das Publikum zum Schluss der Werbung den Aufruf kasenko.tv zu besuchen. Auf Plakaten steht: Jede Woche neue Angebote auf kasenko.de. In der Radiowerbung hallt der Aufruf: Jede Woche neue Angebote im kasenko.shop. In allen Fällen gibt es ein Redirect, welches z. B. Besucher von kasenkto.tv auf kasenko.com/de/?quelle=tv umleitet. Das bietet gleichzeitig die Möglichkeit zu tracken, über welchen Kanal die Besucher der Website kommen und wie diese konvertieren. Für Google und andere Suchmaschinen gibt es nur eine Hauptdomain: kasenko.com. Dies ist gerade aus Sicht des Linkaufbaus und der daraus resultierenden Linkpower ideal. Dazu später mehr.

Selbstverständlich lassen sich Länderdomains nachher in der Regel via 301-Code zu einem späteren Zeitpunkt umleiten. So könnten wir theoretisch zuerst mit kasenko.de anfangen und später auf kansenko.com umleiten. Dieser Prozess kann problemlos vonstattengehen. Es gibt jedoch genügend Horrorstorys und Negativbeispiele von Projekten, bei denen diese Strategie zu massiven Einbrüchen geführt hat. Eine Strategie kann sich bestimmt nur dann als ultimative Strategie behaupten, wenn ihre einzelnen Untertaktiken von vornherein solche Fehler vermeiden oder das Risiko einfach komplett ausschließen.

Hosting

Google schreibt auf der einen Seite, dass sie den Serverstandort zur Bestimmung des Standortes verwenden, ist sich aber auch bewusst darüber, dass viele Websites sogenannte CDNs (Content-Delivery-Networks) verwenden. Diese CDNs liefern über ein weltweites Netzwerk einem Website-Besucher Dateien (also HTML, Bilder, Videos und andere Dateien) vom jeweils nächsten Standort aus. So beantworten z. B. Server, die in UK stehen, Anfragen von Kunden in den UK, so dass die Datenpakete nicht erst den Weg über den Ärmelkanal machen müssen.

Es kommt also nicht darauf an, in welchem Land eine Website gehostet wird, sondern nur, dass sie aus allen relevanten Ländern so schnell wie möglich lädt.

Für Kasenko wählen wir für das erste Jahr einen Serverstandort in Deutschland. Hier gibt es viele zuverlässige Anbieter. Einen Anbieter, der sich auf sogenanntes SEO-Hosting spezialisiert hat, brauchen wir für Kasenko nicht. Solche Hoster ermöglichen das Betreiben von vielen Websites auf unterschiedlichen IP-Adressen. Das fällt also eher in den Bereich der SEO-Trickserei, z. B. dem Aufbau eigener Netzwerke oft auch PBNs (Personal Blog Networks) genannt.

Für das Hosting ist ansonsten nur wünschenswert, dass die verwendeten IP-Adressen dann lediglich für die eigene Website verwendet werden und nicht etwa noch viele weitere Domains mit hostet, wie das z. B. im Shared-Hosting der Fall ist.

Das Hostingbudget gehört zum Budget für die technische Infrastruktur. Die SEO-Abteilung hat hiermit also keine weiteren Kosten.

Keywords

Auf Google finden weltweit 2 Billionen Suchen statt. Das sind 2.000.000.000.000. Wenn es auf der Welt aktuell ca. 3,4 Milliarden Internetnutzer gibt, dann sucht jeder Internetnutzer jeden Tag 1- bis 2-mal etwas auf Google.

Was genau suchen all diese Menschen und welche Wörter benutzen sie dabei? Dies ist eine zentrale Frage in der Suchmaschinenoptimierung, der dieser Abschnitt nachgeht.

Suchintention und Volumen

Keywords sind für die Suchmaschinenoptimierung von heute immer noch von zentraler Bedeutung. Auch wenn viele Experten davon ausgehen, dass „Themen“ eine größere Bedeutung zukommt – mehr dazu später. Keywords haben mit dem, was Suchende in den Suchschlitz eingeben, eine direkte Beziehung. Es gibt vermutlich unendlich viele Kombinationsmöglichkeiten für Keywords. Aber nur ein vergleichsweise winziger Bruchteil davon ist aus Sicht der Suchmaschinenoptimierung tatsächlich von Bedeutung.

Dabei teilt die Suchmaschinenoptimierung Keywords im Rahmen der Suchintention in drei Hauptkategorien ein:

  1. Informationelle Keywords sollen eine Wissenslücke schließen. Beispiele: [Wetter Berlin], [Anzahl Menschen auf der Erde], [Schuhe schnüren]
  2. Navigationelle Keywords sollen dabei helfen, eine gewisse Website/Webseite im Web zu finden. Beispiel: [Facebook], [site:google.de Richtlinien für Webmaster], [Spiegel] (insofern der Suchende nach der Publikation und nicht nach Informationen zu reflektierenden Glasscheiben sucht)
  3. Transaktionelle Keywords deuten darauf hin, dass der Suchende im weitesten Sinne jetzt oder in Zukunft in Betracht zieht etwas zu kaufen. Alternative Bezeichnung: Kommerzielle Keywords. Beispiele: [Schuhe online kaufen], [Nike Air Max Preis], [Sneaker günstig]

Alle drei Typen von Keywords sind für die Suchmaschinenoptimierung interessant. Die wichtigsten Keywords sind aber sicher die transaktionellen. Denn die Suchintention hinter diesen Suchanfragen schreit regelrecht: „Ich will etwas kaufen!“ SEOs wollen also unbedingt sicherstellen, dass bei der Keyword-Recherche und später bei der Contenterstellung die transaktionellen Keywords im Hauptfokus liegen.

Aber auch informationelle Keywords können eine sehr wichtige Rolle spielen. Das Beispiel [Schuhe schnüren] zeigt es. Wer danach sucht, wie man idealerweise Schuhe schnürt, der hat vielleicht auch ein Interesse daran Schuhe zu kaufen. Die Person ist also schon Teil der Customer-Journey. Sie ist bereits auf dem Weg dahin, irgendwann Schuhe zu kaufen und daher als potenzielle Käuferin bzw. Besucherin unserer Website von Interesse. Weitere Ausführungen hierzu im Bereich Content weiter unten.

Aus strategischer Sicht ist eine weitere Einteilung der Keywords sinnvoll. Denn bei einem neuen Projekt oder einem Projekt, welches noch über wenig Sichtbarkeit in den Suchmaschinen verfügt, kommt es auf die Reihenfolge der Optimierung an. Wenn eine Website oder auch ein Onlineshop von den ersten Wochen an rankt, dann zuerst für Begriffe, die leichter sind. Dann für die Begriffe, die im Mittelfeld liegen und später erst für die schwierigen Begriffe.

 

Verhältnis Kosten und Konkurrenz zu Suchfrequenz

Long-Tail, Mid-Tail und Short-Tail. Je kürzer der Schwanz (Tail), desto schwieriger ist es zu ranken.

 

Ryan Shelleys liefert eine weitere Liste, die transaktionelle Begriffe in sieben weitere Kategorien unterteilt. Dazu gehören:

  • Marktdefinierende Keywords beschreiben den Kern der Aktivitäten, die für ein bestimmtes Projekt von höchster Bedeutung sind. Sie mögen nicht immer die größten Umsatzbringer sein, sind aber dennoch von zentraler Bedeutung. Beispiele: [Onlineshop für Schuhe], [Schuhmode]
  • Kundendefinierende Keywords sind Begriffe, die Kunden dazu verwenden, sich selbst zu beschreiben. Diese Begriffe ermöglichen es, neue Kundenzielgruppen zu finden. Beispiele: [Tänzer], [Fußballer], [Sneakerfan]
  • Produkt-Keywords sind Begriffe für Produkte. Hier geht es darum, so spezifisch wie möglich zu sein. Beispiele: [adidas NEO Lite Racer], [Tiggers® Wega Pumps], [Jack Wolfskin Baby Kinderwagenschuhe MOONCHILD]
  • Branchengrößen sind meist Namen von Menschen oder Organisationen (Marken), die in der Branche jeder kennt. [adidas], [nike], [Rihanna] (die Musikerin hat ihr eigenes Sublabel bei PUMA namens Fenty PUMA by Rihanna)
  • Konkurrenzbegriffe sind hauptsächlich die Namen und Marken der Mitbewerber. Diese sind dazu gut, um herauszufinden, wie z. B. die Medien über diese berichten. Sie finden in der Onpage-Optimierung eher selten Anwendung. Beispiele: [otto], [mirapodo], [I'm walking]
  • Verwandte Vertikal-Keywords sind auch als Sekundär- oder sogar Tertiärbegriffe bekannt. Die sind Begriffe, die einen indirekten Bezug zum Hauptkeyword-Universum haben. Ähnlich wie bei den kundendefinierenden Keywords und bei den Branchengrößen geht es bei den Vertikal-Keywords um alle Begriffe und Themen, die angrenzend etwas mit dem Hauptthema zu tun haben. Beispiele: [Fußball], [Tanzen], [Mode]. Fußballer tragen Sportschuhe. Tänzer tragen Tanzschuhe. Modebewusste tragen Sneaker oder andere Modeschuhe. Diese verwandten Vertikal-Keywords erlauben den Aufbau von Communities und bieten viele thematisch „angrenzende“ Möglichkeiten für den Linkaufbau.
  • Geografische Keywords helfen bei der Verortung von Suchanfragen. Sie spielen vor allem für Unternehmen eine Rolle, die auch über lokale Geschäfte verfügen. Ein Beispiel: [Schuhe Trier].

Die Keyword-Strategie

Mit diesem Wissen bewaffnet, sollte es leicht sein, eine Keyword-Strategie für das erste Jahr zu entwickeln. Aber eines vorweg: Die Keyword-Recherche ist nie wirklich zu Ende – es finden sich immer wieder neue Keywords und vor allem Keyword-Kombinationen. Die wichtigste Komponente in einer Keyword-Strategie ist, niemals damit aufzuhören.

Da Kasenko noch über keinerlei Rankings verfügt, aber schon über Hundertausende von Unterseiten zu verschiedenen Schuhen hat, liegt das weitere Vorgehen auf der Hand:

Die günstigste und schnellste Methode ist eine Optimierung für den Long-Tail. Das geschieht anfangs hauptsächlich auf Datenbankebene. Wenn bereits eine Datenbank mit Hersteller- und Produktnamen besteht, dann werden daraus sicher auch schon die entsprechenden Seiten generiert. Beispielsweise hat unser Shop jetzt schon eine Seite für jede Hersteller-/Modell-Kombination.

  1. Hersteller + Modell (Long-Tail): Zuerst gilt es, alle gängigen Kombinationen an Produktkeywords zu sammeln und daraus eine Masterliste zu erstellen. Hierfür reicht es, aus der Datenbank Hersteller und Modelle miteinander zu kombinieren: [Nike Air Max animal print], [Minelli High Heel Pumps], [Birkenstock GIZEH Zehentrenner]. Sollten hiermit keine guten Rankings erzielbar sein, so braucht es vermutlich weitere Modifikatoren, wie „Hersteller + Modell + Farbe/Material/Größe etc.“
  2. Kategorie + Unterkategorie (Mid-Tail): Sobald Long-Tail-Keywords zufriedenstellend ranken, gilt es die Kategorie-Begriffe weiter auszubauen. Beispiele hierfür sind: [Herren-Sandalen], [Sportschuhe Fußball], [Outdoor Schuhe]. Auch hier kann es sein, dass gewisse Begriffe schon eher dem Short-Tail zuzurechnen sind, z. B. [Sportschuhe Fußball], sodass hier weitere Modifikatoren notwendig werden, z. B. [Sportschuhe Fußball Damen] oder [Sportschuhe Fußball Kinder].
  3. Hauptkategorie (Short-Tail): Diese Begriffen sollte strategisch gesehen erst nach den Midtail-Begriffen in Angriff genommen werden.

Kämpfe um realistische Keywords. Es macht keinen Sinn von Anfang an um Keywords zu kämpfen, die anfangs völlig aussichtslos sind. Eine nagelneue Domain ohne Links und Historie muss sich das „Recht zu Ranken“ erst verdienen.

Es ist realistisch die erste Phase für unser Beispiel-Projekt Kasenko mit Hochdruck anzugehen. Hier ergeben sich bei entsprechend aggressiver Vorgehensweise mit Sicherheit viele Top-10-Rankings. Aber auch der Versuch für diverse Mid-Tail-Begriffe in die Top-10 zu kommen, scheint aufgrund des Budgets im Zeitraum von 12 Monaten durchaus realistisch. Ob und wie schnell wir bei der Optimierung die drei Phasen der Keyword-Strategie schon im ersten Jahr befriedigend abarbeiten können, hängt auch von weiteren Maßnahmen in den Bereichen On- und Offpage ab. Dazu später mehr.

Die ultimative Keyword-Recherche

Tools zur Keyword-Recherche gibt es wie Sand am Meer. Im Netz finden sich auch eine Unzahl an Testberichten. Verglichen mit dem Keyword-Planner von Google kann aber kein Drittanbieter-Tool so wirklich mithalten. Wer also eine wirklich aussagekräftige Keyword-Recherche machen möchte, der verwendet den Keyword-Planer und füttert diesen mit den soeben ermittelten Keywords aus der eigenen Produktdatenbank.

 

Keywordrecherche mit dem Google Keyword-Planner

Googles Keyword-Planer ist das einzige Tool, welches über eine repräsentative Datenmenge verfügt.

 

Da Kasenko ein ganz neues Projekt ist und daher über keinerlei Keyword-Daten verfügt, legt das Team zu Beginn des Projektes gleich eine große Google-AdWords-Anzeigenkampagne für die bisher ermittelten Keywords an. Hierfür wird auch ein variables Testbudget von 10.000 bis 100.000 € eingeplant. Variabel ist das Budget, damit im Bedarfsfall mehr Tests durchgeführt werden können. Denn nur über echte Tests lässt sich herausfinden, wie das tatsächliche Suchverhalten der potenziellen Kunden aussieht und welche Keywords wirklich rentabel sind.

Wer versucht ganz ohne Budget eine Keyword-Recherche durchzuführen, der kann auch nicht mehr als raten. Keyword-Tools helfen dabei und auch Googles Keyword-Planer liefert viele kostenlose Daten. Allerdings lassen sich über die wertvollen Long-Tail-Keywords mit kostenlosen/kostenpflichtigen Tools bzw. selbst mit dem Keyword-Planer kaum gute Daten ermitteln. Google ist hier im Laufe der Jahre immer restriktiver bzw. ungenauer geworden. Es bleibt nur der Weg über das Ausprobieren.

Die gewonnenen Daten informieren sowohl die Strategie bei der Onpage-Optimierung als auch wozu SEO-optimierter Content erstellt werden muss.

Onpage-Optimierung

Die Domain und Technik stehen, gute Keywords sind auch vorhanden. Jetzt muss die SEO-Abteilung nur noch dafür sorgen, dass alle relevanten Unterseiten auch bis in letzte Detail optimiert sind. Dafür ist die Onpage-Optimierung zuständig. Dieser Kategorie fallen alle Optimierungsmaßnahmen zu, die ein Website-Betreiber selbst auf der eigenen Website durchführen kann, ohne auf Dritte angewiesen zu sein.

Eigentlich ist der Begriff Onpage falsch. Es sollte besser Onsite-Optimierung heißen, denn es geht hier nicht nur um Maßnahme auf den Seiten selbst, sondern um solche, die unterhalb der Seiten, für die URL-Strukturen, Redirects, die interne Verlinkung und allgemein für die gesamte Website-Technik durchgeführt werden.

Es gibt regelrecht tausende von Maßnahmen, die eine große Website mit vielen Seiten im Laufe der Zeit ausprobieren kann. Im Sinne der ultimativen SEO-Strategie greift dieser Guide die wichtigsten Optimierungsbereiche auf. Welche Maßnahmen sind zum Start eines Projekts von größter Bedeutung. Worauf muss das Beispiel-Projekt Kasenko unbedingt achten, um einen perfekten Launch hinzubekommen?

Crawl-Budget

Google liest nicht unbedingt immer eine gesamte Website mit all ihren Unterseiten in einem Rutsch ein. Angenommen ein Onlineshop (oder eine beliebige andere Website) hat 100.000 Produkte in 100 Kategorien. Jedes Produkt hat im Durchschnitt 10 Variationen. Für jede Variation gibt es eine Unterseite. So kommt dieser Onlineshop schon auf mindestens 1 Mio. Unterseiten.

Googles Spider, Googlebot, wird diese 1 Mio. Unterseiten mit hoher Wahrscheinlichkeit nicht im ersten Anlauf und auf einen Schlag einlesen. Um die weltweite Indexierung von Webseiten auch tatsächlich irgendwann einmal beenden zu können (natürlich nur, um dann wieder von vorne zu beginnen), muss auch der Googlebot irgendwo einen Schlussstrich ziehen. Hier kommt also das sogenannte Crawl-Budget ins Spiel.

Google gibt offiziell Hinweise zum Crawl-Budget: What Crawl Budget Means for Googlebot. Unterschieden werden die Begriffe Crawl-Rate-Limit, Crawl-Demand und das Crawl-Budget.

  • Das Crawl-Rate-Limit kontrolliert die Geschwindigkeit beim Einlesen der Unterseiten. Je schneller eine Website reagiert, desto schneller liest sie Googlebot ein. Im Rahmen der Website-Geschwindigkeit weiter unten hierzu mehr Informationen.
  • Der Crawl-Demand drückt den Wunsch des Googlebots aus, wie tief er in eine Website eindringt. Je höher der Crawl-Demand, desto mehr Seiten möchte Googlebot einlesen. Der Wert wird durch die „Popularität“ der Website bestimmt. In der Vergangenheit hat Matt Cutts bereits davon gesprochen, dass dieser Wert höher ist, desto höher der PageRank einer URL ist. Crawl-Demand kann also durch den Linkaufbau erhöht werden. Dieser spielt also schon ganz zu Anfang des Projektes eine entscheidende Rolle.
  • Der Begriff Crawl-Budget ist eine Kombination aus Crawl-Rate und Crawl-Demand. Es ist schlicht und ergreifend „die Anzahl an URLs, die Googlebot crawlen möchte und kann“.

 

Auswirkung des Crawl-Budgets auf die Anzahl indexierter Seiten

In diesem stark vereinfachten Beispiel hat Googlebot (die Spinne) ein Crawl-Budget von 54 (erdachte Zahl). Googlebot kann jetzt 54-mal auf dieser Website „klicken“. Auf der Startseite befinden sich drei Links zu den Kategorieseiten „Herrenschuhe“, „Damenschuhe“ und „Kinderschuhe“. Zuerst klickt Googlebot auf die Herrenschuhe (-1), besucht die drei Seiten (-3) und geht dann auf jede Produktseite (-18). Übrig bleiben 32 Klicks. Dann geht Google in die Damenschuhe (-1) und klickt die Seiten durch (-4), um insgesamt 24 Produktseiten einzulesen (-24). Es bleiben 3 Klicks übrig. Jetzt klickt Googlebot auf die Kinderschuhe (-1), besucht die zwei Seiten (-2) wonach das Crawl-Budget auf 0 ist. Googlebot kann jetzt die 12 Kinderschuhseiten nicht mehr einlesen.

 

Was beeinflusst das Crawl-Budget?

Google gibt mehrere Faktoren an:

  • Viele Seiten mit geringem Mehrwert verringern das Crawl-Budget.
  • Facettierte Navigation: Wenn zu jeder Produktseite etliche weitere Unterseiten für die unterschiedlichen Produkteigenschaften (Größe, Farbe, Funktion …) bestehen, um Landingpages für Kombinationen zu erzeugen, z. B. nike-air-max-groesse-40.html, nike-air-max-groesse-41.html, nike-air-max-groesse-42.html und dann noch nike-air-max-groesse-40-farbe-rot.html, nike-air-max-groesse-40-farbe-schwarz.html, nike-air-max-groesse-40-farbe-weiss.html usw. Solche Seiten sollte Googlebot idealerweise gar nicht erst sehen.
  • Session-Variablen: Die unschönen Anhängsel an die Seiten-URL lassen den Googlebot vermuten, dass es jeweils um eine weitere Unterseite handelt. Beispiel: Unter website.xy/kategorie/produkt.html?session=s8f768f6t2glb39hq76wpr9823o und website.xy/kategorie/produkt.html?session=sdfgog4lurg27fr8032rg7i ist jeweils genau die gleiche Seite zu finden. Für Googlebot zählen diese beiden URLs unter Umständen als zwei Seiten.
  • Doppelte Inhalte: Der berühmte Duplicate-Content, also exakt gleiche Inhalte, die durch das CMS oder die Shopsoftware über zwei verschiedene URLs ausgegeben werden, z. B. website.xy/eine-news.html und website.xy/archiv/eine-news.html. Als Faustregel gilt: Jeder Inhalt hat genau eine
  • Soft-Errorpages: Das sind Seiten, auf denen steht „Diese Seite/Dieses Produkt wurde nicht gefunden“, ohne dass dafür ein Statuscode 404 an Googlebot gesendet wurde. Für diesen sieht so eine Seite aus wie Duplicate-Content.
  • Gehackte Seiten: Dass die nicht gut sind, muss wohl nicht groß zu erklärt werden.
  • Unendliche Seitenbereiche: Damit sind Websitebereiche gemeint, die Datenbank- und/oder Parametergestützt eine unendliche Seitenzahl generieren. Auf solchen Seiten sind dann in der Regel von Seite zu Seite keine relevanten Änderungen zu erkennen.
  • Inhalte von niedriger Qualität bzw. Spam: Was genau das bedeutet, findet sich weiter unten. In der Regel weiß man aber auch selbst, wenn etwas zu dünn oder spammig ist.

Statt weitere Negativbeispiele zu beleuchten, ist es sinnvoller einfach eine Positivregel aufzustellen.

Jede Seite sollte nur einmal unter einer sprechenden URL ohne Parameter existieren, gute und nützliche Inhalte vorweisen und frei von technischen Problemen sein. Dann kann sie Googlebot auch ohne Probleme einlesen. Außer solchen Seiten existieren keine weiteren Seiten auf einer Website.

Da es sich beim Beispielprojekt Kasenko um eine ganz neue Website handelt, ist es besonders wichtig eine Liste der voraussichtlich wertvollsten Schuhprodukte zu erstellen. Das sind in diesem Fall die populärsten bzw. potenziell ertragreichsten Schuhmodelle, wie sie aus der AdWords-Testkampagne herauskamen. Die Hauptnavigation muss das reflektieren, indem sie anfangs nur Links in die wichtigsten Unterbereiche (Kategorien) und Produkteseiten zulässt.

Ein schrittweises Vorgehen ist hier wichtig. Auch wenn es insgesamt über 100.000 Produkte und Kombinationen gibt, so werden diese erst nach und nach Googlebot vorgeführt.

Möglichkeiten zur Steuerung des Crawlers

Es gibt diverse Möglichkeiten den Crawler (Googlebot) zu steuern. Damit kann eine Website erreichen, dass Googlebot mehr aus SEO-Sicht „wertvolle“ Seiten indexiert (genauer: für den Index vorschlägt).

Googlebot ist lediglich für das Finden und Einlesen von URLs verantwortlich. Ob eine gecrawlte Seite auch tatsächlich im Index landet, also in der zentralen Datenbank, entscheidet der sog. Indexer. Ähnlich wie beim Crawl-Budget gibt es auch ein Indexierungs-Budget, welches vermutlich von ähnlichen Faktoren (vor allem der Popularität, also dem internen PageRank) abhängt. Von einer neuen Website indexiert Google vielleicht nur maximal 1.000 Seiten, auch wenn sie aus über 100.000 Seiten besteht. Sobald eine Website populärer wird, indexiert Google nach und nach mehr Seiten. Es ist also von hoher Bedeutung, das Crawl-Budget richtig einzusetzen, sodass bei Google idealerweise die 1.000 wichtigsten Seiten von den insgesamt 100.000 Seiten im Index landen.

Wie lassen sich solche Maßnahmen in einem großen Team oder mit der Agentur umsetzen? Das geht nur, wenn man als SEO einen guten Draht zur internen/externen IT aufbaut. Aus Sicht der Programmierer ist z. B. das Prinzip „1:1-Content-URL-Mapping“ erstmal unbedeutend. Schließlich kann es ja auch als Service für den Besucher verstanden werden, dass eine spezielle Seite vielleicht unter den beiden URLs website.xy/schuhe.html und website.xy/archiv/schuhe.html aufzurufen ist. Daran ist auch grundsätzlich nichts falsch, außer dass sich der Googlebot potenziell daran verschluckt. Hier müssen SEO und IT Hand in Hand zusammenarbeiten. Der SEO sollte gegenüber einem Programmierer begründen und am besten belegen können, dass Google diese Einschränkung macht, um Seiten besser ranken zu können. Belegen lässt sich das am besten mit einer Aussage direkt von Google: Official Google Webmaster Central Blog: Optimize your crawling & indexing. Dort steht es völlig unmissverständlich.

Die wichtigsten Regeln und Techniken zur Steuerung des Crawlers:

  • Flache Hierarchien: Im Idealfall ist jede Unterseite mit drei bis vier Klicks erreichbar.
  • Seiten priorisieren: Geschäftlich wichtige Seiten sollte der Crawler zuerst erreichen. Links zu ihnen sind weiter oben im Content.
  • Keine Session-IDs: Der Crawler darf keine Parameter einer URL finden, die nicht den Content auf der Seite verändern. Solche Informationen gehören in ein Cookie.
  • Facettierte Navigation: So eine Navigation hilft dabei die Seitenanzahl so gering wie möglich zu halten. Verschiedene Varianten und Parameter müssen über Cookies ausgetauscht werden, damit Googlebot keine unnötigen Seiten crawlt.
  • Canonical: Mittels Canonical-Hinweis lässt sich prinzipiell das Problem der facettierten Navigation lösen. Hier ist es möglich, bei den Varianten-URLs immer wieder auf die zentrale URL zu verweisen. Für Google ist diese Information jedoch nicht verbindlich. Außerdem muss Googlebot ja erst alle Varianten-Seiten abcrawlen, um die Canonical-Hinweise zu finden. So gesehen bringt der Einsatz dann doch nicht, womit von Canonicals in den allermeisten Fällen abzuraten ist.
  • Entferne unendliche Crawlspaces: Das sind z. B. Kalender-Elemente, die unendlich in die Zukunft oder Vergangenheit gehen oder Paginationen (Seite 1, Seite 2, Seite3 …), die eine Seite mit Status-Code 200 anzeigen, obwohl es so eine Seite nicht gibt (webstes.xy/inhalt.html?seite=99999)
  • 1:1-Content-URL-Mapping: Eine Stück Content hat genau eine Repräsentation als URL. So kann kein Duplicate-Content entstehen.
  • TXT: Hier können Seiten und ganze Bereiche für den Googlebot einfach gesperrt werden. Zu bedenken ist hier, dass Google unter Umständen dennoch diesen Links folgt, sie nur nicht vollständig in den SERPs anzeigt.
  • SPEED: Je schneller der Server ist/die Website reagiert, desto mehr kann Googlebot einlesen.
  • XML-Sitemap: Eine XML-Sitemap gibt dem Googlebot einen Überblick über alle Seiten, die auf einer Website indexiert werden sollen.
  • NOFOLLOW: Steuere die interne Verlinkung mit Nofollow-Links. Auch zu bedenken ist, dass Links, die via JavaScript erzeugt werden, auch von Googlebot angeklickt werden, z. B. Links in Werbebannern. Hier sollten unwichtige Links ebenfalls mit Nofollow gekennzeichnet werden. Eine Seite, die intern nur mit Nofollow extern jedoch Follow verlinkt ist, wird dennoch gecrawlt und vom Crawl-Budget abgezogen.
  • Einfahrt verboten: Gewisse Websitebereiche, Kategorieseiten und/oder Produktseiten für Googlebot nicht erreichbar machen.
  • Mehr Autorität aufbauen: Dies geht mittels Linkaufbau. Dazu später mehr.

Auswertung und Analyse des Googlebots

Das Crawl-Budget bzw. Googlebot und dessen Crawlverhalten zu analysieren, ist für jede Website mit deutlich mehr als 1.000 Unterseiten sehr zu empfehlen. Hierzu lassen sich die Log-Dateien vom Server idealerweise verwenden.

Die beiden Screamingfrog-Tools „SEO Log File Analyser“ und „SEO Spider“ lassen sich so miteinander kombinieren, dass die Events aus der Log-Datei mit einem eigenen Website-Crawl abgeglichen werden. Was übrig bleibt, ist eine Liste mit URLs, die von den unterschiedlichen Suchmaschinen (auch Yahoo, Bing u. a.) noch nicht gecrawlt wurden.

Search-Console

Jede neue Website sollte bei Googles Search Console (ehemals Webmaster-Tools) angemeldet werden. Die Search-Console liefert eine ganze Reihe an Datenpunkten, die Webmastern dabei helfen, die eigene Website zu optimieren. Darunter beispielweise auch die Anzahl der indizierten Seiten.

In den nächsten Wochen erscheint der zweite Teil unserer ultimativen SEO-Strategie. Wer darüber informiert werden möchte, trägt sich in unseren Newsletter ein.

Newsletter

  • Lassen Sie sich regelmäßig über die wichtigsten Neuigkeiten informieren
  • Erfahren Sie als Erster von besonderen seo2b Aktionen
  • Exklusive Informationen für Abonnenten
  • Absolut unverbindlich. Jederzeit abmeldbar

Kommentar schreiben

Kommentar von Steven |

Wow! Sehr guter Artikel. Wahrscheinlich zu lang und technisch für der Laie aber für mich als SEA Experte mit viel Erfahrung in SEO hilft es schon unheimlich einen solchen Überblick zu bekommen. Crawler-Budget war mir zwar nicht neu, aber liefert mir ein besseres Verständnis dazu.
Das Thema Backlinks kommt mir zu kurz vor. Ohne Backlinks geht gar nichts.

Oh. Mir es gerade aufgefallen. Es steht Teil 1. :)
War dennoch meine Gedanke, nachdem ich den Artikel gelesen hatte.

© 2017 seo2b.de. All Rights Reserved. — Designed by seo2b - Onlinemarketing Agentur im Raum Trier, Luxemburg und Saarbrücken