Banner zu den SEO-Strategien

Die besten SEO-Strategien

Timo Abid und das Team bei seo2b

 

Erfolg in der Suchmaschinenoptimierung kommt nach Tausenden von Optimierungen.

AJ Kohn in Ignoring Link Spam isn't working

 

Die Welt verändert sich rasend schnell. Die SEO-Branche kommt seit 2012 (Pinguin 1) kaum noch hinterher, was Updates und Änderungen seitens Google betrifft. Für den SEO von heute bleibt eine große Frage offen:

Wie muss eine moderne SEO-Strategie heutzutage aussehen?

Mit welchen Mitteln, Vorgehensweisen und Taktiken kann sich eine Website auf nachhaltige und sichere Art und Weise stabile Rankings erarbeiten? Welche Schritte sind notwendig, um eine Website ohne Sichtbarkeit zu einem echten „Player“ zu machen? Wie hoch ist der Aufwand bis zur Position 1 tatsächlich?

Dieser Guide beantwortet diese und weitere Fragen. Grundsätzlich lässt sich erstmal festhalten, dass sich die Suchmaschinenoptimierung in verschiedene Bereiche untergliedern lässt:

  1. OnPage: Dieser Bereich widmet sich den technischen Optimierungsmöglichkeiten. Hierzu gehören die URL-Struktur, der Aufbau der einzelnen Seiten, der Content aus technischer Sicht, die interne Verlinkung und viele weitere Aspekte.
  2. Content: Hier entscheidet sich, welche Inhalte für gute Rankings sorgen sollen. Es geht darum die richtigen Inhalte für die unterschiedlichen Zielgruppen zu finden. Darunter fallen u. a. potenzielle Interessenten, Käufer, Kunden, aber auch Inhalte für Publikum, welches stark mit der Website interagiert und potenziell externe Links setzt.
  3. Links: Sie spielen auf unabsehbare Zeit eine entscheidende Rolle. Externe Links sind Indizien dafür, dass andere Websites die eigene Website gut finden. Je öfter das vorkommt, desto besser ist in der Regel das eigene Ranking.
  4. Interaktivität: Chrome und Android liefern Google wahrscheinlich die Nutzungsdaten von mehr als der Hälfte aller Menschen weltweit. Sie wissen genau, welche Menschen, wann, wie, auf welche Links klicken, welche Websites und Seiten sie lesen, was sie kaufen oder wie sie sich sonst wie betätigen. Google nutzt diese Daten auch bei der Bestimmung von Rankings in den organischen Suchergebnissen.

Um echte Dominanz in den Suchmaschinen erreichen zu können, muss eine Website in allen Bereichen eine überdurchschnittliche Performanz vorweisen. Nur so lassen sich langfristig hohe und stabile Rankings erreichen.

Interviews: Welche Aspekte deiner SEO-Strategie haben in 2018 für dich höchste Priorität?

Anja Wolfmaier

mytheresa.com

Anja Wolfmaier

Ganz klar liegt der Fokus weiterhin auf gutem sowie reichhaltigem Content kombiniert mit relevanten technischen Verbesserungen – get the basics straight!

In 2018 rücken vor allem die Möglichkeiten von „Mobile“ weiter in den Vordergrund – und dabei meine ich nicht die klassischen Optimierungsmaßnahmen und neue Trends (Stichwort AMP, Voice Search, etc.), sondern die Verbesserung der Darstellung im mobilen Suchergebnis.

Als E-Commerce-Unternehmen ist es vor allem wichtig, herauszustechen und sich von der Konkurrenz abzuheben. Wir sehen bereits jetzt unterschiedliche Darstellungen in den SERPs, die wir weiter ausbauen wollen, um eine höhere CTR zu erreichen und um mehr Real Estate in der Suche in Anspruch zu nehmen.

Beispiele:

Mobiles Carousel mit Produkten

Mobiles Carousel mit Produkten

Mobile Produktbilder & Carousel-Sitelinks

Mobile Produktbilder und Carousel Sitelinks

 

Benjamin M. J. Wingerter

Benjamin Wingerter

Benjamin M. J. Wingerter

Ich arbeite teils in Festanstellung für internationale Sport-Onlineshops, aber auch an eigenen Affiliate-Seiten.

Die Suchmaschinenoptimierung für die Sport-Onlineshops besteht in 2018 neben den üblichen Hygienemaßnahmen aus der Veränderung des bestehenden Contents.

Ich werde testen, ob weniger mehr ist, wie sich lange Zwischenüberschriften als Fragen oder kurze Zwischenüberschriften mit semantisch passenden Themen auf das Ranking des Hauptkeywords auswirken. Ich möchte dadurch herausfinden, ob es möglich ist, neben dem Hauptkeyword auch für die passenden Themen zu ranken. Meiner Vermutung nach sind Longpages zwar ein Trend, mehr würde es aber bringen, wenn Seiten themenspezifisch bleiben und jedes Keyword ein eigenes Dokument erhält.

Im Weiteren möchte ich testen, ob Kategorieseiten stabilere Top-Rankings einnehmen können, wenn ein kleiner Teil des Contents über Produkt-Listings platziert wird, anstatt alles im Footer zu bündeln.

Footertexte sollen einfacher zu erfassen sein, indem ein zwei- oder dreispaltiges Layout umgesetzt wird und Sprungmarken eingesetzt werden können.

Meine eigenen Affiliate-Seiten sollen responsive Layouts bekommen und ihre angeschlossenen Blogs auf AMP umstellen. Da bei mir fast alles mit WordPress umgesetzt ist und hier tolle Plugins und Themes existieren, stehen Aufwand und Nutzen auch dann in einem guten Verhältnis, falls die Auslieferung als AMP-Version keine messbaren oder nennenswerten Traffic-Verbesserungen nach sich zieht.

Im Weiteren sehe ich für 2018 bei privaten Projekten tatsächlich mehr Potential im Facebook Advertising. Doch kleine inhaltliche Änderungen sind trotzdem geplant: bestehender Content eingangs jeder Seite soll kurz zusammengefasst werden, um die eigentlich guten aber ausführlichen Inhalte für organische Social Media-Aktionen snackable zu machen.

Marcus Pentzek

Senior SEO Consultant bei Searchmetrics
https://www.searchmetrics.com/

Marcus Pentzek

Spielte man vor 10 Jahren noch Katz-und-Maus mit den Suchmaschinen und versuchte sie auszutricksen, muss man heute seinen Beruf als „Suchmaschinenoptimierer“ ernst nehmen: man hilft den Suchmaschinen dabei bessere Suchergebnisse präsentieren zu können. Das klingt im ersten Moment einmal paradox, dass der Websitebetreiber als Kunde dafür bezahlt, dass man eigentlich der Suchmaschine (z. B. Google) einen Dienst erweist. Es hat ein wenig etwas von Opfergaben an den Priester der Suchmaschine, nicht wahr? So esoterisch und paradox wie dies klingen mag, ist es aber nicht.

Eigentlich wollen Suchmaschine und (seriöse) Websitebetreiber dasselbe – den Suchenden zufriedenstellen. Die Suchmaschine möchte die Suchenden zufriedenstellen, damit diese sich keine neue Suchmaschine suchen. Der Websitebetreiber hat auch überhaupt nichts davon, wenn ein Suchender auf der Website landet und direkt wieder verschwindet, weil er seine Suchintention nicht erfüllt sieht.

In 2018 heißt es daher mehr denn je, seine potentiellen Kunden sehr genau zu kennen. Auf die Bedürfnisse der potentiellen Kunden abgestimmt, gilt es großartige Inhalte zu erzeugen, die es wert sind in den Suchergebnissen zu passenden Suchanfragen zu ranken. Versucht nicht einfach für mehrdeutige Suchbegriffe wie „Schuhe“, „USA“ oder „Pokale“ zu ranken. Diversifiziert die Suchanfragen in Intentionen, die eure Website bedienen kann und will: Schuhe online kaufen (transaktionsorientiert), Schuhgrößenvergleich USA – Europa (informationsorientiert – wahrscheinlich in einem anderen Onlineshop weit fortgeschritten im Kaufprozess, möchte aber die Größe validieren), „Schuhgeschäft Trier“ (informationsorientiert / navigationsorientiert – der User möchte wahrscheinlich vor Ort vorbeischauen). Diese Do – Know – Go Intentionen (Transaktion, Information, Navigation) sind nur ganz grobe Grundintentionen. Über eine gute Recherche, Skizzierung verschiedener Buyer-Personas und Abwägung der verschiedenen Abschnitte, die ein Käufer von der ersten vagen Idee bis zur finalen Transaktion durchläuft, lassen sich immer wieder Touchpoints mit den diversen Suchmaschinen erkennen, die man mit gezielter Suchmaschinenoptimierung bedienen kann.

Christian Szymczak

https://www.navabi.de

Christian Szymczak

Im Jahr 2018 wird sich meiner Meinung nach nichts Grundlegendes im Bereich der Suchmaschinenoptimierung verändern. Prinzipien, die in den letzten zwei bis drei Jahren eine solide Optimierung ausgemacht haben, werden weiterhin Bestand haben.

Dazu gehören eine gut strukturierte Website, ansprechender Content, hohe Benutzerfreundlichkeit und eine gute Reputation, wozu unter anderem ein vernünftiges Backlinkprofil zählt.

Für mich persönlich wird der Fokus 2018 vor allem auf der „mobile usability“ liegen. Google hat mit seinem Mobile First Ansatz die Richtung vorgegeben. Um in Zukunft konkurrenzfähig zu bleiben, sollte also vor allem den Veränderungen Beachtung geschenkt werden, die mit diesem Ansatz einhergehen. Ein Blick in die eigenen Analytics-Daten wird die meisten Seitenbetreiber darin bestätigen, dass sich die Verlagerung von Desktop auf Mobile von Jahr zu Jahr fortsetzt.

Zu den erforderlichen Maßnahmen zählen deshalb nicht nur die bloße Erreichbarkeit der eigenen Seite auf mobilen Endgeräten, sondern ein Ansatz der alle Facetten dieses Strukturwandels abdeckt.

Dazu zählen vor allem die Analyse, inwieweit sich die Usability-Ansprüche von mobilen Nutzern von denen der Desktop-Nutzer unterscheiden, wie die ursprünglich für große Bildschirme optimierten Inhalte auf kleinere Flächen übertragen werden können, aber auch Aspekte wie die Berücksichtigung für Mobilgeräte optimierter Bezahlmethoden oder neuer technischer Entwicklungen wie zum Beispiel AMP.

Nur wenn alle diese Dinge als Ganzes betrachtet werden, wird der Nutzer dies honorieren und in der Folge auch Google und andere Suchmaschinen.

 

Für wen ist dieser Guide?

Eine ultimative SEO-Strategie hat den Anspruch, dass sie ein Großteil aller Website-Betreiber verwenden kann, und zwar weitestgehend unabhängig vom Businessmodell. Sie soll für News-Website genau so funktionieren wie für Onlineshops, Social-Sites, Blogs, aber auch für Hobby-Sites, Affiliateprojekte, Websites von Institutionen, B2B und auch beliebige andere Typen von Websites. Selbstverständlich haben all diese Projektarten unterschiedliche Ansprüche, sodass die Gewichtung der Strategieelemente verschieden sein kann. Im Kern jedoch soll der Großteil der Strategieelemente sich von allen genannten und auch nicht genannten Projektarten anwenden lassen.

Denn die Prinzipien hinter der Suchmaschinenoptimierung sind immer die Gleichen:

  1. Sorge für eine aus technischer Sicht fehlerfreie Publikationsplattform.
  2. Erschaffe Inhalte für Menschen, die ultimativ zu deinen Kunden werden sollen.
  3. Erschaffe Inhalte für Menschen, die ultimativ über dich schreiben und dabei verlinken.
  4. Optimiere idealerweise jede Seite so, dass ihre Besucher so viel wie möglich mit ihr interagieren.

Wer es schafft die SEO-Technik (1), den Content (2), die Links (3) und die Interaktivität (4) optimal umzusetzen, der sichert sich langfristigen Erfolg in den Suchmaschinen – und das nicht nur bei Google.

„Klassisches“ SEO und wie es sich verändert hat

Ein kurzer Blick in die Vergangenheit: Was waren das doch für wundervolle Zeiten! Auch wenn Wissenschaftler und Zukunftsforscher sich darüber einig sind, dass in der Vergangenheit eben nicht alles besser war. In der Suchmaschinenoptimierung war es auf jeden Fall so – wenigstens für SEOs. Mit einfachsten Tricks war es vor 2012 - und vor allem noch vor 2008 möglich - sich auch bei den schwierigsten Suchbegriffen an der Konkurrenz vorbeizuschummeln.

Wie das damals funktioniert hat, erklärt uns Joe Sinkwitz (Cygnus) in einem Video-Interview auf YouTube. Joe hat über 20 Jahre Erfahrung in der Suchmaschinenoptimierung.

Hier ein paar Highlights aus seinem Interview bezogen auf die damalige Situation und SEO-Strategie:

  • Joes Unternehmen betrieb Tausende von Websites.
  • Viele seiner Websites haben die oberen Positionen für die lukrativsten Suchbegriffe beherrscht, z. B. „viagra“, „payday loans“, „car insurance“ etc.
  • Bevor Google auf die Bildfläche kam, hat es gereicht, einfach via Copy&Paste die Meta-Tags zu übernehmen und einfach das gewünschte Keyword öfter darin zu wiederholen, als dies auf Konkurrenz-Websites geschieht. Joe hat z. B. Tausende von Keywordvariationen in die Meta-Tags gestopft und war damit sehr erfolgreich.
  • Als Google immer populärer wurde, spielten auch die Links eine immer größere Rolle.
  • In der frühen Zeit war es regelrecht egal, von wo Links kamen.
  • Es ging nur darum, so schnell wie möglich Links zu kaufen, um das Linkwachstum stets zu beschleunigen.
  • Joes Unternehmen machte 1,5 Mio. USD Gewinn im Monat bis zum ersten Pinguin-Update im April 2012.
  • Erreicht hat er das, indem er alle Links aufgebaut hat, die irgendwie zum jeweiligen Thema der Website passten. Egal, ob er sie kostenlos bekam oder sie kaufen oder mieten musste.
  • Trotz diverser Rettungsversuche verloren fast alle seiner 5.000 Domains Mitte 2012 ihre komplette Sichtbarkeit– und Joe fast sein gesamtes Vermögen. Außerdem musste er 90 % seiner Belegschaft entlassen.

Das vollständige Video-Interview:

Was heutzutage notwendig ist, um bei Google erfolgreich zu sein

Die Zeiten der alten Black-Hat-SEOs sind vorbei, wie das beeindruckende Beispiel von Joe Sinkwitz zeigt. (Mittlerweile bedient er übrigens ausschließlich quietschsauberer Strategien.) Zwar funktionieren manche Strategien heutzutage immer noch kurzfristig, so ist deren Einsatz für seriöse Unternehmen und Projekte in den meisten Fällen viel zu riskant. Moderne SEO-Strategien bringen die eigene Website nicht nur nach oben in die Suchergebnisse, sondern sie gefährden auch nicht, dass diese dort verbleibt.

Website-Betreiber müssen immer im Hinterkopf behalten, dass es vielleicht hier und da eine Hintertüre geben mag, die SEOs ausnutzen könnten. Allerdings schlafen Leute, die solche Hintertüren verwenden, immer mit einem offenen Auge. Denn sobald Google diese Hintertüren findet und schließt, sind potenziell alle Rankings weg und gleichzeitig vermutlich auch alle Einnahmen.

Es gibt allerdings auch legitime Strategien, die es Website-Betreibern erlauben, im Rahmen der Google-Webmaster-Richtlinien eine Website gefahrlos und ohne Risiko ganz nach vorne zu bringen – und sie auch dort zu behalten. Aufgrund der Marktherrschaft konzentriert sich dieser Guide fast ausschließlich auf Google. Andere Suchmaschinen funktionieren aber fast identisch und haben ebenfalls sehr ähnliche Webmaster-Richtlinien.

Wie lassen sich solche Strategien überhaupt erkennen bzw. entwickeln? Wie weiß ein SEO, ob die eingesetzten Strategien nicht nur effektiv, sondern auch legitim sind?

Glücklicherweise liefert uns Google selbst alle Antworten auf diese Fragen in den Qualitäts-Richtlinien für die Suche, auf Englisch „[Search Quality Evaluator Guidelines]“. Dieser Guide hat die Version vom 27.07.2017 zur Grundlage. Google bringt in den letzten Jahren 2- bis 3-mal im Jahr aktualisierte Fassungen raus. Diese unterscheiden sich in kleinen Details, sind jedoch im Kern seit Jahren unverändert.

Die Search Quality Evaluator Guidelines (SQEG)

Die SQEG dienen Googles Quality-Ratern als Grundlage für die Bewertung der Qualität von Seiten und ganzen Websites. Daher sind die SQEG auch als „Die Google-Quality-Rater-Guidelines“ bekannt. Google beschäftigt weltweit mehr als 10.000 solcher Quality-Rater.

Die Aufgabe eines Quality-Raters besteht darin, nach Vorgabe eines real existierenden Suchbegriffs die Qualität der Ergebnisse und die Qualität der Website/Seite zu bestimmen.

Der Begriff „Website“ (engl. site) steht für die Gesamtheit aller Seiten einer Domain. Eine „Seite” oder „Webseite”/”Unterseite” (engl. page) beschreibt eine einzelne Seite einer Website, die in der Regel über eine eindeutige URL erreichbar ist.

Im weiteren Verlauf ist es wichtig, sich diese Unterscheidung stets im Hinterkopf zu halten.

 

Needs Met Rating und Page Quality Rating in Relation

Quality-Rater bewerten die Suchergebnisse. Dabei ermitteln sie zwei Werte. Die page quality (PQ, rechts) bestimmt die Qualität einer Seite. Dazu schaut der Quality-Rater sich den main content (MC), supplemental content (SC) und die Werbung (ads) an. Weiterhin bestimmt er die E-A-T – Expertise, Autorität und Vertrauenswürdigkeit (trustworthiness). Die Website-Reputation (WR) sagt etwas darüber aus, was andere über die Website/Seite sagen. Quality-Rater recherchieren explizit nach Informationen über die Website, ihre Autoren, den Hauptinhalt (MC) und die Organisation, die hinter der Website steht.

 

Quality-Rater ermitteln die Qualität der Suchergebnisse und bewerten sie anhand des needs met ratings (NMR). Sie versetzen sich in die Lage des Suchenden und prüfen anhand der Suchintention (SI) die Suchergebnisliste (SERP) und entscheiden dabei, wie gut die Bedürfnisse des Suchenden erfüllt wurden (needs met). Das PQR kann den NMR beeinflussen. Ein niedriges PQR kann ein NMR negativ beeinflussen und ein hohes PQR kann ein NMR positiv beeinflussen, siehe weiter unten.

Google sammelt die Bewertungen der Quality-Rater in einer Datenbank, die den Google-Ingenieuren dazu dient, den Algorithmus weiter anzupassen, zu erweitern oder zu verbessern. Die Quality-Rater nehmen allerdings keinen direkten Einfluss auf die Rankings.

Im Hinblick auf eine SEO-Strategie sind die einzelnen Anweisungen und Erklärungen in den SQEG wie ein erweitertes Gesetzeswerk zu betrachten. Google erklärt nicht nur seinen Quality-Ratern, wie sie bei der Qualitätsbestimmung vorgehen sollen, sie liefern für die Suchmaschinenoptimierung regelrecht eine Art Blaupause, die sich auch leicht als „Gesetze der Suchmaschinenoptimierung“ auslegen lassen.

Diese „Gesetze der Suchmaschinenoptimierung“ gehen aus den SQEG hervor

Google eröffnet die SQEG mit folgendem Satz:

Deine Bewertungen werden dazu genutzt, die Qualität der Suche auf der ganzen Welt zu evaluieren. Gute Suchmaschinen liefern Ergebnisse, die für ihre Benutzer in ihrer Sprache und Umgebung hilfreich sind.

Hinweis der Redaktion: Wo immer wir auf Beiträge und Dokumente in englischer Sprache gestoßen sind, haben wir diese der Lesbarkeit halber direkt ins Deutsche übersetzt.

Quality-Rater müssen also den typischen Nutzer repräsentieren.

Biete auf der eigenen Website ausreichend hilfreiche Inhalte an.

Google unterscheidet zwischen Websites, die hilfreich für ihre Nutzer sind und Websites, die nur dazu gemacht werden, ihren Betreibern Geld einzubringen. Oft seien diese „Money-Websites“ kaum oder gar nicht hilfreich für Nutzer. Manche Seiten dienen sogar dazu, Nutzern Schaden zuzufügen.

Quality-Rater müssen den Unterschied zwischen diesen Seiten erkennen. Sie sollen solche Seiten bewerten und ihnen ein Rating zuweisen, das Page-Quality-Rating (PQ). Quality-Rater bewerten also nicht nur Suchergebnisseiten, sondern auch die Seiten selbst.

Websites und Webseiten sollten dazu da sein, ihren Nutzern zu helfen. Tun sie dies nicht, sondern schaden sie ihren Nutzern oder täuschen sie diese oder sind sie nur dazu da, Geld zu verdienen, ohne hilfreich für ihre Nutzer zu sein, dann sollten diese Websites und Webseiten das geringste PQ-Rating erhalten.

Dieser Punkt ist für die Entwicklung einer SEO-Strategie von zentraler Bedeutung. Es lässt sich hier sehr deutlich zwischen den Zeilen herauslesen, dass Google Websites, die nur dazu da sind, Geld zu verdienen, überhaupt nicht gerne sieht.

Nur ist das Geldverdienen nicht ein legitimer Grund für das Betreiben einer Website? Google selbst existiert ja auch aus dem Grund für das eigene Unternehmen Geld zu verdienen.

Google meint damit eine ganz gewisse Konstellation an Websites. Wer sich ein wenig in der SEO-Branche auskennt, der weiß, dass gefühlte 90 % der Websites, z. B. Affiliate-Sites in den Vergleichssparten genau so aufgebaut sind. Sie wollen einfach nur Geld verdienen und bieten kaum nutzwertige Informationen. Genau das setzt Google jedoch voraus, um eine Website bzw. Webseite mit einer hohen Bewertung zu versehen. Geldverdienen alleine soll nicht für gute Rankings reichen.

Biete keine reinen Money-Websites an.

Google stellt auch klar heraus, dass ein PQ-Rating nicht vom Typ einer Website abhängt. Eine Humorseite kann von höherer Qualität sein, als die Seite einer Enzyklopädie. Es geht Google darum, die Qualität einer Website/Seite anhand ihrer idealen Zielgruppe(n) zu bestimmen und wie gut sie es schafft, ihren Zweck zu erfüllen (achieve its purpose).

Hilfreiche Zwecke sind z. B.:

  • Informationen zu einem bestimmten Thema anbieten.
  • Persönliche oder soziale Informationen anbieten.
  • Informationen in verschiedenen Medienformaten anbieten, z. B. Bilder und Videos.
  • Eine Meinung oder eine Sichtweise zu präsentieren.
  • Zu unterhalten.
  • Produkte und Leistungen zu verkaufen.
  • Usern erlauben, Fragen zu stellen, auf die andere User antworten können.
  • Usern erlauben Dateien auszutauschen oder Software herunterzuladen.

Jede Website/Seite muss zusätzlich zu Verkaufsinhalten einen redaktionellen Anteil an Inhalten anbieten.

„Dein Geld oder dein Leben“

Google unterscheidet zwischen normalen Seiten und Seiten, die echte monetäre oder gesundheitliche Konsequenzen für einen Menschen haben könnten. Der Name für solche Seiten ist „Your Money or Your Life (YMYL)“, weil sie entweder das Geld oder das Leben eines Menschen beeinflussen könnten. Darunter fallen z. B. transaktionsorientierte Seiten in Onlineshops, aber auch Seiten mit finanziellen Informationen, die einen Menschen dazu bringen könnten, Geld zu verlieren. Darunter würden beispielsweise Seiten zu den Themen Aktien, Steuern, Hauskauf etc. fallen. Außerdem fallen Seiten darunter, die Gesundheitsinformationen bereitstellen, also Infos zur Gesundheit, zu Medikamenten, Krankheiten, Ernährung etc. Auch Newsportale oder andere Websites fallen darunter, wenn sie Informationen verbreiten, die Menschen zu finanziellen Handlungen oder anderen Aktivitäten veranlassen, die negative Auswirkungen auf Gesundheit, finanzielle Stabilität oder einfach nur auf die Glücklichkeit eines Menschen haben könnten, z. B. Regierungsseiten, Seiten mit Handlungsanweisungen für Notfallsituationen, wissenschaftlichen Informationen etc.

Bei solchen Seiten sind Quality-Rater besonders dazu angehalten, höchste Sorgfalt bei der Bewertung walten zu lassen.

Die Gestaltung von YMYL-Seiten erfordert höchste Sorgfalt.

Hauptinhalte, Nebeninhalte & Werbung

Quality-Rater unterscheiden Inhalte auf einer Seite auf drei Arten:

  1. Der Hauptinhalt (main content) einer Seite ist der Inhalt, der zur Zweckerfüllung dient. Findet der User, der auf die Seite kommt, die Antwort auf die Suchanfrage, die er bei Google gestellt hat?
  2. Der Nebeninhalt (supplementary content) dient dazu die User-Experience der Seite weiter zu verbessern. Dazu gehören z. B. Navigationslinks, verwandte Produkte, Social-Buttons, Kommentare etc.
  3. Unter Werbung fallen nicht nur gekennzeichnete Werbeanzeigen, sondern auch alle Formen von Affiliate-Links und sogar Spendenaufrufe.

Jede Seite braucht einen Hauptinhalt, aus dem klar der Zweck der Seite hervorgeht.

Kontaktinformationen und Über uns

Quality-Rater suchen auf Websites gezielt nach Informationen, die Aufschluss über die Identität einer Person oder Organisation geben. Dies steht zwar nicht so in den SQEG, allerdings ist die SEO-Technik „Impressum als Bild“ wahrscheinlich ein Faktor, der sich negativ auf das Ranking auswirken könnte.

Biete so viele Informationen wie möglich über die eigene Identität an.

Website-Reputation: Was sagen Andere über mich?

Der Bereich Website-Reputation ist wahrscheinlich einer der wichtigsten Bereiche in den SQEG – vielleicht sogar DER wichtigste. Quality-Rater sollen nämlich den Informationen auf einer Website nicht blind vertrauen. Vielmehr gehöre zur Reputationsanalyse auch dazu, dass Informationen zur Person oder zur Organisation eingeholt werden. Dazu dienen die Aussagen von Usern der Website genauso, wie das, was externe Experten und andere Websites über einen schreiben.

Wichtig: Die Reputationsanalyse ist für jeden Quality-Rater und für jede zu prüfenden Website/Seite zwingend notwendig!

Die SQEG besagen ausdrücklich, dass eine hohe Anzahl an positiven Bewertungen in Onlineshops ein „Beweis“ für eine positive Reputation ist.

Empfehlungen aus Expertenkreisen stellen die wertvollsten Signale dar. Dabei sind Informationen von echten Personen immer maschinenaggregierten Daten vorzuziehen. Die SQEG listen als Expertenquellen auf:

  • Newsberichte
  • Wikipedia-Artikel
  • Blogbeiträge
  • Magazinartikel
  • Forendiskussionen
  • Bewertungen von unabhängigen Organisationen

 

Website-Reputation

Je mehr externe Expertenquellen positiv über die eigene Website berichten, desto höher steigt die Website-Reputation.

 

Dies beantwortet auch eindeutig die oft gestellte Frage, ob sich ein Link von Wikipedia lohnt. Auch wenn alle externen Wikipedia-Links mit Nofollow gekennzeichnet sind, so kann die Information aus dem Artikel – insofern sie positiv ist – als positives Signal dienen und somit die Reputation einer Website/Seite stärken.

Quality-Rater werden dazu angehalten auch wirklich alle Bewertungen/Reviews/Aussagen vollständig durchzulesen, um sich eine klare Meinung bilden zu können.

Fördere viele positive Bewertungen durch die eigenen Besucher/Kunden und achte darauf, was andere über deine Website und das Unternehmen sagen.

Von den Positiv- und Negativbeispielen lernen

Die SQEG beschreiben die allgemeinen Richtlinien zur Bewertung von Webseiten auf nur zwölf Seiten. Daraufhin folgen deutlich mehr Seiten mit hunderten Beispielen, die genau zeigen, wie die Qualität einer Webseite eingestuft werden kann. Am lehrreichsten sind sicher die Beispiele für Seiten von geringster Qualität. Das sind Websites und Seiten,

  • die lediglich dazu existieren ihren Usern zu schaden, sie in die Irre zu führen oder einfach nur dazu da sind, Geld zu verdienen ohne für ihre Nutzer hilfreich zu sein.
  • die kein wirkliches Problem lösen.
  • die Hass und Gewalt verbreiten, z. B. gegen andere Ethnizitäten, Religionen, das Geschlecht, Nationalitäten, Behinderungen, Alter oder sexuelle Orientierung.
  • die ihre Inhalte einfach nur zusammenkopiert haben.
  • die ihre Nutzer hinters Licht führen wollen, z. B. mit Fake-Reviews, Falschmeldungen etc.
  • YMYL-Websites, die keine Kontaktinformationen haben, sodass die Nutzer nicht wissen, wer hinter dem Angebot steht.
  • die nicht vertrauensvoll, unzuverlässig, ohne Expertise, inakkurat oder täuschend sind.
  • die faktische Fehler enthalten, z. B. aus den Bereichen Gesundheit, Wählen, Steuern etc.
  • die gehackt oder zugespammt sind.
  • die eine extrem schlechte Reputation haben.
  • die gegen Googles Richtlinien für Webmaster verstoßen oder kaum eigene Inhalte anbieten.

Für eine Vielzahl dieser Websites und Seiten bietet Google Beispiele in Form von Screenshots, auf denen man genau sehen kann, warum es diese Richtlinien gibt.

Vermeide unter allen Umständen die Kriterien, die Google auf Seiten von geringster Qualität anwendet.

Vielmehr geht es darum nur extrem hochwertige Websites und Seiten anzubieten. Websites und Seiten von höchster Qualität

  • zeigen einen sehr hohen Level an E-A-T – Expertise, Autorität und Vertrauenswürdigkeit (trustworthy), sowohl bei der Organisation, die hinter der Publikation steht, als auch bei dem Autor, der den Inhalt verfasst hat.
  • haben eine zufriedenstellende Menge an Hauptinhalt (MC).
  • bieten höchst befriedigende Hintergrundinfos zum Website-Betreiber, bzw. zu den Verantwortlichen hinter den Inhalten, bei Onlineshops auch Infos zu möglichen finanziellen Transaktionen und allgemein einen höchst zufriedenstellenden Kundenservice.
  • demonstrieren eine sehr positive Website-Reputation für die jeweilige Seite und Publikation. Dies zeigt sich beispielsweise durch entsprechende prestigelastige Auszeichnungen, Empfehlungen von anerkannten, unabhängigen Experten und Organisationen. Bei Websites und Seiten, die keine YMYL-Inhalte anbieten, z. B. Humorwebsites, Sammlungen von Kochrezepten etc., können auch Popularität, Anzeichen von Nutzerinteraktion und Bewertungen für die Bestimmung der Reputation herangezogen werden.
  • bieten extrem hochwertige Inhalte an, die erkennen lassen, dass sie eine große Menge an Zeit und Aufwand verursacht haben. Dabei ist es weniger wichtig, ob die Inhalte von einem echten Experten, Hobbyisten oder Gelegenheitsautoren geschrieben wurden bzw. kommt es hier darauf an, dass der Grad an Expertise zum allgemeinen Nutzen und der Wichtigkeit der Inhalte (YMYL) passen.
  • haben umfassende und akkurate Inhalte von sehr hoher Qualität, die auch, insofern sie wissenschaftlich Natur sind, dem allgemeinen Konsens entsprechen.

Auch wenn es nicht ganz einfach ist, alle diese Kriterien zu erfüllen, so sollte die „ultimative“ SEO-Strategie natürlich versuchen so viele wie möglich davon umzusetzen.

Gestalte deine Website und Seiten so, dass sie so nah wie möglich an alle Kriterien für die höchste Qualitätsstufe herankommen.

Needs Met: Wie gut befriedigt ein Suchergebnis die Bedürfnisse eines Nutzers?

Mehr als 60 % der SQEG widmen sich der Frage, wie zufriedenstellend denn eine bestimmte Suchergebnisseite (SERP) bzw. ein Suchergebnis ist. Besonders erwähnenswert ist, dass die Quality-Rater die Bewertung grundsätzlich auf dem Smartphone machen sollen. Vermutlich hat das damit zu tun, dass die Bedienung über ein Smartphone immer etwas unkomfortabler ist, als von einem Desktop und so die Zufriedenheit (oder Unzufriedenheit) stärker hervortritt. Es zeigt aber auch, wie wichtig es ist, den Mobile-First-Gedanken zu berücksichtigen. Google meint es ernst damit, dass das Mobiltelefon/Smartphone eine höhere Priorität hat, als der Desktop.

Google bewertet den Grad der Zufriedenheit auf einer fünfstufigen Skala:

  1. Fully Meets (FullyM): Nur gewisse Suchanfragen können die höchste Bewertung erreichen. Fast alle oder alle Smartphonenutzer finden sofort die Antwort auf ihre Frage und müssen nicht weitersuchen.
  2. Highly Meets (HM): Sehr hilfreich für viele oder die meisten Smartphonenutzer. Manche wollen vielleicht noch weitere Ergebnisse abrufen.
  3. Moderately Meets (MM): Hilfreich für viele Nutzer oder sehr hilfreich für Smartphonenutzer. Manche wollen vielleicht noch weitere Ergebnisse abrufen.
  4. Slightly Meets (SM): Hilfreich für weniger Smartphonenutzer. Es gibt zwar eine Verbindung zwischen der Suchanfrage und den Ergebnissen, aber sie ist nicht stark oder sonderlich hilfreich. Viele oder die meisten Nutzer wollen weitere Ergebnisse abrufen.
  5. Fails to Meet (FailsM): Die Suchanfrage liefert kein hilfreiches Ergebnis. Alle oder fast alle Nutzer wollen noch weitere Ergebnisse abrufen.

Das Zusammenspiel von Page Quality und Needs Met

Google verwendet hauptsächlich zwei Tests. Die Page Quality bestimmt unabhängig von der Qualität der Suchergebnisse die Qualität einer Website oder Seite. Dabei berücksichtigt sie nicht nur die Inhalte auf einer einzelnen Seite, sondern auch die Art und Weise, wie diese Inhalte eingebettet sind und auch von wem diese Inhalte verfasst wurden. Darüber hinaus überprüft ein Quality-Rater die Reputation, nicht nur der Website, sondern, falls ersichtlich, auch die Reputation des Autors der Website und die der Organisation, die hinter der Website steht.

Die Page Quality ist grundsätzlich erstmal losgelöst von den Needs Met zu sehen. Ausnahmen bestätigen aber hier die Regel:

  • Unnütze Suchergebnisse erhalten immer ein FailsM, auch wenn die Seite eine hohe PQ vorweisen kann. Unnütz ist Unnütz.
  • Passende und hilfreiche Inhalte mit einem niedrigen PQ erhalten jedoch auch ein niedrigeres Needs Met Rating (NMR) als eine Seite, die ebenso passende und hilfreiche Inhalte biete. Hieran lässt sich klar erkennen, dass Google reputable Websites mit gleichen Inhalten grundsätzlich den Vortritt lässt.
  • Eine Seite mit niedriger PQ sollte niemals ein hohes NMR erhalten.
  • SM kann für Seiten eingesetzt werden, die eine hohe PQ vorweisen können. Wenn jedoch die PQ sehr niedrig ist, dann sollte eine Seite auch grundsätzlich mit FailsM bewertet werden.

Das NMR interagiert also tatsächlich mit dem Page Quality Rating, was auch sicher Sinn ergibt. Insgesamt lässt sich bezogen auf unsere SEO-Strategie noch anmerken, dass es durchaus möglich ist, z. B. durch Snippet-Optimierung, Einfluss auf das NMR zu nehmen und so potenziell auch die PQ weiter zu verbessern. Je besser unsere Snippets die Suchintention treffen und den Wunsch nach Inhalt erfüllen, desto höher ist auch die Zufriedenheit der Besucher.

Fazit SQEG

Es ist wirklich erstaunlich wie transparent Google mittlerweile ist. Die Suchmaschine wird am 4.9.2018 20 Jahre alt. Schon in den ersten 10 Jahren gab es durch diverse Sprachrohre (GoogleGuy, Matt Cutts u. a.) immer wieder zu hören, dass der Suchmaschinenoptimierer die Zufriedenheit der Nutzer im Auge haben sollte. Nur konkrete Hinweise darauf, wie das dann in der Praxis umzusetzen sei, gab es bisher nicht.

Die SQEG ändern das und so lässt sich vielleicht behaupten, dass das Dokument für die moderne Suchmaschinenoptimierung das wertvollste überhaupt darstellt. Aus dem Dokument lässt sich mit ein bisschen Kreativität, ein großer Teil für die ultimative Strategie ableiten.

Die Regeln und Richtlinien aus den SQEG bilden die Grundlage der modernen Suchmaschinenoptimierung.

Strategie & Workflow

Wie sieht sie nun aus, die „ultimative“ SEO-Strategie? Googles Richtlinien für Webmaster und die SQEG zeigen einem, was gewünscht ist und was man besser unterlassen sollten. Der Rahmen ist abgesteckt. Es bleibt die Frage, wie genau ein bestimmtes Projekt jetzt umgesetzt werden soll. Da es so viele verschiedene Möglichkeiten gibt, steckt der Guide einen gewissen Rahmen in Form eines Beispiel-Projektes.

Das Beispiel-Projekt: Der SuperSchuhShop

Unser Onlineshop soll Schuhe verkaufen. Es existiert bereits ein Lager mit Bestand von 100.000 verschiedenen Schuhen über alle Kategorien hinweg, die Software ist einsatzfähig, Logistik ist geregelt und Mitarbeiter gibt es auch schon. Die Nachfrage ist riesig, die Konkurrenzsituation heftig. Wir sind verantwortlich für die Suchmaschinenoptimierung und sollen die Domain, die bis jetzt noch gar nicht existiert, innerhalb von zwölf Monaten in den Suchmaschinen (also hauptsächlich bei Google) konkurrenzfähig machen. Dafür stellt uns das Unternehmen 1.000.000 (Million) Euro Startkapital zur Verfügung. Ein großzügiges, wenn auch kein unendliches Budget. Technik, Content und Links, aber auch alle Gehälter für Teammitglieder und auch Agenturen müssen davon bezahlt werden.

Da die Mitarbeiter im Lager bereits gelangweilt vor den Regalen stehen und auf erste Bestellungen warten, wird es höchste Zeit, mit der Suchmaschinenoptimierung loszulegen.

Die Planungsphase

Die erste Version unserer Shopsoftware steht in den Startlöchern. Wie es üblich ist, wurde das SEO-Team natürlich nicht in den Auswahlprozess integriert und so wurde eine Software ausgewählt, die einen wundervollen Satz an Features aus Salessicht hat, die aber noch so gut wie gar nicht auf Suchmaschinen vorbereitet wurde. Welche Software das im Einzelfall ist, spielt für diese Betrachtung keine Rolle. Sie wurde im eigenen Haus (weiter)entwickelt – von erfahrenen Programmieren, die jedoch mit dem Thema SEO keine Berührung hatten. Ganz normaler Alltag also für die SEO-Verantwortlichen.

Es gibt auf dem heutigen Markt eine schier unendliche Zahl an Softwareanbietern. Sowohl für Onlineshops, als auch für CMS/Blogs. Eine Suche nach [Onlineshop Software] fördert einige zutage. Eine Empfehlung für eine bestimmte Lösung ist im Prinzip unmöglich. Die verschiedenen Pakete erfüllen jeweils unterschiedliche Anforderungen. Idealerweise sollte die Lösung durchweg SEO-optimiert sein, damit nachher so wenig Änderungen wie möglich vorgenommen werden müssen. Außerdem empfiehlt sich eine Software, die auch gleichzeitig die Möglichkeit bietet, beliebige Contentbereiche auf der eigenen Website einzurichten, z. B. ein Blog, Magazin oder unterschiedliche Infobereiche. Der Zugriff auf den Source-Code ist ein entscheidendes Merkmal. Ohne diesen könnte es bei der Umsetzung von SEO-Maßnahmen zu langen Verzögerungen kommen, die ein hohes Verlustpotenzial mit sich bringen.

Auswahl der Domain

Ein Blick auf die ersten Suchergebnisse für die Suchanfrage [Schuhe] liefert ein interessantes Ergebnis:

 

Ergebnisse der Suchanfrage [Schuhe]

Nur eine einzige „Keyword-Domain“.

 

Schuhe.de und Goertz haben für den Begriff [Schuhe] ein gutes Ranking. Allerdings laut SISTRIX Sichtbarkeitsindex nur eine Sichtbarkeit von < 10. Zalando und Otto haben eine Sichtbarkeit von weit über 100. Alles in allem lässt sich davon ausgehen, dass eine Exact-Match-Domain (EMD) auch heute noch Vorteile mit sich bringt. Aus SEO-Sicht macht es dann auch Sinn eine solche zu beschaffen. Es kommt jedoch hier auf die Ausgangssituation an. Mit dem SuperSchuhShop bei [Schuhe] in die Top-10 zu kommen, wäre ein netter Nebeneffekt. Allerdings muss fast jede neue Domain erst einen Vertrauensbonus bei Google aufbauen. Das bedeutet auch, dass in der Anfangszeit höchste Rankings für sogenannte Long-Tail-Keywords möglich ist. Im Laufe der Zeit, mit wachsendem Vertrauen und stärkerer Autorität kommen dann auch immer mehr Marken- und Kategoriebegriffe hinzu. Ein typischer Verlauf könnte so aussehen:

 

Beispielverlauf Longtail zu Shorttail

Marke: clarks bampton schwarz 43 → clarks bampton schwarz → clarks bampton → clarks
Kategorie: businessschuhe schwarz 43 → businessschuhe schwarz→ businessschuhe

 

Bereits seit 2012 werden EMDs nicht mehr bevorzugt behandelt, obwohl diese laut früheren Aussagen von Google einen kleinen Bonus erhielten.

Minor weather report: small upcoming Google algo change will reduce low-quality "exact-match" domains in search results.

Matt Cutts (@mattcutts) 28. September 2012

Der Wortlaut bei Google „reduce low-quality 'exact-match' domains“ lässt darauf schließen, dass EMDs von guter Qualität immer noch einen kleinen Bonus bekommen. Aber eben nur bei dem entsprechenden Suchbegriff. Für die Zwecke des SuperSchuhShops würde es sich sicher nicht lohnen, einen eventuell hohen sechsstelligen Betrag des Budgets nur auf eine EMD zu verwenden. Schuhe.de ist ohnehin schon weg.

Bei weniger ambitionierten Projekten und wo es nur um vereinzelte Nischenprodukte geht, z. B. ausschließlich [Nike Air Jordan 1 Retro] würde eine EMD deutlich mehr Sinn machen.

Der Vorteil von EMDs ist also ein eventueller, kleiner Rankingboost beim entsprechenden Begriff. EMDs haben aber auch viele Nachteile. Der größte davon:

EMDs schränken mit hoher Wahrscheinlichkeit zukünftige Richtungswechsel ein. Eine Marke wie NotebooksBilliger.de wird Schwierigkeiten damit haben, z. B. frische Produkte oder gar Mode anzubieten. Oder wie würde man seinen Freunden erklären, dass die eigene Unterwäsche von NotebooksBilliger.de stammt?

Zalando demonstriert, dass ein Onlineshop für Schuhe auch leicht Mode mitanbieten kann. Letztendlich könnte Zalando auch einfach zum Vollsortimenter werden, ohne dass sich jemand daran stoßen würde. Eine EMD oder auch einfach nur eine Domain, die einen (Teil-)Suchbegriff enthält, wie SuperSchuhShop.de, legt das Unternehmen zu sehr fest. Schließlich heißt Amazon auch nicht SuperBookShop.com.

Markendomain

Eine Markendomain zeichnet sich dadurch aus, dass sie keine Suchbegriffe enthält. Mehr noch ein eigenes Wort, eine Abkürzung, ein Phantasiebegriff oder eine Wortneuschöpfung bildet. Bekannte Beispiele für Markendomains sind amazon.com, google.com, ebay.com, apple.com, ibm.com etc.

Nach ca. einer halben Stunde Kreativarbeit, sind wir auf den Namen Kasenko gestoßen. Der Name ist nicht sehr geläufig, hat aber einen guten Klang. Außerdem ist er auch international einsetzbar. Die TLD-Domains sind im Juli 2017 noch alle zu haben, was nicht üblich ist. Hier haben wir also keine Kosten mehr. Weil so viele Domains heutzutage schon registriert sind, ist es durchaus üblich, ein Budget von ca. 10–50.000 € für den Kauf von Domains zurückzulegen. Außerdem sollten natürlich die Markenbegriffe entsprechend geschützt werden, was aber nicht aus dem SEO-Budget kommt.

Der SuperSchuhShop heißt jetzt Kasenko. Der Einsatz einer Markendomain erlaubt in Zukunft beliebige Waren anzubieten. Auch sollte der Begriff „Shop“ nicht in der Domain vorkommen, weil es möglich ist, auf der Domain mehr als nur einen Shop anzubieten, wie Amazon das z. B. mit all seinen Produkten macht (Streaming, Hosting etc.) Dies gibt dem Projekt maximale Freiheit bei minimalen Einbußen. Der Einsatz einer Keyword-Domain würde eventuell etwas bei der Optimierung helfen, allerdings sind die Vorteile, die dadurch in diesem Szenario entstehen eher zu vernachlässigen.

Top-Level-Domains (TLDs) und die neuen Varianten

TLDs bringen keinen Ranking-Vorteil. Dies verkündet Google seit mindestens 2012 und zuletzt auch hochoffiziell im Google Webmaster Central Blog. Dabei ist es egal, ob es sich um generische (gTLDs) handelt (z. B. .com, .net, .org oder .brand) oder um Länderdomains (z. B. .de, .at, .ch). Grundsätzlich nutzt Google anfangs die ccTLD (Länderdomain), um Sprache und Region einer Website zu bestimmen. Google geht also schon davon aus, dass eine .de-Domain auch deutsche Inhalte aus Deutschland anbietet. Theoretisch ist es aber genauso gut möglich, deutsche Inhalte aus Deutschland auf einer japanischen Domain (.jp) und umgekehrt anzubieten. In so einem Fall lässt sich das Land über Googles Search Console einstellen. Dies ist aber nicht zu empfehlen, weil es die Nutzer wahrscheinlich völlig verwirren würden.

Kasenko startet demnach zuerst in Deutschland, soll aber nachher auch im ganzen D/A/CH-Raum versenden. Im zweiten dann europaweit und ab dem dritten Jahr in ausgewählte Länder weltweit. Deswegen wird als Haupt-TLD die .com ausgewählt. Trotzdem werden alle anderen Varianten der Domain ebenfalls registriert, wenigstens jedoch (.de, .net, .org).

Wenn klar ist, dass das Unternehmen/die Website niemals ins Ausland expandiert, dann reicht eine .de-Domain vollkommen aus. In allen anderen Fällen ist eine möglichst generische TLD zu empfehlen, z. B. .com, .net, .org, .biz, .info etc.

Verwende grundsätzlich eine generische Top-Level-Domain für alle Versionen und Sprachen. Nur in sehr gut begründeten Ausnahmefällen, sollte ein Projekt über mehrere Länderdomains betrieben werden.

Selbstverständlich kann jedes Unternehmen trotzdem Länderdomains in der Außenkommunikation verwenden, denn diese erhöhen das Vertrauen der nationalen, lokalen bzw. regionalen Kundschaft. In der Fernsehwerbung erhält das Publikum zum Schluss der Werbung den Aufruf kasenko.tv zu besuchen. Auf Plakaten steht: Jede Woche neue Angebote auf kasenko.de. In der Radiowerbung hallt der Aufruf: Jede Woche neue Angebote im kasenko.shop. In allen Fällen gibt es ein Redirect, welches z. B. Besucher von kasenkto.tv auf kasenko.com/de/?quelle=tv umleitet. Das bietet gleichzeitig die Möglichkeit zu tracken, über welchen Kanal die Besucher der Website kommen und wie diese konvertieren. Für Google und andere Suchmaschinen gibt es nur eine Hauptdomain: kasenko.com. Dies ist gerade aus Sicht des Linkaufbaus und der daraus resultierenden Linkpower ideal. Dazu später mehr.

Selbstverständlich lassen sich Länderdomains nachher in der Regel via 301-Code zu einem späteren Zeitpunkt umleiten. So könnten wir theoretisch zuerst mit kasenko.de anfangen und später auf kansenko.com umleiten. Dieser Prozess kann problemlos vonstattengehen. Es gibt jedoch genügend Horrorstorys und Negativbeispiele von Projekten, bei denen diese Strategie zu massiven Einbrüchen geführt hat. Eine Strategie kann sich bestimmt nur dann als ultimative Strategie behaupten, wenn ihre einzelnen Untertaktiken von vornherein solche Fehler vermeiden oder das Risiko einfach komplett ausschließen.

Hosting

Google schreibt auf der einen Seite, dass sie den Serverstandort zur Bestimmung des Standortes verwenden, ist sich aber auch bewusst darüber, dass viele Websites sogenannte CDNs (Content-Delivery-Networks) verwenden. Diese CDNs liefern über ein weltweites Netzwerk einem Website-Besucher Dateien (also HTML, Bilder, Videos und andere Dateien) vom jeweils nächsten Standort aus. So beantworten z. B. Server, die in UK stehen, Anfragen von Kunden in den UK, so dass die Datenpakete nicht erst den Weg über den Ärmelkanal machen müssen.

Es kommt also nicht darauf an, in welchem Land eine Website gehostet wird, sondern nur, dass sie aus allen relevanten Ländern so schnell wie möglich lädt.

Für Kasenko wählen wir für das erste Jahr einen Serverstandort in Deutschland. Hier gibt es viele zuverlässige Anbieter. Einen Anbieter, der sich auf sogenanntes SEO-Hosting spezialisiert hat, brauchen wir für Kasenko nicht. Solche Hoster ermöglichen das Betreiben von vielen Websites auf unterschiedlichen IP-Adressen. Das fällt also eher in den Bereich der SEO-Trickserei, z. B. dem Aufbau eigener Netzwerke oft auch PBNs (Personal Blog Networks) genannt.

Für das Hosting ist ansonsten nur wünschenswert, dass die verwendeten IP-Adressen dann lediglich für die eigene Website verwendet werden und nicht etwa noch viele weitere Domains mit hostet, wie das z. B. im Shared-Hosting der Fall ist.

Das Hostingbudget gehört zum Budget für die technische Infrastruktur. Die SEO-Abteilung hat hiermit also keine weiteren Kosten.

Keywords

Auf Google finden weltweit 2 Billionen Suchen statt. Das sind 2.000.000.000.000. Wenn es auf der Welt aktuell ca. 3,4 Milliarden Internetnutzer gibt, dann sucht jeder Internetnutzer jeden Tag 1- bis 2-mal etwas auf Google.

Was genau suchen all diese Menschen und welche Wörter benutzen sie dabei? Dies ist eine zentrale Frage in der Suchmaschinenoptimierung, der dieser Abschnitt nachgeht.

Suchintention und Volumen

Keywords sind für die Suchmaschinenoptimierung von heute immer noch von zentraler Bedeutung. Auch wenn viele Experten davon ausgehen, dass „Themen“ eine größere Bedeutung zukommt – mehr dazu später. Keywords haben mit dem, was Suchende in den Suchschlitz eingeben, eine direkte Beziehung. Es gibt vermutlich unendlich viele Kombinationsmöglichkeiten für Keywords. Aber nur ein vergleichsweise winziger Bruchteil davon ist aus Sicht der Suchmaschinenoptimierung tatsächlich von Bedeutung.

Dabei teilt die Suchmaschinenoptimierung Keywords im Rahmen der Suchintention in drei Hauptkategorien ein:

  1. Informationelle Keywords sollen eine Wissenslücke schließen. Beispiele: [Wetter Berlin], [Anzahl Menschen auf der Erde], [Schuhe schnüren]
  2. Navigationelle Keywords sollen dabei helfen, eine gewisse Website/Webseite im Web zu finden. Beispiel: [Facebook], [site:google.de Richtlinien für Webmaster], [Spiegel] (insofern der Suchende nach der Publikation und nicht nach Informationen zu reflektierenden Glasscheiben sucht)
  3. Transaktionelle Keywords deuten darauf hin, dass der Suchende im weitesten Sinne jetzt oder in Zukunft in Betracht zieht etwas zu kaufen. Alternative Bezeichnung: Kommerzielle Keywords. Beispiele: [Schuhe online kaufen], [Nike Air Max Preis], [Sneaker günstig]

Alle drei Typen von Keywords sind für die Suchmaschinenoptimierung interessant. Die wichtigsten Keywords sind aber sicher die transaktionellen. Denn die Suchintention hinter diesen Suchanfragen schreit regelrecht: „Ich will etwas kaufen!“ SEOs wollen also unbedingt sicherstellen, dass bei der Keyword-Recherche und später bei der Contenterstellung die transaktionellen Keywords im Hauptfokus liegen.

Aber auch informationelle Keywords können eine sehr wichtige Rolle spielen. Das Beispiel [Schuhe schnüren] zeigt es. Wer danach sucht, wie man idealerweise Schuhe schnürt, der hat vielleicht auch ein Interesse daran Schuhe zu kaufen. Die Person ist also schon Teil der Customer-Journey. Sie ist bereits auf dem Weg dahin, irgendwann Schuhe zu kaufen und daher als potenzielle Käuferin bzw. Besucherin unserer Website von Interesse. Weitere Ausführungen hierzu im Bereich Content weiter unten.

Aus strategischer Sicht ist eine weitere Einteilung der Keywords sinnvoll. Denn bei einem neuen Projekt oder einem Projekt, welches noch über wenig Sichtbarkeit in den Suchmaschinen verfügt, kommt es auf die Reihenfolge der Optimierung an. Wenn eine Website oder auch ein Onlineshop von den ersten Wochen an rankt, dann zuerst für Begriffe, die leichter sind. Dann für die Begriffe, die im Mittelfeld liegen und später erst für die schwierigen Begriffe.

 

Verhältnis Kosten und Konkurrenz zu Suchfrequenz

Long-Tail, Mid-Tail und Short-Tail. Je kürzer der Schwanz (Tail), desto schwieriger ist es zu ranken.

 

Ryan Shelleys liefert eine weitere Liste, die transaktionelle Begriffe in sieben weitere Kategorien unterteilt. Dazu gehören:

  • Marktdefinierende Keywords beschreiben den Kern der Aktivitäten, die für ein bestimmtes Projekt von höchster Bedeutung sind. Sie mögen nicht immer die größten Umsatzbringer sein, sind aber dennoch von zentraler Bedeutung. Beispiele: [Onlineshop für Schuhe], [Schuhmode]
  • Kundendefinierende Keywords sind Begriffe, die Kunden dazu verwenden, sich selbst zu beschreiben. Diese Begriffe ermöglichen es, neue Kundenzielgruppen zu finden. Beispiele: [Tänzer], [Fußballer], [Sneakerfan]
  • Produkt-Keywords sind Begriffe für Produkte. Hier geht es darum, so spezifisch wie möglich zu sein. Beispiele: [adidas NEO Lite Racer], [Tiggers® Wega Pumps], [Jack Wolfskin Baby Kinderwagenschuhe MOONCHILD]
  • Branchengrößen sind meist Namen von Menschen oder Organisationen (Marken), die in der Branche jeder kennt. [adidas], [nike], [Rihanna] (die Musikerin hat ihr eigenes Sublabel bei PUMA namens Fenty PUMA by Rihanna)
  • Konkurrenzbegriffe sind hauptsächlich die Namen und Marken der Mitbewerber. Diese sind dazu gut, um herauszufinden, wie z. B. die Medien über diese berichten. Sie finden in der Onpage-Optimierung eher selten Anwendung. Beispiele: [otto], [mirapodo], [I'm walking]
  • Verwandte Vertikal-Keywords sind auch als Sekundär- oder sogar Tertiärbegriffe bekannt. Die sind Begriffe, die einen indirekten Bezug zum Hauptkeyword-Universum haben. Ähnlich wie bei den kundendefinierenden Keywords und bei den Branchengrößen geht es bei den Vertikal-Keywords um alle Begriffe und Themen, die angrenzend etwas mit dem Hauptthema zu tun haben. Beispiele: [Fußball], [Tanzen], [Mode]. Fußballer tragen Sportschuhe. Tänzer tragen Tanzschuhe. Modebewusste tragen Sneaker oder andere Modeschuhe. Diese verwandten Vertikal-Keywords erlauben den Aufbau von Communities und bieten viele thematisch „angrenzende“ Möglichkeiten für den Linkaufbau.
  • Geografische Keywords helfen bei der Verortung von Suchanfragen. Sie spielen vor allem für Unternehmen eine Rolle, die auch über lokale Geschäfte verfügen. Ein Beispiel: [Schuhe Trier].

Die Keyword-Strategie

Mit diesem Wissen bewaffnet, sollte es leicht sein, eine Keyword-Strategie für das erste Jahr zu entwickeln. Aber eines vorweg: Die Keyword-Recherche ist nie wirklich zu Ende – es finden sich immer wieder neue Keywords und vor allem Keyword-Kombinationen. Die wichtigste Komponente in einer Keyword-Strategie ist, niemals damit aufzuhören.

Da Kasenko noch über keinerlei Rankings verfügt, aber schon über Hundertausende von Unterseiten zu verschiedenen Schuhen hat, liegt das weitere Vorgehen auf der Hand:

Die günstigste und schnellste Methode ist eine Optimierung für den Long-Tail. Das geschieht anfangs hauptsächlich auf Datenbankebene. Wenn bereits eine Datenbank mit Hersteller- und Produktnamen besteht, dann werden daraus sicher auch schon die entsprechenden Seiten generiert. Beispielsweise hat unser Shop jetzt schon eine Seite für jede Hersteller-/Modell-Kombination.

  1. Hersteller + Modell (Long-Tail): Zuerst gilt es, alle gängigen Kombinationen an Produktkeywords zu sammeln und daraus eine Masterliste zu erstellen. Hierfür reicht es, aus der Datenbank Hersteller und Modelle miteinander zu kombinieren: [Nike Air Max animal print], [Minelli High Heel Pumps], [Birkenstock GIZEH Zehentrenner]. Sollten hiermit keine guten Rankings erzielbar sein, so braucht es vermutlich weitere Modifikatoren, wie „Hersteller + Modell + Farbe/Material/Größe etc.“
  2. Kategorie + Unterkategorie (Mid-Tail): Sobald Long-Tail-Keywords zufriedenstellend ranken, gilt es die Kategorie-Begriffe weiter auszubauen. Beispiele hierfür sind: [Herren-Sandalen], [Sportschuhe Fußball], [Outdoor Schuhe]. Auch hier kann es sein, dass gewisse Begriffe schon eher dem Short-Tail zuzurechnen sind, z. B. [Sportschuhe Fußball], sodass hier weitere Modifikatoren notwendig werden, z. B. [Sportschuhe Fußball Damen] oder [Sportschuhe Fußball Kinder].
  3. Hauptkategorie (Short-Tail): Diese Begriffen sollte strategisch gesehen erst nach den Midtail-Begriffen in Angriff genommen werden.

Kämpfe um realistische Keywords. Es macht keinen Sinn von Anfang an um Keywords zu kämpfen, die anfangs völlig aussichtslos sind. Eine nagelneue Domain ohne Links und Historie muss sich das „Recht zu Ranken“ erst verdienen.

Es ist realistisch die erste Phase für unser Beispiel-Projekt Kasenko mit Hochdruck anzugehen. Hier ergeben sich bei entsprechend aggressiver Vorgehensweise mit Sicherheit viele Top-10-Rankings. Aber auch der Versuch für diverse Mid-Tail-Begriffe in die Top-10 zu kommen, scheint aufgrund des Budgets im Zeitraum von 12 Monaten durchaus realistisch. Ob und wie schnell wir bei der Optimierung die drei Phasen der Keyword-Strategie schon im ersten Jahr befriedigend abarbeiten können, hängt auch von weiteren Maßnahmen in den Bereichen On- und Offpage ab. Dazu später mehr.

Die ultimative Keyword-Recherche

Tools zur Keyword-Recherche gibt es wie Sand am Meer. Im Netz finden sich auch eine Unzahl an Testberichten. Verglichen mit dem Keyword-Planner von Google kann aber kein Drittanbieter-Tool so wirklich mithalten. Wer also eine wirklich aussagekräftige Keyword-Recherche machen möchte, der verwendet den Keyword-Planer und füttert diesen mit den soeben ermittelten Keywords aus der eigenen Produktdatenbank.

 

Keywordrecherche mit dem Google Keyword-Planner

Googles Keyword-Planer ist das einzige Tool, welches über eine repräsentative Datenmenge verfügt.

 

Da Kasenko ein ganz neues Projekt ist und daher über keinerlei Keyword-Daten verfügt, legt das Team zu Beginn des Projektes gleich eine große Google-Ads-Anzeigenkampagne für die bisher ermittelten Keywords an. Hierfür wird auch ein variables Testbudget von 10.000 bis 100.000 € eingeplant. Variabel ist das Budget, damit im Bedarfsfall mehr Tests durchgeführt werden können. Denn nur über echte Tests lässt sich herausfinden, wie das tatsächliche Suchverhalten der potenziellen Kunden aussieht und welche Keywords wirklich rentabel sind.

Wer versucht ganz ohne Budget eine Keyword-Recherche durchzuführen, der kann auch nicht mehr als raten. Keyword-Tools helfen dabei und auch Googles Keyword-Planer liefert viele kostenlose Daten. Allerdings lassen sich über die wertvollen Long-Tail-Keywords mit kostenlosen/kostenpflichtigen Tools bzw. selbst mit dem Keyword-Planer kaum gute Daten ermitteln. Google ist hier im Laufe der Jahre immer restriktiver bzw. ungenauer geworden. Es bleibt nur der Weg über das Ausprobieren.

Die gewonnenen Daten informieren sowohl die Strategie bei der Onpage-Optimierung als auch wozu SEO-optimierter Content erstellt werden muss.

Onpage-Optimierung

Die Domain und Technik stehen, gute Keywords sind auch vorhanden. Jetzt muss die SEO-Abteilung nur noch dafür sorgen, dass alle relevanten Unterseiten auch bis in letzte Detail optimiert sind. Dafür ist die Onpage-Optimierung zuständig. Dieser Kategorie fallen alle Optimierungsmaßnahmen zu, die ein Website-Betreiber selbst auf der eigenen Website durchführen kann, ohne auf Dritte angewiesen zu sein.

Eigentlich ist der Begriff Onpage falsch. Es sollte besser Onsite-Optimierung heißen, denn es geht hier nicht nur um Maßnahme auf den Seiten selbst, sondern um solche, die unterhalb der Seiten, für die URL-Strukturen, Redirects, die interne Verlinkung und allgemein für die gesamte Website-Technik durchgeführt werden.

Es gibt regelrecht tausende von Maßnahmen, die eine große Website mit vielen Seiten im Laufe der Zeit ausprobieren kann. Im Sinne der ultimativen SEO-Strategie greift dieser Guide die wichtigsten Optimierungsbereiche auf. Welche Maßnahmen sind zum Start eines Projekts von größter Bedeutung. Worauf muss das Beispiel-Projekt Kasenko unbedingt achten, um einen perfekten Launch hinzubekommen?

Crawl-Budget

Google liest nicht unbedingt immer eine gesamte Website mit all ihren Unterseiten in einem Rutsch ein. Angenommen ein Onlineshop (oder eine beliebige andere Website) hat 100.000 Produkte in 100 Kategorien. Jedes Produkt hat im Durchschnitt 10 Variationen. Für jede Variation gibt es eine Unterseite. So kommt dieser Onlineshop schon auf mindestens 1 Mio. Unterseiten.

Googles Spider, Googlebot, wird diese 1 Mio. Unterseiten mit hoher Wahrscheinlichkeit nicht im ersten Anlauf und auf einen Schlag einlesen. Um die weltweite Indexierung von Webseiten auch tatsächlich irgendwann einmal beenden zu können (natürlich nur, um dann wieder von vorne zu beginnen), muss auch der Googlebot irgendwo einen Schlussstrich ziehen. Hier kommt also das sogenannte Crawl-Budget ins Spiel.

Google gibt offiziell Hinweise zum Crawl-Budget: What Crawl Budget Means for Googlebot. Unterschieden werden die Begriffe Crawl-Rate-Limit, Crawl-Demand und das Crawl-Budget.

  • Das Crawl-Rate-Limit kontrolliert die Geschwindigkeit beim Einlesen der Unterseiten. Je schneller eine Website reagiert, desto schneller liest sie Googlebot ein. Im Rahmen der Website-Geschwindigkeit weiter unten hierzu mehr Informationen.
  • Der Crawl-Demand drückt den Wunsch des Googlebots aus, wie tief er in eine Website eindringt. Je höher der Crawl-Demand, desto mehr Seiten möchte Googlebot einlesen. Der Wert wird durch die „Popularität“ der Website bestimmt. In der Vergangenheit hat Matt Cutts bereits davon gesprochen, dass dieser Wert höher ist, desto höher der PageRank einer URL ist. Crawl-Demand kann also durch den Linkaufbau erhöht werden. Dieser spielt also schon ganz zu Anfang des Projektes eine entscheidende Rolle.
  • Der Begriff Crawl-Budget ist eine Kombination aus Crawl-Rate und Crawl-Demand. Es ist schlicht und ergreifend „die Anzahl an URLs, die Googlebot crawlen möchte und kann“.

 

Auswirkung des Crawl-Budgets auf die Anzahl indexierter Seiten

In diesem stark vereinfachten Beispiel hat Googlebot (die Spinne) ein Crawl-Budget von 54 (erdachte Zahl). Googlebot kann jetzt 54-mal auf dieser Website „klicken“. Auf der Startseite befinden sich drei Links zu den Kategorieseiten „Herrenschuhe“, „Damenschuhe“ und „Kinderschuhe“. Zuerst klickt Googlebot auf die Herrenschuhe (-1), besucht die drei Seiten (-3) und geht dann auf jede Produktseite (-18). Übrig bleiben 32 Klicks. Dann geht Google in die Damenschuhe (-1) und klickt die Seiten durch (-4), um insgesamt 24 Produktseiten einzulesen (-24). Es bleiben 3 Klicks übrig. Jetzt klickt Googlebot auf die Kinderschuhe (-1), besucht die zwei Seiten (-2) wonach das Crawl-Budget auf 0 ist. Googlebot kann jetzt die 12 Kinderschuhseiten nicht mehr einlesen.

 

Was beeinflusst das Crawl-Budget?

Google gibt mehrere Faktoren an:

  • Viele Seiten mit geringem Mehrwert verringern das Crawl-Budget.
  • Facettierte Navigation: Wenn zu jeder Produktseite etliche weitere Unterseiten für die unterschiedlichen Produkteigenschaften (Größe, Farbe, Funktion …) bestehen, um Landingpages für Kombinationen zu erzeugen, z. B. nike-air-max-groesse-40.html, nike-air-max-groesse-41.html, nike-air-max-groesse-42.html und dann noch nike-air-max-groesse-40-farbe-rot.html, nike-air-max-groesse-40-farbe-schwarz.html, nike-air-max-groesse-40-farbe-weiss.html usw. Solche Seiten sollte Googlebot idealerweise gar nicht erst sehen.
  • Session-Variablen: Die unschönen Anhängsel an die Seiten-URL lassen den Googlebot vermuten, dass es jeweils um eine weitere Unterseite handelt. Beispiel: Unter website.xy/kategorie/produkt.html?session=s8f768f6t2glb39hq76wpr9823o und website.xy/kategorie/produkt.html?session=sdfgog4lurg27fr8032rg7i ist jeweils genau die gleiche Seite zu finden. Für Googlebot zählen diese beiden URLs unter Umständen als zwei Seiten.
  • Doppelte Inhalte: Der berühmte Duplicate-Content, also exakt gleiche Inhalte, die durch das CMS oder die Shopsoftware über zwei verschiedene URLs ausgegeben werden, z. B. website.xy/eine-news.html und website.xy/archiv/eine-news.html. Als Faustregel gilt: Jeder Inhalt hat genau eine
  • Soft-Errorpages: Das sind Seiten, auf denen steht „Diese Seite/Dieses Produkt wurde nicht gefunden“, ohne dass dafür ein Statuscode 404 an Googlebot gesendet wurde. Für diesen sieht so eine Seite aus wie Duplicate-Content.
  • Gehackte Seiten: Dass die nicht gut sind, muss wohl nicht groß zu erklärt werden.
  • Unendliche Seitenbereiche: Damit sind Websitebereiche gemeint, die Datenbank- und/oder Parametergestützt eine unendliche Seitenzahl generieren. Auf solchen Seiten sind dann in der Regel von Seite zu Seite keine relevanten Änderungen zu erkennen.
  • Inhalte von niedriger Qualität bzw. Spam: Was genau das bedeutet, findet sich weiter unten. In der Regel weiß man aber auch selbst, wenn etwas zu dünn oder spammig ist.

Statt weitere Negativbeispiele zu beleuchten, ist es sinnvoller einfach eine Positivregel aufzustellen.

Jede Seite sollte nur einmal unter einer sprechenden URL ohne Parameter existieren, gute und nützliche Inhalte vorweisen und frei von technischen Problemen sein. Dann kann sie Googlebot auch ohne Probleme einlesen. Außer solchen Seiten existieren keine weiteren Seiten auf einer Website.

Da es sich beim Beispielprojekt Kasenko um eine ganz neue Website handelt, ist es besonders wichtig eine Liste der voraussichtlich wertvollsten Schuhprodukte zu erstellen. Das sind in diesem Fall die populärsten bzw. potenziell ertragreichsten Schuhmodelle, wie sie aus der AdWords-Testkampagne herauskamen. Die Hauptnavigation muss das reflektieren, indem sie anfangs nur Links in die wichtigsten Unterbereiche (Kategorien) und Produkteseiten zulässt.

Ein schrittweises Vorgehen ist hier wichtig. Auch wenn es insgesamt über 100.000 Produkte und Kombinationen gibt, so werden diese erst nach und nach Googlebot vorgeführt.

Möglichkeiten zur Steuerung des Crawlers

Es gibt diverse Möglichkeiten den Crawler (Googlebot) zu steuern. Damit kann eine Website erreichen, dass Googlebot mehr aus SEO-Sicht „wertvolle“ Seiten indexiert (genauer: für den Index vorschlägt).

Googlebot ist lediglich für das Finden und Einlesen von URLs verantwortlich. Ob eine gecrawlte Seite auch tatsächlich im Index landet, also in der zentralen Datenbank, entscheidet der sog. Indexer. Ähnlich wie beim Crawl-Budget gibt es auch ein Indexierungs-Budget, welches vermutlich von ähnlichen Faktoren (vor allem der Popularität, also dem internen PageRank) abhängt. Von einer neuen Website indexiert Google vielleicht nur maximal 1.000 Seiten, auch wenn sie aus über 100.000 Seiten besteht. Sobald eine Website populärer wird, indexiert Google nach und nach mehr Seiten. Es ist also von hoher Bedeutung, das Crawl-Budget richtig einzusetzen, sodass bei Google idealerweise die 1.000 wichtigsten Seiten von den insgesamt 100.000 Seiten im Index landen.

Wie lassen sich solche Maßnahmen in einem großen Team oder mit der Agentur umsetzen? Das geht nur, wenn man als SEO einen guten Draht zur internen/externen IT aufbaut. Aus Sicht der Programmierer ist z. B. das Prinzip „1:1-Content-URL-Mapping“ erstmal unbedeutend. Schließlich kann es ja auch als Service für den Besucher verstanden werden, dass eine spezielle Seite vielleicht unter den beiden URLs website.xy/schuhe.html und website.xy/archiv/schuhe.html aufzurufen ist. Daran ist auch grundsätzlich nichts falsch, außer dass sich der Googlebot potenziell daran verschluckt. Hier müssen SEO und IT Hand in Hand zusammenarbeiten. Der SEO sollte gegenüber einem Programmierer begründen und am besten belegen können, dass Google diese Einschränkung macht, um Seiten besser ranken zu können. Belegen lässt sich das am besten mit einer Aussage direkt von Google: Official Google Webmaster Central Blog: Optimize your crawling & indexing. Dort steht es völlig unmissverständlich.

Die wichtigsten Regeln und Techniken zur Steuerung des Crawlers:

  • Flache Hierarchien: Im Idealfall ist jede Unterseite mit drei bis vier Klicks erreichbar.
  • Seiten priorisieren: Geschäftlich wichtige Seiten sollte der Crawler zuerst erreichen. Links zu ihnen sind weiter oben im Content.
  • Keine Session-IDs: Der Crawler darf keine Parameter einer URL finden, die nicht den Content auf der Seite verändern. Solche Informationen gehören in ein Cookie.
  • Facettierte Navigation: So eine Navigation hilft dabei die Seitenanzahl so gering wie möglich zu halten. Verschiedene Varianten und Parameter müssen über Cookies ausgetauscht werden, damit Googlebot keine unnötigen Seiten crawlt.
  • Canonical: Mittels Canonical-Hinweis lässt sich prinzipiell das Problem der facettierten Navigation lösen. Hier ist es möglich, bei den Varianten-URLs immer wieder auf die zentrale URL zu verweisen. Für Google ist diese Information jedoch nicht verbindlich. Außerdem muss Googlebot ja erst alle Varianten-Seiten abcrawlen, um die Canonical-Hinweise zu finden. So gesehen bringt der Einsatz dann doch nicht, womit von Canonicals in den allermeisten Fällen abzuraten ist.
  • Entferne unendliche Crawlspaces: Das sind z. B. Kalender-Elemente, die unendlich in die Zukunft oder Vergangenheit gehen oder Paginationen (Seite 1, Seite 2, Seite3 …), die eine Seite mit Status-Code 200 anzeigen, obwohl es so eine Seite nicht gibt (webstes.xy/inhalt.html?seite=99999)
  • 1:1-Content-URL-Mapping: Eine Stück Content hat genau eine Repräsentation als URL. So kann kein Duplicate-Content entstehen.
  • TXT: Hier können Seiten und ganze Bereiche für den Googlebot einfach gesperrt werden. Zu bedenken ist hier, dass Google unter Umständen dennoch diesen Links folgt, sie nur nicht vollständig in den SERPs anzeigt.
  • SPEED: Je schneller der Server ist/die Website reagiert, desto mehr kann Googlebot einlesen.
  • XML-Sitemap: Eine XML-Sitemap gibt dem Googlebot einen Überblick über alle Seiten, die auf einer Website indexiert werden sollen.
  • NOFOLLOW: Steuere die interne Verlinkung mit Nofollow-Links. Auch zu bedenken ist, dass Links, die via JavaScript erzeugt werden, auch von Googlebot angeklickt werden, z. B. Links in Werbebannern. Hier sollten unwichtige Links ebenfalls mit Nofollow gekennzeichnet werden. Eine Seite, die intern nur mit Nofollow extern jedoch Follow verlinkt ist, wird dennoch gecrawlt und vom Crawl-Budget abgezogen.
  • Einfahrt verboten: Gewisse Websitebereiche, Kategorieseiten und/oder Produktseiten für Googlebot nicht erreichbar machen.
  • Mehr Autorität aufbauen: Dies geht mittels Linkaufbau. Dazu später mehr.

Auswertung und Analyse des Googlebots

Das Crawl-Budget bzw. Googlebot und dessen Crawlverhalten zu analysieren, ist für jede Website mit deutlich mehr als 1.000 Unterseiten sehr zu empfehlen. Hierzu lassen sich die Log-Dateien vom Server idealerweise verwenden.

Die beiden Screamingfrog-Tools „SEO Log File Analyser“ und „SEO Spider“ lassen sich so miteinander kombinieren, dass die Events aus der Log-Datei mit einem eigenen Website-Crawl abgeglichen werden. Was übrig bleibt, ist eine Liste mit URLs, die von den unterschiedlichen Suchmaschinen (auch Yahoo, Bing u. a.) noch nicht gecrawlt wurden.

Search-Console

Jede neue Website sollte bei Googles Search Console (ehemals Webmaster-Tools) angemeldet werden. Die Search-Console liefert eine ganze Reihe an Datenpunkten, die Webmastern dabei helfen, die eigene Website zu optimieren. Darunter beispielweise auch die Anzahl der indizierten Seiten.

 

Sparsam bringt am meisten

Die Theorie bzw. das alte PageRank-Patent besagt, dass die gesamte Menge an Linkpower über die Anzahl der internen Links verteilt wird. Daraus lässt sich schließen, dass eine geringere Menge an internen Links besser ist, als z. B. auf jeder Unterseite jede andere Unterseite zu verlinken.

Beispiel interne Verlinkung

Beispiel interne Verlinkung

 

In diesem Beispiel zeigen vier Links auf je eine interne Seite. Wenn die vererbbare Linkpower 100 % ist, dann verteilt sie sich – vereinfacht gesagt – mit jeweils 25 % auf die jeweiligen Unterseiten. Wären es fünf Links, dann blieben nur 20 % der Linkpower je Seite übrig. Weniger ist in diesem Fall wirklich mehr.

Jeder interne Link sollte demnach eine klare Berechtigung haben und wohlüberlegt gesetzt werden.

Kerninhalte aka „Cornerstone-Content“

Google führte 2005 das Nofollow-Attribut mit der Absicht ein, Website-Betreibern die Möglichkeit zu bieten, automatisch potenziell „schlechte“ ausgehende Links abzuwerten. Dabei zielten sie vor allem darauf ab, dass Blog- und Forenbetreiber ausgehende Links aus Kommentarfeldern (Linkspam) mit Nofollow versehen, um so auf einen Schlag viele minderwertige Links aus der eigenen Ranking-Berechnung herausnehmen zu können. Damals war es noch üblich durch massenweises und automatisches Kommentieren in Foren und Blogs Links aufzubauen. Das Nofollow-Attribut hat dies weitestgehend unterdrückt. Schlaue SEOs sind jedoch auf den Trichter gekommen und haben das Nofollow-Attribut eingesetzt, um den internen Linkflow zu manipulieren – der Begriff „PageRank-Sculpting“ hielt Einzug in das SEO-Vokabular.

Zuerst hatte Google diese neue Praxis sogar für gut befunden. Nachdem es damit aber einige Websites stark übertrieben hatten, sprach sich Google gegen das PageRank-Sculpting aus. Das Nofollow-Attribut sollte nur noch für Links eingesetzt werden, die wirklich aus der Berechnung herausfallen sollen. Beispielsweise Login-Seiten, Warenkorb- und andere dynamische Bereiche, die auch wirklich keinen Mehrwert für den Google-Bot liefern würden. Interne Contentseiten sollten jedoch nicht mit Nofollow verlinkt werden. Google geht sogar so weit, dass sie potenziell Seiten abwerten, wenn diese intern andere redaktionelle Seiten bzw. für Google relevante Seiten mit Nofollow verlinken. Daher gilt der Vorsatz: PageRank-Sculpting ja, aber nicht mit Nofollow, sondern nur durch das gezielte „Weglassen“ von Links.

Siloisierung

Siloisierung

 

Wenn es darum geht, gezielt Links wegzulassen, um die verbleibenden Links zu stärken, dann ist eine beliebte Strategie die Siloisierung. Hierbei wird die interne Verlinkungsstruktur so aufgebaut, dass Links aus einer Kategorie oder einem Themenbereich nur innerhalb des gleichen „Silos“ verlinken. Alle Unterseiten in den Bereichen Damenschuhe, Herrenschuhe und Kinderschuhe verlinken also nur innerhalb ihrer eigenen Gattung oder Kategorie. Es gibt beispielsweise keinen Link von einem Stiletto zu Kindersandalen oder umgekehrt.

Die Pyramidenstruktur

Die richtige Linkstruktur bzw. Seitenstruktur ähnelt einer Pyramide – sie ist oben spitz und unten breit. Diese Spitze stellt dabei die Startseite dar. Darunter befinden sich die Kerninhalte der Website. Das sind die Inhalte mit den meisten externen Links und den wichtigsten Informationen für die eigene Kunden- bzw. Leserzielgruppe. Dies können Kategorieseiten sein, es können aber auch Seiten sein, die noch wichtigere Informationen zusammenfassen, als typische Kategorieseiten. Von diesen Kerninhalten geht es weiter zu Kategorie- und Produktseiten.

Die Linkpyramide

Die Linkpyramide: Die Startseite verlinkt auf Kerninhalte. Die Kerninhalte verlinken die Kategorieseiten und diese die Produktseiten.

Der Begriff Kerninhalte bezieht sich auf den in der Branche üblichen Begriff „Cornerstone-Content“. Dieser Begriff wurde 2007 von Brian Clark geprägt, der darunter Inhalte versteht, die so wichtig sind, dass sie unbedingt jeder potenzieller Kunde zuerst konsumieren sollte. Für einen Sportler, der neue Fußballschuhe kaufen möchte, ist dies nicht unbedingt die Kategorieseite „Fußballschuhe“. Es sind eher redaktionelle Inhalte, die erklären, welche Überlegungen ein Käufer vor dem Kauf von Fußballschuhen anstellen sollte. Also z. B. Informationen rund um Größenwahl, Bodenbelag und Schuhtyp, Unterschiede zwischen Nocken, Stollen, Multinocken und Hallenschuhen, Pflegehinweise etc.

In Deutschland ist auch der Begriff „Themenseiten“ für Kerninhalte verbreitet. Solchen Themenseiten erfreuen sich immer größerer Beliebtheit und können sowohl von Onlineshops als auch von Newsportalen und allen anderen Websitetypen eingesetzt werden, um die interne Verlinkung zu optimieren.

Themenseiten sind nicht nur wichtig für den Verkauf, sie sind in der Regel auch rankingrelevant und sprechen direkt die Kernzielgruppe an.

Kasenko wird einen Anteil von mindestens 5–10 % des Budgets für die Produktion solcher Themenseiten verwenden.

Interne Ankertexte

Auf der eigenen Website ist der Einsatz von stärkeren Ankertexten („Schuhe günstig kaufen“) erlaubt und auch durchaus sinnvoll. Sowas wäre bei externen Links schon leicht fahrlässig. Dennoch sehen es die Suchmaschinen gar nicht gerne, wenn interne Links willkürlich mit Keywords vollgestopft werden („Schuhe online gut und günstig rote Sneaker“). Das richtige Maß ist hier entscheidend und das muss jede Website/Seite selbst für sich herausfinden. Das Gute ist, dass Google hier relativ schnell mit Rankingerhöhungen bzw. -verlusten reagiert. So lässt sich das richtige Maß schnell ertesten.

Empfehlenswert sind Ankertexte, die ihre Zielseiten gut beschreiben und als Maximum drei bis vier Keywords enthalten, z. B. Marke + Modell / Kategorie + Unterkategorie / Event + Location etc.

Strukturierte Mikrodaten

Was genau wird auf einer bestimmten Seite tatsächlich beschrieben? Das ist gerade für einen Computer oder Algorithmus manchmal nicht so einfach zu bestimmen. Daher haben mehrere Suchmaschinen sich zusammengetan und eine Auszeichnungssprache namens „Microdata“ erfunden. Mit diesen Mikrodaten lassen sich „Dinge“, also Objekte, beschreiben und das unabhängig von der Präsentation, also der optischen Darstellung.

Da diese Mikrodaten die Darstellung der Suchergebnisse beeinflussen, sind sie von enormer strategischer Bedeutung. Mit ihrer Hilfe werden Produkte (Objekte allgemein) nicht nur besser auffindbar, der Suchmaschinennutzer klickt auch mit größerer Wahrscheinlichkeit auf ein Suchergebnis, das mehr relevante Informationen enthält.

Beispiel strukturierter Mikrodaten

 

In diesem Beispiel macht Zalando mit Abstand die beste Arbeit. Die Mikrodaten enthalten Bewertungssterne, die durchschnittliche Bewertung, die Anzahl der Abstimmungsergebnisse, den Preis und die Info, ob der Schuh gerade auf Lager ist.

So funktionieren Mikrodaten mit JSON-LD

Alle Objekte haben Eigenschaften. Zum Beispiel haben Schuhe in der Regel einen Hersteller, eine Farbe und einen Preis. Diese lassen sich mittels schema.org Markup an Suchmaschinen übermitteln. Hier gibt es wiederum viele verschiedene Möglichkeiten (RDFa, Microdata, JSON-LD), die auch alle auf schema.org dokumentiert sind.

Die folgenden Beispiele verwenden JSON-LD, da dieses wohl das Format der Wahl für die meisten Suchmaschinen ist (Google empfiehlt vorzugsweise den Einsatz von JSON-LD).

Der große Vorteil von JSON-LD ist, dass es nicht mit dem herkömmlichen HTML einer Seite vermengt wird, sondern als separater Codeblock existiert. So ist es deutlich übersichtlicher, hier ein Beispiel:

<script type="application/ld+json">
{
  "@context": "http://schema.org/", 
  "@type": "Product", 
  "name": "Turnschuh",
  "image": "http://kasenko.xy/bilder/turnschuh.jpg",
  "description": "Dieser Turnschuh macht Spaß",
  "brand": "Turnschuh-Brand",
  "mpn": "12345-123",
  "aggregateRating": {
    "@type": "AggregateRating",
    "ratingValue": "4.677",
    "bestRating": "5",
    "worstRating": "0",
    "ratingCount": "123"
  }
}
</script>

 

Das Beispiel beschreibt einen Schuh, gibt einen Preis an, listet den Hersteller, liefert eine durchschnittliche Bewertung und zeigt an, dass der Schuh gerade auf Lager ist. Und das alles in einem kompakten Codeblock. Dieser Codeblock wird dann in den Kopfbereich der HTML-Datei eingebettet, sodass Suchmaschinen gar nicht mehr den Rest der Seite einlesen müssen, um genau zu wissen, welches Produkt auf dieser Seite angeboten wird:

<!DOCTYPE html>
<html>
  <head>
    <title>Nike AIR JORDAN 1 MID</title>
    <meta charset="utf-8">
    <meta http-equiv="X-UA-Compatible" content="IE=edge,chrome=1">
    <script type='application/ld+json'> 
    {
      // wie oben
    }
    </script>
  </head>
  <body>
  …
  </body>
</html>

 

 

Merkle Schema Generator

Wer sich die Syntax nicht einprägen kann, der greift auf den Schema Markup Generator (JSON-LD) von Merkle zu. Hiermit lässt sich der Code kinderleicht erstellen.

 

Google Test-Tool für strukturierte Daten

Den generierten Code sollte man immer noch einmal im Google Test-Tool für strukturierte Daten auf Richtigkeit überprüfen.

Welche Objekttypen gibt es?

Produkte sind nicht die einzigen Objekttypen, die mit Mikrodaten ausgezeichnet werden können. Das Team rund um schema.org arbeitet ständig daran, weitere Objekttypen zu integrieren. Nur um mal eine kleine Auswahl an Möglichkeiten aufzuzeigen – es gibt Objekttypen für

  • Events (Konzerte, Konferenzen, Seminare etc.)
  • Organisationsdaten (Hotels, Restaurants, Museen etc.)
  • Breadcrumbs (Sie befinden sich hier: Home / Kategorie / Unterkat.)
  • Erfahrungsberichte (Reiseberichte, Testberichte etc.)
  • Personen (Name, Alter, Beruf etc.)
  • Rezepte (Zutaten, Zubereitungsschritte, Kalorien)
  • Software-Apps (Kategorie, Features, Copyright)
  • Bewertungen (Reviews, Ratings von 1 bis 5, Gesamtbewertungen)
  • Musik (Interpret, Album, Lied, Genre)
  • und viele weitere Einträge

Nicht nur Onlineshops und Eventanbieter profitieren von Mikrodaten. Selbst News- und Ratgeberportale können ihre Beiträge kategorisieren, wie der nächste Screenshot zeigt:

Objekttypen

Es gibt sogar Objekttypen für satirische Artikel!

Rich-Cards

Relativ neu sind Googles Rich Cards. Sie bauen ebenfalls auf den Mikrodaten auf und stellen interessante Möglichkeiten zur Verfügung, optisch dominante Einträge in die Suchergebnisseiten zu bekommen. Google zeigt die meisten Möglichkeiten in der „Search Gallery“.

Rich-Cards Beispiel

Ein Beispiel für ein Rezept, dass direkt ganz oben in den SERPs angezeigt wird.

 

Der folgende Code-Block zeigt an, wie man aus einer Seite Mikrodaten extrahieren kann, denn dies ist bei all dem HTML-Gewusel oft gar nicht so einfach. Ein optisches Tool dafür ist das Microdata-Tool von SEOMoves. Wir erledigen das schneller auf der Kommandozeile mit einem Go-Tool namens Microdata.

$ # Tool installieren (die Programmiersprache Go-Lang muss installiert sein)
$ go get -u github.com/namsral/microdata/cmd/microdata
$ # Daten extrahieren
$ microdata https://www.springlane.de/magazin/rezeptideen/brownies-backen/
{
  "items": [
    {
      "type": [
        "http://schema.org/Recipe"
      ],
      "properties": {
        "author": [
          "Springlane"
        ],
        "cookTime": [
          "PT20M"
        ],
        "description": [
          "Die perfekten Brownies sind weich und saftig, fast noch ein bisschen roh - 'fudgy' eben. Mit diesen 9 Geboten backst du Brownies wie aus Amerika."
        ],
        "image": [
          "https://d12xickik43a9a.cloudfront.net/images/magazine/de/M36201-Brownies-Grundrezept_featured-Q75-375.jpg"
        ],
        "ingredients": [
          "130 g Butter",
          "270 g Zartbitterschokolade",
          "50 g Muscovado Zucker",
          "90 g Zucker",
          "60 g Mehl",
          "40 g Kakao",
          "3  Eier",
          "1/2 Teelöffel Natron",
          "1/4 Teelöffel Backpulver",
          "Eckige Backform (24 x 24 cm)"
        ],
        "name": [
          "Die 9 Gebote saftiger Brownies – So werden sie immer schön ‚fudgy‘"
        ],
        "prepTime": [
          "PT40M"
        ],
        "recipeInstructions": [
          "1. Schokolade mit Butter schmelzen. Zucker und Muscovado Zucker darunterschlagen, auskühlen lassen.",
          "2. Backofen auf 175 °C vorheizen. Backform einfetten.",
          "3. Mehl mit Kakao, Natron und Backpulver mischen, beiseitestellen.",
          "4. Eier mit der Schokoladen-Butter-Zucker-Mischung kurz schaumig schlagen.",
          "5. Mehl-Kakao-Mischung so lange unterrühren, bis gerade so ein Teig entsteht. In die Backform geben und im heißen Ofen 19-22 Minuten backen."
        ],
        "recipeYield": [
          "für 9 Portionen"
        ]
      }
    }
  ]
}%

 

Es steht außer Frage, dass auch Kasenko viel Zeit und Energie in die richtige Auszeichnung von Produkten investieren wird. Und das gilt nicht nur für Produkte, sondern auch in die Kategorisierung von Contentbeiträgen. Mikrodaten, Rich Snippets und Cards sind unglaublich mächtige Möglichkeiten Suchende von den Suchergebnisseiten zu gewinnen. Um hier mitzuspielen, ist es nötig entsprechende Software anzupassen und Datenbankfelder zu schaffen, die es ermöglichen, Mikrodaten zu hinterlegen. Populäre CM- und Onlineshop-Software bieten heute schon ausreichend Plugins dafür.

 

Speed: Schnelle Seiten ranken besser

Google hat schon 2010 bekannt gegeben, dass die Schnelligkeit einer Seite einen Rankingfaktor darstellt. Dabei geht es bei der Optimierung der Ladezeit einer Seite hauptsächlich darum, dass eine gewisse Zeit nicht überschritten wird. Es gibt hierzu verschiedene Quellen, als guter Wert wird alles betrachtet, dass nicht länger als zwei bis drei Sekunden lädt. Es geht in erster Linie darum, dass Website-Besucher nicht abspringen, weil sie zu lang auf das erste Anzeigen einer Seite warten müssen. Denn das würde die Zufriedenheit der Suchmaschinennutzer negativ beeinträchtigen. Niemand möchte länger als „ein paar“ Sekunden darauf warten, dass etwas lädt.

Zu bedenken ist hier auch, dass Google vor allem Mobilnutzern damit helfen möchte. Wer schon mal unterwegs dringend auf einer Website etwas nachschlagen musste und eine schlechte Verbindung hatte, der weiß, wie es sich anfühlt, viele Sekunden (10+) oder gar Minuten auf das Laden einer Seite zu warten.

Die Geschwindigkeitsoptimierung ist daher unweigerlich ein wichtiger Bestandteil einer ultimativen SEO-Strategie.

Geschwindigkeit testen

Google selbst bietet ein Tool zur Messung der Seitengeschwindigkeit an. Mit den PageSpeed Insights lässt sich ermitteln, welche Engpässe eine Seite vorweist. Das Tool gibt auch gleichzeitig Tipps, wie sich die gefundenen Engpässe optimieren lassen. Witzigerweise schneidet gerade Googles [eigene Seite über dieses PageSpeed-Tool] nicht sonderlich gut ab:

PageSpeed Insights

Nur 67/100 Punkten. Da muss Google nochmal ran.

Die wichtigsten Hebel für eine optimale Ladegeschwindigkeit

Es gibt unzählige Methoden eine Website schneller zu machen. Welche hiervon die Wichtigsten sind, zeigt die folgende Liste:

  • Datenkompression aktivieren: Die meisten Webserver unterstützen Datenkompression mittels Gzip. Eine Seite besteht vielleicht aus 100 KB reinem Text. Der Webserver kann diesen Text im Reinformat an einen Browser schicken oder vorher komprimieren. Das ist in etwas so, als würde der Webserver die HTML-Datei erst einmal zu einer ZIP-Datei machen und sie dann verschicken. Der Browser empfängt diese Zip-Datei, entpackt sie und zeigt sie erst dann an. Nicht selten ist die Datei 70–80 % kleiner und daher 4– bis 5-mal schneller am Ziel. Neben HTML-Dateien werden auch CSS- und JS-Dateien gepackt. Dabei ist es wichtig Gzip nicht auf Bild-Dateien (JPG, GIF, PNG) anzuwenden. Das funktioniert zwar (die Bilder werden angezeigt), die Dateien sind aber meist schon komprimiert und werden durch das neue komprimieren größer als vorher!
  • Bilder und Medien bieten oft das größte Optimierungspotenzial. Sie müssen jedoch in Programmen wie Photoshop verkleinert werden. Auch auf dem Server gibt es Programme wie ImageMagick und andere Tools, die beim automatisierten Verkleinern helfen.
  • CSS-, JavaScript- und HTML-Dateien reduzieren. Diese Dateien profitieren davon, wenn sie vor dem Komprimieren mittel Gzip von unnötigen Zeichenfolgen befreit werden. Dazu gehören Leerzeichen, Kommas, Kommentare in CSS- und JS-Dateien, ungebrauchte Codefragmente und andere unnötige Zeichenfolgen. Für große Websites lässt sich das ideal programmierseitig lösen. Kleinere Websites können den Empfehlungen Googles folgen und eines der Tools dort
  • Redirects vermeiden: In manchen Situationen, häufig aufgrund gewachsener Strukturen, mehrfachen Relaunches, haben einige Websites mehrfache Redirects. Jeder Redirect verursacht dabei weitere Wartezeiten für den User. Sie sollten demnach weitestgehend vermieden werden.
  • Browser-Caching: PageSpeed Insights überprüft, ob eine Seite entsprechende Header sendet, die auf die Nutzung des Browser-Cachings hinweisen. Browser cachen (zwischenspeichern) viele Ressourcen, damit sie nicht immer wieder von neu geladen werden müssen. Darunter fallen CSS- und JavaScript-Dateien, aber auch Bilder und viele andere Dateitypen. Gesteuert wird das Caching über den HTTP-Header „expires“. Über ihn teilt der Webserver dem Browser mit, wann er das nächste Mal die entsprechende Ressource runterladen soll. Wenn sich die Dateien und das Design einer Seite nicht ständig ändern, dann sollte hier ein Wert verwendet werden, der weit in die Zukunft zeigt. Empfehlenswert ist ein Jahr. Weitere Informationen zum Caching finden sich ebenfalls bei Google.
  • Antwortzeiten des Servers: Die Zeit zwischen der Anfrage eines Browsers und der Antwort des Servers (dem ersten Byte) nennt sich Serverantwortzeit (Server Response Time). Je mehr ein Server zu tun hat, desto langsamer ist diese Antwortzeit. Hier ist der Hoster bzw. das technische Team gefragt, die hierzu eine ganze Reihe an Optimierungen vornehmen können. Hierzu gehören sowohl interne Programmieroptimierungen (langsame Datenbankabfragen) und Caching, aber auch die Auswahl guter Serverhardware bzw. die Optimierung der technischen Infrastruktur. Idealerweise bleibt die Antwortzeit unter 200ms.
Bitcatcha Server Speed Checker

 

Mit Bitcatcha lässt sich die Serverantwortzeit schnell ermitteln. Wie sich sehen lässt, ist google.de sehr schnell, hat jedoch keine gute Anbindung an Australien. Keine guten Nachrichten für Deutsche, die z. B. dort Urlaub machen und google.de benutzen wollen.

  • Content-Distribution-Netzwerke: Sogenannte CDNs helfen dabei die Antwortzeit und die Geschwindigkeit der Serverantworten zu beschleunigen. Sie gibt es als Bezahldienste und auch als Open-Source-Lösung zum Selberbetreiben. Diese CDNs spiegeln die Inhalte einer Website und legen sie auf einen Server, der sich in einem anderen Land befindet. Dies ist nicht nur für die internationale Kundschaft wichtig. Viele Kunden reisen international oder machen z. B. Urlaub auf Mallorca. Mit einem Server in (der Nähe von) Mallorca könnte eine Seite deutlich schneller ausgeliefert werden. Mehr Infos und einige Anbieter hierzu finden sich im Ryte-Wiki.
  • Bilderoptimierung: Bilder sollten nur so groß sein wie nötig. Es lohnt sich hier mit den Qualitätseinstellungen in den jeweiligen Programmen (z. B. Photoshop) zu experimentieren. Aber auch das Wissen um das richtige Bildformat kann eine Datei deutlich verkleinern. Grafiken mit einer begrenzten Anzahl an Farben, wie z. B. Screenshots oder Illustrationen, sind als PNG oder GIF deutlich kleiner als unter Verwendung von JPG. Im Zweifel einfach mehrere Formate ausprobieren.
  • Reduktion der Unteranfragen: Jede HTML-Seite besteht mindestens aus ein wenig (HTML-)Text. Sobald sie entweder grafisch designt wird oder aber Interaktivität hinzukommt, werden HTML-Seiten um CSS und JavaScript ergänzt. Solche Anweisungen können direkt in die HTML-Datei eingebettet werden. Sobald eine Website aus mehr als einer Seite besteht, lohnt es sich, diese Informationen in eigene Dateien auszulagern. So entstehen HTML-Dateien, die teils Dutzende CSS- und JS-Dateien „nachladen“. Dadurch entstehen bei jedem Seitenaufruf weitere „Unteranfragen“. Aufgrund der Art und Weise wie im WWW Dateien übertragen werden (HTTP), lädt der Browser nur jeweils zwei Dateien gleichzeitig. Wenn eine Seite also fünf Unterabfragen (UA) hat, dann lädt der Browser erst UA1+UA2, dann UA3+UA4 und dann erst UA5. Dies ist eine Beschränkung des HTT-Protokolls Version 1, die durch HTTP/2 (Version 2) aufgehoben wird. Da HTTP/2 noch nicht überall verbreitet ist (< 20% in 2017), empfiehlt sich auf jeden Fall eine Zusammenfassung der Dateien. So wird dann z. B. aus den drei Dateien css, farben.css und layout.css einfach eine Datei style.css. Mehr Infos zu HTTP/2 weiter unten.
  • CSS-Sprites: Über CSS-Anweisungen werden oft viele kleine Grafiken zur Verzierung einer Seite geladen. Zum Beispiel das Logo, Listenpunkte, Ecken und Kanten, Linien und viele andere kleinere Grafiken. Statt diese Dateien alle einzeln zu laden, können sie auch auf einer größeren Trägergrafik eingebettet werden. Dann wird diese Trägergrafik geladen und nur noch die Position der kleinen Grafik „angesprungen“. Auch das reduziert die Anzahl der Anfragen. Wie genau das funktioniert, erklärt SELFHTML.
  • Render-Blocking vermeiden: Bei der Optimierung der Ladezeiten einer Seite kommt es weniger auf die Zeit an, die ein Dokument braucht, um komplett zu laden. Es geht eher darum, dass der Besucher so schnell wie möglich die Informationen angezeigt bekommt, die „oben“ auf der Seite stehen. Eine Seite muss demnach nicht insgesamt schnell laden, sondern den oberen Bereich so schnell wie möglich anzeigen. (Beides zusammen ist natürlich optimal, aber nicht immer realisierbar). Wenn der Browser eine Seite besucht, dann hat er beim Einlesen und Anzeigen eine bestimmte Reihenfolge. Er liest zuerst die Informationen, die im <HEAD>-Bereich der Seite stehen. Erst wenn er mit der Auswertung aller Anweisungen aus diesem Bereich fertig ist, zeigt der Browser die ersten Farben, Layouts und Texte an. Es empfiehlt sich also nur die allernötigsten Anweisungen dort unterzubringen. Danach liest der Browser den <BODY>-Bereich der Seite und arbeitet alles von oben nach unten ab. Wenn also zum Beispiel ein JavaScript ganz oben geladen wird, dann „blockt“ der Browser das Anzeigen (Rendering) der Seite. Wenn es jedoch möglich ist, das Laden solcher Skripte und anderen Anweisungen nach unten zu verschieben, dann kann der Browser die Seite schneller anzeigen.

    Falsch: <body><script src="lange-ladendes-skript.js">…
    Richtig: …<script src="lange-ladendes-skript.js"></body>
  • Lazy-Loading: Wenn eine Seite sehr lang ist oder viele Ressourcen nachlädt, wie z. B. dieser Guide, dann empfiehlt es sich Bilder und andere Medien erst zu laden, wenn der Leser an die entsprechende Stelle scrollt. Diese Technik nennt sich Lazy-Loading und hat den Vorteil, dass sie auch weniger Bandbreite verursacht. Wenn eine Seite untereinander 10 Bilder darstellt, aber der Leser nur bis zum dritten Bild runterscrollt, dann werden die Bilder 4–10 erst gar nicht geladen. Lazy-Loading lässt sich beispielsweise mit bLazy.js implementieren. Für CM-Systeme und Onlineshop-Software gibt es entsprechende Plugins.

HTTP/2: Die Zukunft der Datenübertragung im Web

Im vorherigen Abschnitt war bereits die Rede von einer Limitierung bei der Übertragung von Dateien über das mittlerweile stark in die Jahre gekommene HTTP Version 1.1 – es stammt aus dem Jahr 1999. Das neue HTTP/2 behebt viele der Probleme der ersten Version und bringt auch aus SEO-Sicht einige interessante Neuerungen.

HTTP/2 verbreitet sich rasant und löst das alte Protokoll ab. Der Fortschritt lässt sich gut auf IsTheWebHTTP2Yet.com beobachten.

Die neue Version ist hauptsächlich dazu da, die Performanz von Webseiten und Applikationen zu verbessern. Alle modernen Browser unterstützen das Protokoll. Hier ist eine Auswahl der wichtigsten Features:

  • Multiplexing: Wo bei HTTP 1.1 noch für jede Anfrage ein eigener „Kanal“ geöffnet wurde, so regelt das HTTP/2 alles über eine Leitung. Wenn also z. B. mehrere CSS-Dateien geladen werden sollen, dann passiert das alles parallel und über eine Verbindung. Der Browser kommt sozusagen auf der Seite an uns sagt symbolisch: „Jetzt schieb einfach alles rüber, was du hast“. Das spart eine Menge Zeit, denn bei einzelnen Requests muss der Browser ja jedes Mal warten bis der Server antwortet. Die Serverantwortzeit fällt also nur noch einmal an.
  • Server-Push: Sollte der Browser eine Seite anfragen, dann kann der Server entscheiden, welche CSS- und JS-Dateien beim Browser in den Cache wandern. Der Server muss also nicht darauf warten, ob der Browser eine Anfrage stellt, sondern er gibt selbst vor, welche Anfragen zu stellen sind. Es sagt symbolisch: „Wenn du diese Seite laden möchtest, dann brauchst du auf jeden Fall schonmal die Dateien css, farben.css und layout.css. Diese habe ich dir gerade schonmal in den Cache gelegt. Bitte schön.“ Die passende Anweisung wird über den Header gesendet, z. B. so:
    Link: </fonts.css>; rel=preload; as=style,
    </farben.css>; rel=preload; as=style,
    </layout.css>; rel=preload; as=style (auf einer Zeile). Das kann z. B. über die Programmiersprache und zugehörige Frameworks (PHP, Node.js, Ruby, Python …) oder eine Anweisung einer Webserverkonfigurationsdatei (.htaccess) passieren. Sehr ausführliche Informationen über Server-Push gibt es im SmashingMagazine: A Comprehensive Guide To HTTP/2 Server Push.
  • Priorisierung von Streams: Der Server kann vorgeben, welche Daten zuerst und welche später geladen werden soll. Dafür bekommt jeder Kanal eine Priorität zwischen 1–256 zugewiesen. So können wichtige Dateien zuerst übermittelt werden.
  • Außerdem komprimiert HTTP/2 die Headerinformationen und ist für den Server leichter zu verarbeiten.

Wer noch mehr über HTTP/2 lernen möchte, für den bietet Google eine sehr gute Einführung, die kaum Fragen offenlässt: Introduction to HTTP/2. Die BBC hat außerdem dieses Jahr ihre komplette Website auf HTTP/2 umgerüstet. Ein Bericht über die Vorteile: HTTP/2 is easy, just turn it on…

Fazit zur Geschwindigkeitsoptimierung

Außer Frage steht, dass die Umstellung auf HTTP/2 für SEOs von großer strategischer Bedeutung ist. Alles stets am Laufen zu halten und dafür zur Sorgen, dass keine Performanz-Probleme auftreten, ist ein großer Job. Denn es ist nicht damit getan, einmal alles richtig einzustellen. Je mehr eine Website wächst, desto mehr Prozesse müssen implementiert und ständig überwacht werden.

Es gibt tatsächlich noch viele weitere Möglichkeiten die Ladezeit zu verbessern. Passende Buchempfehlungen und weitere Infos finden sich zum Beispiel auf websiteoptimization.com und im Moz-Beitrag „How to Achieve 100/100 with the Google Page Speed Test Tool“.

Das Tool sitespeed.io liefert alle Werkzeuge, die für eine professionelle Analyse notwendig sind. Es ist allerdings nur für Leute geeignet, die sich auf der Kommandozeile wirklich gut auskennen und nicht davor zurückschrecken hunderte Seiten Dokumentation zu lesen. Der Einsatz lohnt sich.

 

Sicherheit: Sichere Seiten ranken besser

Google möchte das Web zu einem sichereren Ort machen. In diesem Zuge haben sie 2014 angekündigt, dass die Verschlüsselung der Datenübertragung via HTTPS sogar ein Rankingsignal darstellt. Wer HTTPS benutzt, der hat also etwas bessere Chancen oben zu ranken. Und so stellt sich Google das vor:

  • Man entscheide sich zwischen einem Single, Multi-Domain- oder Wildcard-Zertifikat.
  • Das Zertifikat sollte mit mindestens 2048-Bit verschlüsselt sein.
  • Ideal sind relative URLs für die interne Verlinkung, also /kategorie1 statt https://website.xy/kategorie1.
  • Wer die eigene Website noch ohne Verschlüsselung betreibt, der muss die URL-Struktur verändern. Es ist hier sehr wichtig alle URLs mit einer 301-Weiterleitung zu versehen. Ideal ist, wenn die gesamte Website ausschließlich mit HTTPS betrieben wird.
  • Selbstverständlich sollte man die HTTPS-Version der Website nicht in der robots.txt oder mit dem Meta-Tag robots="noindex" sperren.
  • Mit Qualys SSL-Server-Test lassen sich bestehende Zertifikate überprüfen.

Aus strategischer Sicht ist die Verwendung von HTTPS ein No-Brainer. Gerade Websites, die vertrauensvolle Informationen entgegennehmen, z. B. Onlineshops, sollten HTTPS grundsätzlich verwenden. Mit Let's Encrypt steht sogar ein kostenloser Service für die Erstellung von Zertifikaten zur Verfügung.

 

Onpage-Optimierung: Die Basics und Beyond

Anatomie einer optimierten Seite

Die Anatomie einer perfekt optimierten Seite

 

Die Grundlage der Suchmaschinenoptimierung ist der Text und wie er auf der Seite steht. Dabei spielen die Keywords eine herausragende Rolle. Allerdings reicht es heute bei Weitem nicht mehr, ein Keyword so oft wie möglich zu wiederholen. Vielmehr kommt es darauf an, die Basics richtig umzusetzen. Sie dienen als Form, in die nur noch „guter Content“ gegossen werden muss. Was guten Content ausmacht, dazu später mehr. Es folgen die wichtigsten Techniken zur Onpage-Optimierung:

Einzigartige Inhalte

Wenn eine Seite gute Rankings erzielen soll, dann müssen ihre Inhalte einzigartig sein (Unique Content). Das gilt für den gesamten Text einer Seite, egal ob dieser sichtbar ist, wie der Titel und der Body-Text, oder nicht, wie z. B. der Text für die Meta-Description, der nur auf der Suchergebnisseite sichtbar ist. Ansonsten droht eine Duplicate-Content-Aussortierung – Google zeigt die Seite nicht mehr in den Suchergebnissen.

Für kleinere Websites stellt dies oft kein Problem dar. Wenn es aber um Texte für Abertausende von Produktseiten in einem Onlineshop geht, dann kann dies schnell sehr teuer werden oder lange dauern. Es führt aber kein Weg daran vorbei. Eine Priorisierung nach wirtschaftlichen Kriterien kann hier durchaus Sinn machen. Zuerst werden die Produktseiten umgeschrieben, die am meisten „bringen“.

Der Seitentitel

Der Seitentitel (<title>-Tag) gilt als einer der wichtigsten Faktoren bei der Onpage-Optimierung. Er ist idealerweise 50 bis 60 Zeichen lang und verwendet das zu optimierende Keyword ein Mal. Je weiter vorne es steht, desto besser.

Der ideale Aufbau des Seitentitels:

Inhalt der Seite zusammenfassen → Keywords verwenden → zum Klicken bewegen → Brand anhängen.

Die Meta-Description

Die Meta-Description verwendet Google als Snippet-Text – nicht immer, aber oft. Der Text für die Meta-Description soll den Titel ergänzen und idealerweise als Handlungsaufforderung formuliert sein. Hier hat jede Seite eine eigene Chance, den potenziellen Besucher zum Klick zu animieren.

Suche nach Damen Stiefeletten

Google-Suche nach „Damen Stiefeletten“

 

Die ersten drei Ergebnisse der Google-Suche nach „Damen Stiefeletten“. Zalando gewinnt trotz zu langem Text (s. u.) und differenziert sich durch den Einsatz von Mikrodaten. Deichmann fordert zum Kauf auf und Mirapodo optimiert mit niedlichen Unicode-Zeichen (❤ und ✓) und Vorteilsargumentation.

 

<meta name="description" content="Frühling, Sommer, Herbst und Winter - Stiefelleten für Damen sind stylishe Alleskönner und immer eine Investition wert | Die neusten Trends online">

 

Der Quelltext der Zalando Seite zeigt, dass Google hier den Text 1:1 übernommen, jedoch gekürzt hat. Ob die Phrase „Die neusten Trends online“ unbedingt notwendig ist? Insgesamt fällt auf, dass Zalando etwas weniger optimiert aussieht.

Die ideale Länge der Meta-Description liegt zwischen 90 und ca. 160 Zeichen. Circa deswegen, weil es keine Feste Buchstabenzahl ist, sondern auf die Pixelbreite der Ziffern ankommt (mmm ist breiter als iii). Außerdem kommt es natürlich auch auf das jeweilige Endgerät an.

Aufbau der Meta-Description:

Weitere Infos zur Seite → Verwendung der Suchbegriffe (weil sie von Google gefettet werden) → zum Klicken motivieren.

Überschriften

Nicht nur Scanner profitieren von Überschriften, die Texte besser gliedern. Suchmaschinen könnten Keywords in Überschriften auch leicht höher gewichten, als im Fließtext. Daher bieten Überschriften eine gute Gelegenheit wichtige Keywords zu wiederholen oder aber Variationen und Kombinationen von Keywords einzubauen.

<h1>Damen-Sandalen</h1>
…
  <h2>Sandalen ohne Absatz</h2>
  …
    <h3>Riemchen-Sandalen ohne Absatz</h3>
    …
    <h3>Römer-Sandalen ohne Absatz</h3>
    …
  <h2>Sandalen mit Absatz</h2>
  …
    <h3>Riemchen-Sandalen mit Absatz</h3>
    …
    <h3>Römer-Sandalen mit Absatz</h3>
    …
  <h2>Sandalen kombinieren</h2>
  …

 

Das <H1>-Element darf mehrmals im Dokument vorkommen. Danach die <H2>–<H6> verwenden und den Text durch geschickten Einsatz von Überschriften so aufbrechen, dass ein Leser den Sinn des Textes idealerweise „erfassen“ oder „vermuten“ kann, wenn er nur die Überschriften liest.

Die URL

Die URL (Unified-Ressource-Locator) ist die Adresse, unter der eine Seite erreichbar ist: https://website.xy/kategorie1. Diverse Studien und Tests zeigen immer wieder, dass kürzere URLs leicht besser abschneiden. Insgesamt wird der Einfluss von URLs nicht als sehr stark angesehen. Aber auch für den Nutzer sind kurze, aussagekräftige URLs angenehmer. Und was für den Nutzer gut ist, das mag in der Regel auch die Suchmaschine.

Gut: https://website.xy/nike-air
Weniger gut: https://website.xy/sportschuhe/basketballstiefel/nike-air

Weniger ist bei URLs ebenfalls mehr.

Weitere Regeln für URLs:

  • Am besten immer alles klein schreiben.
  • Wörter mit Bindestrich trennen, nicht mit Unterstrich.
  • Keine Umlaute, keine Spezialzeichen.

Google wird zwar immer besser darin, auch mit diesen Ausnahmen umzugehen. Wer jedoch auf Nummer sicher gehen möchte, der hält sich an diese einfachen Regeln.

Verwandte Suchbegriffe

Die wichtigsten Keywords gehören selbstverständlich auf jede Seite. Aber sie sollten sich nicht zu oft wiederholen. Was lässt sich dagegen unternehmen?

Grundsätzlich geht es heutzutage darum, wertvolle Inhalte zu schaffen (siehe weiter unten). Oft liegt der „Wert“ (wie in wertvoll) darin, ein Thema so umfassend zu bearbeiten, dass der Leser eben nicht auf 10 weitere Seiten surfen muss, um das infrage stehende Thema ganz oder gut genug erfassen zu können. Schon alleine deswegen ist es unumgänglich, sich verwandter Suchbegriffe zu bedienen. Denn nur durch sie kann ein Text entstehen, der umfangreich und damit wertvoll genug ist, ohne dabei das Hauptkeyword zu oft zu wiederholen.

Ähnliche Suchanfragen

Ähnliche Suchanfragen finden sich ganz unten unter den Ergebnissen. Hier die Begriffe zur Suche nach „Stilettos“

Bildeinbindung optimieren

Bilder lassen sich seit HTML5 (s. u.) auf zweierlei Weise einbauen.

Der alte Weg: Mit dem <img>-Element.

<img src="img/name-des-bildes-mit-keyword.jpg" alt="Keyword">

 

Zwei Dinge sind hier zu beachten. Das Keyword sollte im Dateinamen bereits vorkommen. SEO-üblich werden alle Buchstaben klein geschrieben, alles mit Bindestrichen getrennt und Umlaute umgewandelt (ä → ae, ß → ss).

Der Text des Alt-Attributes beschreibt, was auf dem Bild zu sehen ist und sollte dabei auch Keywords enthalten.

Der neue Weg: Mit dem <figure>-Element

HTML5 hat das <figure>-Element ins Leben gerufen, welches als eine Art semantisches Wrapper-Element ein <img>-Element „einwickeln“ kann. Der Vorteil ist, dass so deutlich mehr Informationen über ein Bild hinterlegt werden können.

<figure>
  <img src="img/name-des-bildes-mit-keyword.jpg" alt="Keyword">
  <figcaption>
    Im Caption-Bereich können unterschiedliche Informationen untergebracht werden, die auch <a href="#">Links enthalten</a> können und z. B. Keyword1 und Keyword2 einsetzen.
  </figcaption>
</figure>

 

Das <figure>-Element bietet also aus SEO-Sicht Vorteile und sollte Vorzug finden, auch wenn noch nicht 100 % klar ist, ob die Suchmaschinen die Infos aus <figcaption>-Element dem Alt-Attribut vorziehen. Da das <figure>-Element beide Optionen vereint, sollte dies aber kein Problem darstellen.

HTML 5

Die schöne neue Welt des HTML5s bietet allerdings noch weitere Möglichkeiten für den SEO. Diese Elemente helfen dabei, den Quellcode noch semantischer und damit SEO-freundlicher zu gestalten:

  • <article> kann mehrfach in einem Dokument eingesetzt werden und soll als Container für die Kerninhalte einer Seite fungieren. Allerdings gehören hier nicht nur Blogposts oder Artikel hinein. Auch Produktbeschreibungen und ähnliche Inhalte dürfen in das Element.
  • <section> dient dazu eine Seite in verschiedene Bereiche einzuteilen. Dieses Element kann innerhalb und außerhalb eines <article>-Elementes genutzt werden, um den Content in viele verschiedene Sektionen einzuteilen. Im Prinzip funktioniert <section> so wie die Kapitel in einem Buch. Allerdings kann die Einteilung auch deutlich kleinteiliger ausfallen.
  • <header> kann sich sowohl auf den Kopfbereich einer Seite beziehen, als auch innerhalb von <article> den Kopf eines jeweiligen Bereiches enthalten, z. B. eine Einleitung oder Überschriften.
  • <hgroup> dient zum Verbinden von Überschriften, z. B. so, dass eine Headline mit einer Unter-Headline verbunden wird. Erlaubt sind hier die üblichen <h1>–<h6>-Tags. Beispiel:
    <hgroup>
         <h1>Sandalen</h1>
         <h2>Für den Sommer</h2>
    </hgroup>
  • <footer> spiegelt den <header>-Tag wider. Nur eben unten im Artikel/Seitenbereich. Hier findet sich oft eine Navigation, aber auch die Autoreninformationen.
  • <nav> ist ein Container für die Seitennavigation, aber auch Vor- und Zurücklinks können hier untergebracht sein.
  • <aside> ist für Inhalte vorgesehen, die zum Hauptinhalt gehören, aber eine untergeordnete Rolle spielen. Es macht Sinn hier eine Sidebar unterzubringen. Aber auch Infoboxen mit weiterführenden Informationen innerhalb eines <article> passen hier gut herein.

Fazit zur Onpage-Optimierung

Für sich genommen, macht jede dieser einzelnen Facetten vielleicht nicht viel aus. Der ein oder andere denkt sich wahrscheinlich bei der Lektüre: „Also ich fange jetzt nicht noch an extra wegen SEO semantisches HTML5 zu verwenden.“ Aus strategischer Sicht ist dies sicher kein idealer Ansatz. Wer denkt, dass es reicht nur den Titel richtig auszufüllen, der wird nicht viele Erfolge feiern. So viel hat die Vergangenheit jedenfalls schon oft gezeigt. Vielmehr kommt es bei der Onpage-Optimierung darauf an, wirklich jedes mögliche Register zu ziehen. Google behauptet (nicht als einzige Suchmaschine), dass sie im Jahr viele Hundert Änderungen am Algorithmus vornehmen. SEOs können also nie wissen, welche Neuerungen Google gerade testet. Daher ist es wichtig grundsätzlich alles (oder so viel wie möglich) zu optimieren und zu testen, was funktioniert und was nicht.

 

Content

„Content is king“ heißt es immer so schön. Was die Suchmaschinenoptimierung betrifft, so stimmt das auch. Denn ohne Content gibt es schlichtweg keine Rankings. Diese Sektion widmet sich daher einer zentralen Fragestellung:

Wie müssen Inhalte aussehen und strukturiert sein, damit sie hohe Rankings erzielen können?

Der ehemalige Chef des Webspam-Teams bei Google Matt Cutts hat es schon 2010 wunderbar auf den Punkt gebracht. In einem Interview mit Eric Enge antwortete Matt auf die Frage hin, ob jede zu indizierende Seite viel Text enthalten sollte nur lapidar:

Ja, das ist wahr. Die meisten Seiten sollten echte Produkte mit viel Text enthalten.

Im Original:

Yes, that’s true. You really want to have most of your pages have actual products with lots of text on them.

Wertvolle Inhalte

Auch heute noch steht außer Frage, dass Google sich wertvolle Inhalte wünscht. In Googles Worten differenzieren sich wertvolle Inhalte auf fünf Ebenen. Dort steht:

Nützlich und informativ

Wenn Sie eine Website für ein Restaurant erstellen, können Sie den Standort, die Öffnungszeiten, Kontaktinformationen, die Speisekarte und ein Blog einbinden, in dem Sie Veranstaltungen ankündigen.

Eine Website muss also Basisinformationen bereithalten, die den Betreiber dahinter klar identifizieren, das Geschäft erklären und über die Produkte informieren.

Wertvoller und nützlicher als andere Websites

Wenn Sie über Hundeerziehung schreiben, achten Sie darauf, dass Ihr Artikel einen Mehrwert oder eine andere Perspektive im Vergleich zu den vielen anderen Online-Artikeln zur Hundeerziehung bietet.

Was genau wertvoll bedeutet, dass beschreibt Google nicht. Aber es ist klar, dass jeder Website-Betreiber stets versuchen muss, besser als alle anderen zu sein. Jeder Contentbetreiber muss sich demnach anschauen, welche Beiträge es zu den eigenen Themen im Netz bereits gibt und dann eigene Beiträge veröffentlichen, die alle anderen Onlineartikel (qualitativ und quantitativ) übertreffen – oder einen anderen Blickwinkel anbieten.

In der Praxis dürfte das bedeuten, dass Contentbeiträge

  1. im Umfang wachsen,
  2. besser formuliert sind und
  3. die Darstellung und Erzählweise kreativer ist, als bisher.

Glaubwürdig

Demonstrieren Sie die Glaubwürdigkeit Ihrer Website anhand von originärer Forschung, Zitaten, Links, Bewertungen und Kundenmeinungen. Eine Autorenbiographie oder Meinungen von echten Kunden können dazu beitragen, die Vertrauenswürdigkeit und den Ruf Ihrer Website zu stärken.

Hier verstecken sich eine ganze Reihe an Hinweise:

  • Man solle eigene Forschung anstellen und diese auch belegen, und zwar mit „Links“. Das hiermit (nicht nur) interne Links gemeint sind, sollte klar sein. Hier steckt ein klarer Aufruf enthalten, auch externe Quellen dazu zu verwenden, eigene Thesen zu belegen. Wer so publiziert, zeigt, dass er glaubhafte Informationen verbreitet, indem er nach außen verlinkt. Google will, dass wir nach außen verlinken!
  • Bewertungen und Kundenmeinungen demonstrieren nicht nur zusätzlich die Glaubwürdigkeit. Weitere Informationen über die Autoren des Inhaltes steigern die Vertrauenswürdigkeit und die Reputation der Website. Wenn andere Gutes über die eigene Website oder Organisation zu sagen haben, dann soll das ein Website-Betreiber auch klar und deutlich auf der eigenen Website darlegen.

Hochwertig

Die Inhalte Ihrer Website sollten einzigartig, spezifisch und hochwertig sein. Ihre Inhalte sollten keine ,Massenware’ sein oder auf diversen anderen Websites erscheinen. Bedenken Sie, dass Ihre Inhalte in erster Linie Besuchern eine positive Erfahrung bieten und nicht nur gut in den Suchergebnissen abschneiden sollen.

  • Einzigartig: Der Wortlaut des Textes ist „unique“. Die Art und Weise, wie der Text formuliert ist, kommt nur einmal im gesamten Web vor.
  • Spezifisch: Der Text geht ins Detail. Das Thema wir umfassend behandelt und nicht nur angekratzt.
  • Hochwertig: Was das in Bezug auf Content bedeutet, ist ganz unterschiedlich. Es bezieht sich aber sicher nicht nur auf die inhaltliche Güte, sondern auch auf hohe Produktionswerte.
  • Massenware: Warum jemand Content als Massenware produzieren wollte, ist erstmal unklar. Bis man in die Historie der Suchmaschinenoptimierung sieht und feststellt, dass das genau ist, was die meisten SEOs seit Ende des 90er-Jahre gemacht haben. Solange Keywords in einem Text vorkommen, kann der Inhalt an sich auch einfach grober Wortschrott sein. Das hat mal funktioniert…
  • Wenn Content einzigartig sein soll, dann kann er natürlich nicht auf „diversen anderen Websites erscheinen“.
  • User-Experience: Inhalte sind „zuerst“ einmal da, um Besucher zu befriedigen. Und nicht etwa „nur“, um gut in den Suchmaschinen zu ranken. Auch das sollte „eigentlich“ selbstverständlich sein. Ist es aber keinesfalls, wenn man sich den Großteil vieler kommerziellen Suchergebnisse anschaut.

Ansprechend

Bringen Sie Farbe und Leben auf Ihre Website, indem Sie Bilder Ihrer Produkte, Ihres Teams oder von sich selbst einbinden. Achten Sie darauf, dass Besucher nicht durch Rechtschreibfehler, stilistische und sachliche Ungenauigkeiten irritiert werden. Auch eine sehr hohe Anzahl an Anzeigen kann störend auf Besucher wirken. Bleiben Sie im Dialog mit den Nutzern, indem Sie über regelmäßige Neuigkeiten, Kommentarfelder und Widgets für soziale Medien mit ihnen interagieren.

Das Ganze soll jetzt auch noch schön aussehen und:

  • Google erwähnt hier Bilder, meint damit aber höchstwahrscheinlich auch andere Medien (Video, Audi, Interaktivelemente). Wer sich über Bilder identifiziert, der macht den Content damit noch besser.
  • Sogar Grammatik und Rechtschreibung sind wichtig – ein guter Sprachstil ausschlaggebend und fachliche Fehler unerwünscht.
  • Wer zu viel Werbung auf der Seite hat, der stört seine Besucher.
  • Regelmäßige News zum Unternehmen und zu den Produkten sind erwünscht.
  • Interaktivität in Form von Kommentaren auf der Website wirken sich positiv aus.
  • Ansprechende Websites nehmen auch an den sozialen Medien teil.

Google verrät einiges. Ist aber auch – wie immer schon – sehr zurückhaltend damit, genau zu beschreiben, was denn nun wirklich wertvolle Inhalte sind. Die zitierte Seite reduziert im Prinzip die SQEG (s. oben) auf das Wichtigste. Google möchte, dass wir so spezifisch wie möglich werden, wovon sie sich selbst allerdings ausschließen.

Was sich geändert hat

Historisch betrachtet, hat es bei Google eine Änderung weg vom Long Tail hin zu Trustsignalen gegeben. In der Vergangenheit war es noch sehr leicht, den Long Tail mit relativ wenig Aufwand zu erschließen. Es war einfach für Kombinationen wie [Schuhtyp Schuhmarke Schuhgröße Schuhfarbe] zu ranken. Es brauchte lediglich eine Seite, auf der ein paar Sätze Text rund um die entsprechende Kombination standen.

Heutzutage geht Google immer öfter dazu über, eher Seiten anzuzeigen, auf denen vielleicht nicht genau diese Kombination vorkommt, die aber von einer Domain stammt, die eine höhere Vertrauenswürdigkeit ausstrahlt.

Sie machen also tatsächlich das wahr, was sie schon immer gesagt haben und was auch mit den Hinweisen aus den SQEG übereinstimmt.

Things, not Strings

Es geht um Dinge, nicht alleine um Zeichenketten. Google versteht immer besser, nach welchen Objekten gesucht wird. Demnach richten sie die Ergebnisse immer genauer nach der eigentlichen Suchintention der Suchenden aus. Nur weil ein Dokument technisch gesehen zu einer Suchanfrage passt, heißt das nicht, dass Google dieses Dokument auch anzeigen möchte, wenn sie bessere Optionen haben. Vielmehr sind in den Augen Googles Seiten besser für die Suchenden geeignet, wenn sie inhaltliche Konzepte zum gesuchten Thema und die Verbindungen bzw. Beziehungen zwischen den Unterthemen beschreiben, statt einfach nur die exakte Phrase zu enthalten.

So sieht guter Content aus

Mit allen Hinweisen von Google zu dem, was guten Content ausmacht und nicht ausmacht, sollte es möglich sein eine Liste mit Kriterien und Best Practices aufzustellen.

Guter Content ist holistisch

Textueller Inhalt muss heutzutage nur dann „lang“ sein, also eine hohe Wortzahl enthalten bzw. umfangreich sein, wenn er gut ranken soll. Das trifft vielleicht nicht auf jeden einzelnen Typ von Inhalt zu, allerdings wohl für die meisten SEO-relevanten Contentbeiträge. Idealerweise beleuchtet ein jeder solcher Beitrag auf holistische Art und Weise jedes seiner Unterthemen so vollkommen, dass für den Leser keine Fragen offen bleiben. Das ist kein geringer Anspruch.

Mit Google-Suggest, also der Einführung der Vervollständigung der Suchanfragen (schon beim Tippen in den Suchschlitz und später im Browser) hat uns Google ein wunderbares Geschenk gemacht. Diese Vervollständigungen helfen ungemein bei der Eingrenzung von Themenbereichen, das Google-Suggest ganze Fragestellungen liefert, nach denen Suchende tagtäglich recherchieren. Das machen sich diverse Tools zu Nutze. So zum Beispiel Answer The Public im folgenden Screenshot für den Begriff „Schach“.

Answer The Public für den Begriff Schach

Answer The Public für den Begriff „Schach“

 

Das Tool liefert über Tausend Fragen zum Thema Schach, aus denen sich das Thema sehr umfangreich bearbeiten ließe. Nicht alle Fragen ergeben Sinn. Wer jedoch die meisten dieser Fragen gründlich recherchiert und beantwortet, der hat zum Schluss ein Dokument, welches das Thema Schach holistisch abdeckt und dabei wahrscheinlich auch sehr viele Longtail-Begriffe und Synonyme enthält.

Hier der Clou: Ein solches Dokument könnte auch für Kombinationen von Suchbegriffen ranken, die in der exakt gesuchten Form gar nicht auf dieser Seite vorkommen!

TF-IDF: Die neue Keyworddichte?

Klassischerweise hat die Suchmaschinenoptimierung in der Vergangenheit hier immer mit der Termfrequenz (Keyworddichte) gearbeitet. Beispiel: Wenn eine Seite 100 Wörter hat und das Wort „Schuhe“ darin acht Mal vorkommt, dann hat das Wort Schuhe eine Termfrequenz von acht Prozent. In der Vergangenheit gab es also immer wieder SEOs, die ihre Begriffe in ihrer Lieblingsfrequenz eingebaut haben. Diese Vorgehensweise ist heutzutage völlig überholt und auch nicht zu empfehlen.

TF-IDF steht für term frequency times inverse document frequency und ist in Deutschland auch als WDF*IDF bekannt. Die Abkürzung steht für eine Formel, die erkennt, welche Wörter in einem Korpus (einer Anzahl von Dokumenten, z. B. die Top-10-Dokumente eines bestimmten Suchbegriffes) besonders oft vorkommen.

TF-IDF anzuwenden, bedeutet also, mehr als nur für einen einzelnen Begriff zu optimieren. Es geht um einen Blick auf alle Keywords und deren prozentuale Verteilung, die in einem Dokumentenkorpus enthalten sind. Das hört sich kompliziert an. Mit den richtigen Tools ist das aber ganz einfach. Tools verfahren nach einem bestimmten Schema (beispielhaft):

  1. Gebe einen Suchbegriff bei Google ein, z. B. Sneaker.
  2. Lade dann die ersten zehn Seiten der Suchergebnisse runter.
  3. Analysiere den Text und bereite ihn vor (z. B. werden häufige Wörter wie „der, die, das“ etc. entfernt).
  4. Zähle die einzelnen Wörter auf jeder Seite.
  5. Berechne die Vorkommnisse der einzelnen Wörter und berechne die Relation zwischen den Wörtern.

Raus dabei kommt ein Graph, auf dem diese Relation abzulesen ist:

Analyse für Sneaker mit dem WDFIDF-Tool

Eine WDF-IDF-Analyse für „Sneaker“ mit dem WDFIDF-Tool

 

Viele der Wörter sollten wahrscheinlich noch aus den Ergebnissen entfernt werden, z. B. das Wort „Wunschliste“. Es deutet eher auf einen Onlineshop hin, als auf eine Schuhart. Die Auswertung zeigt jedoch logischerweise, dass neben dem Wort „Sneaker“ wichtige Wörter, wie Herren, Damen, Größe, Markennamen, bekannte Modelle etc. nicht im Text fehlen sollten.

Aus praktischer Sicht, stellt sich die Frage, ob jetzt jeder Text TF-IDF-optimiert werden soll und welchen Stellenwert diese Analyse hat. Sicher liefern solche Analysen gewisse Anhaltspunkte, die bei der Erstellung des Textes berücksichtigt werden können. Zum Beispiel, dass gewisse Wörter nicht fehlen sollten.

Andererseits ist diese technische Sichtweise auch stark beschränkt. Es mag zwar sein, dass eine solche Analyse die Wörter zutage fördert, die „andere“ in ihren Dokumenten erfolgreich – denn sie sind ja in den Top-10 – verwenden. Allerdings geht es bei der Suchmaschinenoptimierung und speziell bei der Textoptimierung auch immer darum, neue Blickwinkel zu entdecken. Ein Thema von einer ganz anderen Seite zu beleuchten und dadurch ganz neue Keywords mit ins Spiel zu bringen. Den Korpus zu „erweitern“ sozusagen.

Man darf bei all der Diskussion um „technische“ Tricks nicht vergessen, dass es zum Schluss der Besucher ist, der den Text lesen soll und daraufhin im Idealfall direkt etwas kauft oder den nächsten Schritt hin zu einer Kundeninteraktion geht. Daher werden sich zum Schluss immer Texte durchsetzen, die die höchste Zufriedenheit beim Benutzer herbeiführen. Diese können von der Qualität her dann auch ganz unterschiedlich sein. Denn je nach Zielgruppe und Themengebiet ist die Ansprache und Tonalität eines Textes anders. Ein Kochblog redet anders mit seiner Zielgruppe als ein staatliches Portal mit Informationen rund um Verhaltensweisen in Krisen, wie z. B. bei Erdbeben o. Ä.

Duplicate Content

Die berühmten doppelten Inhalte sind auf jeden Fall zu meiden. Das gilt nicht nur für ganze Seiten, die sich auf einer Website (fast) identisch sind, sondern auch für Textbereiche. Nicht selten gibt es auf umfangreichen Websites, wie Onlineshops, eine Menge sogenannten „Boilerplate-Text“. Das ist Text, der (fast) auf jeder Seite einer Website vorkommt, z. B. Disclaimer oder „In den Warenkorb legen“ etc. Der Hauptinhalt einer Seite muss einzigartig sein und einen gewissen Umfang haben. In 2017/18 sollten hierfür als Minimum 150–300 Wörter reichen. Etwas mehr ist jedoch besser. Publikationen werden hiermit keine Probleme haben. Aber gerade Onlineshops haben oft eine Vielzahl an Produkten, über die sich wirklich nicht viel schreiben lässt, z. B. eine 6mm Edelstahlschraube. In so einem Fall ist es unter Umständen besser die betreffenden Einzelseiten aus der Indizierung zu nehmen und sie auf einer speziell eingerichteten Unterseite zusammenzufassen.

Deep Dive: Mit holistischen Inhalten die Rankings dominieren

Wie lang ist umfassender Content? 1.000 Wörter? 10.0000? 100.000?

Die genaue Länge spielt im Prinzip eine untergeordnete Rolle. Es kommt hier jeweils darauf an, wie lang die Inhalte sind, die gegen den eigenen Beitrag konkurrieren würden. Wenn es zu einer Suche eine ganze Reihe Inhalte gibt und einige davon 2–3.000 Wörter stark sind, dann sollten ein SEO versuchen einen Beitrag zu veröffentlichen, der die besten „Konkurrenzinhalte“ inhaltlich und vom Umfang her deutlich übertrifft.

Eine einfache Möglichkeit wäre, die Wortzahl um 25–100 % zu steigern. Wie lang der Inhalt sein sollte, das geht aus dem Thema hervor. Der Anspruch an den Text sollte im Idealfall holistisch sein. Holistisch bedeutet in diesem Zusammenhang: Wenn sich keine „sinnvolle“ Frage mehr stellen lässt, die der Contentbeitrag nicht schon auf mehr als befriedigende Art beantwortet, dann ist der Inhalt aus SEO-Sicht fertig optimiert. Der Text meldet also selbst, wie lang er sein möchte. Zu bedenken ist: Sollte sich an der Sachlage zu einem vorliegenden Text etwas ändern, dann muss dieser Text auch wieder aktualisiert werden.

Es gibt keinen minimalen Umfang und es gibt auch keine Mindestzahl von Beiträgen, die täglich rauskommen müssen oder eine Mindestzahl von Seiten, die eine Website haben muss. In den meisten Fällen schlägt Qualität Quantität. Unsere Algorithmen versuchen explizit Websites zu empfehlen, die Inhalte von hoher Qualität bieten, die ebenfalls einzigartig sind und ihre Leser fesseln. Fülle deine Website nicht mit Inhalten von niedriger Qualität. Stelle stattdessen sicher, dass deine Website die absolut beste ihrer Art ist.

Googles Sprachrohr John Mueller im Mai 2014

 

Often few strong pages > many weak ones.

John Mueller im November 2017 auf Twitter

 

In der Vergangenheit lag der Fokus eher auf einer write and forget-Strategie. Hier wurden zu einem SEO-relevanten Thema viele verschiedene, kurze Unterseiten produziert. Jede Longtail-Keywordkombination bekam ihre eigene Unterseite. Meist waren diese Seiten zwischen 400–800 Wörter stark. Diese Seiten waren dann auch ausschließlich auf eine bestimmte, einzelne Kombination optimiert (z. B. „Kredit ohne Schufa für Beamte“). Obwohl diese Vorgehensweise bis heute noch funktioniert, ist es oft möglich, diese durch den holistischeren Ansatz zu übertrumpfen.

Hieraus ergeben sich zwei wichtige, methodische Aspekte:

  1. Aktualität: Es gilt eine allumfassende Version eines Inhalts zu produzieren und diese stets aktuell zu halten. Ein Contentbeitrag sollte spätestens alle sechs Monate, falls möglich sogar noch regelmäßiger aktualisiert werden.
  2. Konkurrenzschwäche nutzen: Wenn die Konkurrenz zuerst damit fertig wird, einen perfekt optimierten Contentbeitrag zu veröffentlichen, dann wird ein Topranking dafür immer unwahrscheinlicher. Es gilt, den First-Mover-Vorteil zu nutzen.

Aus einer aktuellen Befragung von weltweiten SEO-Experten im Beitrag „7 SEO Techniques That Will Help You Win In 2018“ des Toolanbieters ahrefs gehen die wichtigsten SEO-Techniken für 2018 hervor. Die ersten beiden: 1) Schreibe tiefgehende Inhalte und 2) Reoptimiere bestehende Inhalte.

Aus dieser Vorgehensweise resultieren Seiten, die unter Umständen sehr umfangreich sind und dadurch nicht nur für einzelne oder wenige Begriffe ranken, sondern für viele – manchmal Zehntausende – Begriffe auf einen Schlag.

Medien nutzen

Es müssen nicht immer (nur) mehr Wörter sein. Es geht letztendlich darum, die Informationsdichte und damit den Mehrwert zu steigern, vielleicht sogar eine bessere Struktur zu liefern oder sogar einen einfacher zugänglichen Text zu produzieren.

Hierzu lassen sich Texte um Medien aller Art ergänzen:

  1. Bilder sagen mehr als Worte.
  2. Videos sind viele Bilder mit Audiountermalung.
  3. Audiodateien machen es leichter für Menschen, die Informationen lieber hörend aufnehmen.
  4. Grafiken und Animationen visualisieren komplexe Zusammenhänge.
  5. Musik und Gesang können ebenfalls Inhalte transportieren und „veranhörlichen“.
  6. Spiele und interaktive Elemente fordern den Leser dazu heraus, sich mit Inhalten vertraut zu machen.

Je mehr „Blickwinkel“ und „Kanäle“ ein Stück Inhalt bietet, desto besser ist es allgemein konsumierbar.

Scannable, Snackable und das alles leicht verständlich, bitte.

Kaum jemand liest tatsächlich allen vorhandenen Text einer Seite. Jetzt wo sich auch Detailinfos in längeren Inhalten „verstecken“, braucht der Leser mehr Möglichkeiten Teilinformationen zu entdecken. Daher ist es notwendig Texte und auch andere Medien mit unterschiedlichen Strukturelementen aufzubrechen:

  • Die Headline ist die Hauptüberschrift, enthält das Hauptkeyword und klassifiziert die Textgattung des folgenden Beitrags. Beispiel: „Wanderschuhe: Der ultimative Ratgeber“ – also etwas zum Thema „Wanderschuhe“ im Format „Ratgeber“.
  • Eine optionale Kopfgrafik kann einen Beitrag optisch aufwerten und gleichzeitig als Material dienen, welches in der Bildersuche rankt.
  • Eine Einleitung erklärt dem Leser, welche Inhalte auf ihn warten. Sie umreist das Thema in sehr groben Zügen und weckt Interesse zum Weiterlesen.
  • Zwischenüberschriften gliedern den Text in überschaubare Sektionen. Sie dienen dazu, dass ein Leser an beliebiger Stelle ein- und aussteigen kann, um so nur den Inhalt zu konsumieren, der gerade von Interesse ist.
  • Highlights und Markierungen kristallisieren die Bereiche eines Textes, die von besonderer Bedeutung sind.
  • Ein Fazit rundet einen Text ab und fasst die wichtigsten Erkenntnisse aus dem Text zusammen. Nicht jeder Text braucht jedoch ein Fazit. Hier kommt es auf die Gattung an.

Werbeanzeigen und Popups können dazu führen, dass Besucher einer Seite ihr Ziel nicht erreichen können und die Seite wieder verlassen. Eine Einbindung ist also gut zu überdenken. Im schlimmsten Fall könnten so Rankings verloren gehen oder nicht erreicht werden.

 

Die fünf Kriterien von wirklich guten Links

Die fünf Kriterien von wirklich guten Links

 

Es ist weniger wichtig, wie die konkrete Linkaufbau-Strategie aussieht. Wichtig ist vor allem, dass die Links, die ihr resultieren, diese fünf Aspekte weitestgehend erfüllen:

  1. Funktion: Ein Link muss als Brücke zwischen zwei redaktionellen Inhalten Anders: In den Texten darf nichts verkauft werden. Nur dann kann der Link – laut Googles Patenten – dabei helfen, die Rankings zu verbessern.
  2. Umgebung: Ein Link sollte idealerweise dort stehen, wo ihn der Leser, der ihn anklicken soll, auch wirklich leichter findet. Wenn sich Links im Footer oder im Seitenrand „verstecken“, dann sind sie wohl auch nicht so wichtig.
  3. Performanz: Je öfter ein Link potenziell geklickt wird, desto besser ist das für Google.
  4. Stärke: Links von Seiten und Websites, die selbst sehr gut verlinkt sind (hohe Domainpopularität), wirken besser. Hier kommt immer noch das alte PageRank-Prinzip zum Tragen.
  5. Varianz: Über das gesamte Linkprofil betrachtet, sollte es eine Vielzahl von unterschiedlichen Links geben. Die Unterschiedlichkeit dieser Links sichert eine Website gegen den Vorwurf ab, nur eindimensionalen Linkaufbau zu betreiben.

Egal mit welchen Linkaufbau-Strategien eine Website arbeitet, in der Praxis lassen sich niemals alle fünf Aspekte gleich gut umsetzen. Das würde auch schon alleine Punkt 5, der Varianz, widersprechen. Mischformen zwischen diesen fünf Punkten sind also völlig natürlich. Immer alle fünf Punkte zu 100 % zu erfüllen, ist völlig utopisch. Manche Links haben eben keine hohen Klickraten, kommen daher aber von sehr reputablen Websites. Andere kommen eher aus einer Linkliste, haben demnach nicht gerade einen hohen redaktionellen Funktionscharakter, aber werden viel geklickt. All das kommt eben auch in freier Wildbahn vor und ist damit auch wirklich wünschenswert, weil natürlich.

Für alle, die denken, dass Linkfaktoren schwächer geworden sind und in Zukunft schwächer werden, verweisen wir auf neben unserer Meta-Studie zu den Google Rankingfaktoren (die immer noch aktuell sind, weil sich hier seit der Veröffentlichung nicht wirklich viel getan hat) auf ein Zitat des ehemaligen Head of Webspams bei Google, Matt Cutts:

It turns out that backlinks, even though there’s some noise and certainly a lot of spam, for the most part are still a really, really big win in terms of quality of search results.

Matt Cutts auf YouTube

Finale Kalkulation

Zum Abschluss noch der versprochene Überblick, über das eingangs festgelegte Budget. So würde Kasenko 1 Mio. € im ersten Jahr in die ultimative SEO-Strategie investieren:

  • Domainbudget: 50.000 €.
  • Budget für die AdWords Keyword-Analyse: 10.000 – 50.000 €.
  • Themenseiten: 50.000 – 100.000 €.
  • Technisches Personal: 3–4 starke SEOs, die permanent an den filigranen Technik-Aspekten der Website arbeiten. Gehälter: ca. 100.000 – 200.000 € insgesamt.
  • Contentmanager: 3–4 starke Mitarbeiter, die die Content-Strategie planen und dabei Inhalte berücksichtigen, die zum Abverkauf eingeplant sind, aber auch Kampagnen und Inhalte planen, die eine externe Verlinkung begünstigen. Gehälter: ca. 100.000 – 200.000 € insgesamt.
  • Content: Bis zu 250.000 € gehen in die Produktion von Inhalten im Rahmen der Content-Marketing-Strategie.
  • Links: Bis zu 250.000 € gehen in die Umsetzung diverser Linkaufbau-Strategien.

Einige der Werte sind Von-Bis-Zahlen. Das liegt daran, dass am Anfang des Projektes natürlich noch nicht klar ist, auf welche Herausforderungen ein Projekt wie Kasenko stoßen wird. Daher wollten wir das Budget flexibel verteilen. Es ist durchaus möglich, dass gewisse Anteile des Budgets im Laufe der Zeit umgeschichtet werden.

Wie würden Sie das Budget verteilen?

 

Themen, die außen vor bleiben

Es steht außer Frage, dass es gewisse Strategie-Aspekte gibt, die dieser Guide außen vorgelassen hat. Darunter fallen:

  • Social-Media: Auch wenn es sicherlich Schnittpunkte zwischen den sozialen Medien und der Suchmaschinenoptimierung gibt, so sollte dies auch ein eigener Guide thematisieren. Mithilfe der sozialen Medien lassen sich zweifelsohne heutzutage Reichweite aufbauen und Kunden gewinnen. Die meisten Taktiken haben jedoch mit SEO wenig am Hut.
  • JavaScript and SEO: Dies wird im Hinblick auf den immer stärkeren Einsatz von Interaktivität, aber auch mit den immer beliebter werdenden JavaScript-Navigationen immer populärer. Dieses sehr technische Thema verdient unserer Meinung nach auch einen eigenen Guide.
  • Internationalisierung: Im ersten Jahr bei Kasenko spielt diese auch eine untergeordnete Rolle. Aber das Thema ist sicherlich wichtig. Für eine Fortsetzung dieses Guides steht es deshalb ganz oben in der Liste.
  • Maschinelles Lernen: Kann man dafür überhaupt optimieren? Maschinelles Lernen ala RankBrain ist wie eine Blackbox zu betrachten. Selbst bei Google kann sich niemand sicher sein, was genau in dieser Box alles passiert. Also wollen wir uns dies zu diesem Zeitpunkt auch nicht anmaßen. Denn zum Schluss ist maschinelles Lernen auch nichts anderes als die Auswertung von historischen Datenpunkten schon bestehender Rankingfaktoren. Wer stets gute SEO-Arbeit in den Bereichen Technik, Content und Links leistet, der sollte auch in Zukunft deswegen keine Probleme bekommen.
  • User Engagement: Was der User auf einer Seite gemacht, wird genau von Google kontrolliert – wenn der User Googles Browser Chrome benutzt. Das bedeutet, dass Kommentare, Rezensionen und allgemein die Verweildauer auf einer Seite ein sehr positives Signal darstellen können. Dementsprechend wichtig ist dieser Aspekt. Er verdient wahrscheinlich ebenfalls einen eignen Guide.
  • Mobile: Websites sollten heutzutage grundsätzlich responsiv gestaltet werden. Dies ist eigentlich mehr eine Grundanforderung an das Designteam, von der auch die Rankings profitieren können. Ansonsten gibt es nicht wirklich viele Aspekte, die für Mobile aus SEO-Sicht anders optimiert werden müssten. Google hat angekündigt, dass der Index bereits mobile first Dementsprechend sollten grundsätzlich auch alle Seiten responsiv sein.
  • Accelerated Mobile Pages (AMP): Dieses „Google-Hosting“ ist immer dann interessant, wenn es um die schnelle Auslieferung von Inhalten geht. AMP gewinnt immer mehr an Popularität und es stellt sich die Frage, ob eine Aktualisierung dieses Guides das Thema in den nächsten Jahren nochmals aufgreifen sollte.

Es bleibt also spannend.

 

Fazit

Hier ist er nun: Unser Versuch das Thema SEO aus Strategiesicht einmal vollständig aufzurollen. Eines dürfte dabei evident geworden sein. SEO ist mittlerweile derart komplex, dass man es nicht mehr als Einzelsport betreiben kann. Nur ein gut geschultes/erfahrenes Team wird auch ein Projekt wie Kasenko zu realistischem Erfolg verhelfen können. Wenn so ein Team viele Jahre Zeit hat, dann braucht es wahrscheinlich weniger Budget, um in einem wirklich umkämpften Bereich oben mitspielen zu können. Wer jedoch Ambitionen hegt, wie wir sie in unserer Case study mit Kasenko vorgestellt haben, der muss zwangsläufig Geld investieren oder aber extreme Kreativität an den Tag legen.

In welcher Relation diese Investments stehen, da gehen die Meinungen sicher auseinander. Unsere tiefe Überzeugung ist, dass Content und Links nach wie vor die wichtigsten Faktoren in der Suchmaschinenoptimierung sind und auch bleiben werden. Dies wird uns auch immer wieder von Google bestätigt – und zwar seit den frühen 2000ern. Wer es also schafft ein super SEO-Team um sich herum aufzubauen, muss sich nur noch überlegen, in welcher Relation das Budget für Content und Links aufgeteilt werden soll. 25/75? 50/50? 75/25? All das sind Möglichkeiten, aber nur eine davon führt wirklich zum ultimativen Erfolg.

Jedenfalls wünschen wir Ihnen alles Gute bei der Umsetzung Ihrer eigenen Strategie. Und wenn wir Ihnen dabei helfen können, dann zögern Sie nicht, uns zu kontaktieren.

 

Newsletter

  • Lassen Sie sich regelmäßig über die wichtigsten Neuigkeiten informieren
  • Erfahren Sie als Erster von besonderen seo2b Aktionen
  • Exklusive Informationen für Abonnenten
  • Absolut unverbindlich. Jederzeit abmeldbar

Kommentar schreiben

Kommentar von Steven |

Wow! Sehr guter Artikel. Wahrscheinlich zu lang und technisch für der Laie aber für mich als SEA Experte mit viel Erfahrung in SEO hilft es schon unheimlich einen solchen Überblick zu bekommen. Crawler-Budget war mir zwar nicht neu, aber liefert mir ein besseres Verständnis dazu.
Das Thema Backlinks kommt mir zu kurz vor. Ohne Backlinks geht gar nichts.

Oh. Mir es gerade aufgefallen. Es steht Teil 1. :)
War dennoch meine Gedanke, nachdem ich den Artikel gelesen hatte.

Kommentar von Pia |

toller Artikel. Ich freue mich darüber, dass er technisch und lang ist. Oberflächliche und allgemeine Artikel gibt es zu Hauf. Wenn man sich ein gewisses Know-How zulegen möchte ist das genau das richtige.
Ich bin gespannt auf den zweiten Teil.

Kommentar von Andreas Wieland |

Überdurchschnittlich guter SEO-Artikel, Respekt. Den Punkt "Description" solltet ihr aber nochmals überarbeiten. Da hat sich was Neues getan. Die dürfen jetzt durchaus länger sein. Außerdem steht immer noch die Option offen, der Suchmaschine die Wahl des Snippets dadurch ganz zu überlassen, dass ich die Description weglasse.

Kommentar von Julian |

Vielen Dank für diesen ausführlichen Artikel. Viele Tipps die ich bis jetzt noch nicht beachtet habe.
Vor allem die Infos zum Crawling Budget werde ich in Zukunft mehr beachten.

*Freischaltung erfolgt nach Überprüfung
© 2018 seo2b.de. All Rights Reserved. — Designed by seo2b - Onlinemarketing Agentur im Raum Trier, Luxemburg und Saarbrücken