seo2b Meta-Studie

Google Rankingfaktoren 2016 Die ultimative Meta-Studie der wichtigsten Faktoren mit praktischen Tipps zur Umsetzung

Wer herausfinden möchte wie Google funktioniert, kann auf eine ganze Reihe guter Quellen zurückgreifen. Einige davon kommen sogar direkt von Google. Die Quellen sind teilweise sehr umfangreich und behandeln die unterschiedlichsten Faktoren. Manche von ihnen listen über 200 Faktoren auf. Es gibt eine Menge Aussagen, die darauf hindeuten, dass es wahrscheinlich sogar deutlich mehr sein könnten: vielleicht sogar mehr als 10.000. Für uns ist das Grund genug einmal all diese Quellen durchzuforsten, um die Faktoren miteinander in Verbindung zu bringen.

SEOs, wohin geht die Reise?

Solange es Suchmaschinen gibt, wird es auch professionelle SEOs geben. Wir haben nachgehakt und gehen dabei der Frage nach der Zukunft der Suchmaschinenoptimierung und der Rankingfaktoren auf den Grund.

  • Was bleibt gleich, was wird anders?
  • Wie sieht die Zukunft in Sachen SEO und Rankingfaktoren aus?
  • Worauf müssen sich SEOs einstellen?

Auf den Punkt gebracht:

„Wie sieht die Zukunft der Suchmaschinenoptimierung bzw. der Google-Ranking-Faktoren aus?“

Diese Frage haben wir Deutschlands SEO-Experten gestellt. Sie haben geantwortet (in alphabetischer Reihenfolge):

Timo Abid

Timo Abid
Unternehmen seo2b GmbH
Position Geschäftsführer
Spezialgebiet Linkaufbau
SEO seit 2008
Website www.seo2b.de
XING Timo Abid

Google wird immer schlauer und SEO deswegen immer schwieriger. Insbesondere durch die Implementierung von Panda und Pinguin in den Real-Time-Algorithmus. Wer jedoch die Rankingfaktoren im historischen Vergleich betrachtet, stellt im Großen und Ganzen weit weniger Änderungen über die Jahre fest, als gedacht. Wenngleich sich die jeweilige Gewichtung durchaus verändert hat und auch verändern wird. Es kommt immer noch hauptsächlich darauf an, dass eine Website sauber gecrawlt werden kann, die wichtigsten Onpage-Faktoren (URL, Titel, Meta-Description, Inhalt, Keywords an den richtigen stellen etc.) und danach Link-Signale von reputablen Websites erhält.

Hinzugekommen sind in 2015/6 hauptsächliche die Interaktions-Faktoren. Mit Google Chrome besitzt Google mittlerweile den populärsten Browser der Welt und kann hier genau sehen, was die Nutzer machen, wohin sie klicken, ob sie wegklicken und wie lange das alles dauert (Stichwort Verweildauer/Bouncerate). Das sind alles wichtige Datenpunkte, die Google dabei helfen, die Suchergebnisse zu verbessern.

Wer SEO auf höchstem Niveau praktizieren möchte, muss sich intensiv mit den Wechselwirkungen der Faktoren untereinander auseinandersetzen. Im Bereich Onpage geht es vor allem darum, die richtige Komposition von Themen und Keywords zu finden. Die einfache Keyword-Recherche ist ein Auslaufmodell. Es geht darum semantische Beziehungen von Keywords zu erkennen und diese richtig zu einem Thema zu formulieren. Das Gesamtergebnis muss dann auch noch das Publikum begeistern und mit Mehrwert überwältigen.

Bei der Produktion dieser Meta-Studie haben mich besonders Googles Anforderungen an die Quality-Rater überrascht. Diese sind zwar keine direkten Rankingsignale, können jedoch mittel- und langfristig darüber entscheiden, ob sich eine Website in den Rankings oben halten kann. Insbesondere der Fokus darauf, dass die Bewertung einer Website nicht ohne externe Signale auskommt. Google verlässt sich mehr denn je darauf, was andere über eine Website sagen. Dieser Punkt bestärkt mich in meiner Auffassung, dass der Link – allen Unkenrufen zum Trotz – weiterhin eine entscheidende Rolle für die Rankings spielen wird. Es geht aber nicht mehr nur einfach um Links. Auch hier kommt es auf die Wechselwirkungen vieler verschiedener Faktoren an. Vor allem der Kontext aus dem ein Links entsteht, spielt eine entscheidende Rolle. Wie sieht der Link aus? Woraus wird verlinkt? Wohin zeigt er? Passt er thematisch? Mit welcher Intention wurde er gesetzt? Das wird entscheidend sein!

Marie Bläsing

Marie Bläsing
Unternehmen TopTarif Internet GmbH
Position Teamlead Inhouse SEO
Spezialgebiet Allrounder
SEO seit 2012
Website TopTarif
XING Marie Bläsing

Kürzlich wurde veröffentlicht, was eigentlich kein Geheimnis sein sollte: zu den Top 3 Ranking Faktoren gehören Links, Content („Wörter“) und RankBrain. Wer jetzt allerdings wieder mit massenhaftem Linkaufbau beginnt, macht trotzdem einiges falsch.

Denn Updates im Google Algorithmus können zwar dem einen oder anderen Website-Betreiber den Schlaf rauben, aber wie Sasa es bereits in seinem Beitrag erwähnt, hat gutes SEO nichts mehr mit Tricksereien zu tun. Gutes SEO sollte vor allen Dingen eines sein: sauber. Dann muss sich um stürmisches SEO-Wetter kein Kopf mehr gemacht werden.

Bereits heute ist die Arbeit als SEO kaum noch mit der Tätigkeit von vor wenigen Jahren vergleichbar. Es reicht nicht, sich alleine auf Bereiche wie Offsite und Onsite zu beschränken. In Zukunft wird SEO vor allem in eine Richtung gehen: Brand & User-Experience. Während die Stärke der Marke allein durch SEO schwer zu beeinflussen ist, muss der Fokus auf User-Engagement, Engagement-Reputation und User-Experience gesetzt werden.

Es gilt mehr denn je, dem Nutzer das beste Produkt auf der besten Website zu liefern. Hierzu gehören nicht nur eine gesunde Seitenarchitektur, ein kontrollierter Nutzerflow und ein gutes Endprodukt. Technisches SEO wird auch in diesem Zuge zu einem wichtigen Aspekt, welcher, meines Erachtens, noch viel zu selten im Fokus vieler Marketing-Teams liegt. Nicht nur für Google – auch für den Nutzer ist eine schnelle, technisch einwandfreie Seite ein wichtiges Signal. Besonders größere Seiten müssen sich darüber im Klaren sein, wie Site-Speed, Site-Architecture und Crawl-Budget optimiert werden können.

Auch das Thema RankBrain wird in Zukunft immer spannender. Selbst Googles Entwickler verstehen die Hintergründe des Machine Learnings nicht hundertprozentig – die Frage ist hier: wie gut kann eine Maschine entscheiden, welches die beste Seite für ein bestimmtes Query ist? Als SEO ist es daher unvermeidlich, sich auf offensichtliche Nutzerbedürfnisse zu konzentrieren, um so für sein Produkt ein optimales Ergebnis in den SERPs zu erreichen.

Britta Kristin Böhle

Britta Kristin Böhle
Unternehmen Trusted Shops GmbH
Position SEO/SEA Managerin
Spezialgebiet E-Commerce
SEO seit 2010
Website Trusted Shops für Shopbetreiber
XING Britta Kristin Böhle

Organischen Traffic zu generieren wird allein dadurch schwieriger, dass für diesen Kanal immer weniger vom Kuchen übrig bleibt. Mit der Erhöhung der möglichen Anzahl der bezahlten AdWords-Anzeigen auf vier rücken die organischen Ergebnisse darunter weiter in den Hintergrund. Man darf sich also vor allem jetzt nicht mehr auf die organischen Ergebnisse von Google als hauptsächlichen Traffic-Lieferanten verlassen, sondern mussdiese mit alternativen Quellen ergänzen.

Ansonsten stehen für mich Usersignale am meisten im Fokus in den nächsten Monaten. Das Schaffen von Inhalten, die einen tatsächlichen Mehrwert bieten, ist genau das, was Google seit Jahren predigt und mittlerweile sehr gut messen kann. RankBrain wird in dem Zusammenhang natürlich auch eine große Rolle spielen - wie groß in nächster Zukunft, bleibt abzuwarten. Das Potenzial künstlicher Intelligenz für Suchmaschinen ist groß, aber Microsofts „Tay“ hat auch gezeigt, dass solche Systeme schnell aus dem Ruder laufen können.

Dabei sind Usersignale nicht nur für informations-, sondern auch für transaktionsorientierte Suchanfragen entscheidend. Online-Shops müssen es demnach schaffen, die Kunden mit ihren Produkten und dem angebotenen Service zufrieden zu stellen.

Christoph C. Cemper

Christoph C. Cemper
Unternehmen LinkResearchTools GmbH & Impactana GmbH
Position CEO
Spezialgebiet Links und allgemein Offpage-Signale
SEO seit 2003
Website LinkResearchTools | Impactana
XING Christoph C. Cemper

Ich widerspreche mal allen Stimmen, die behaupten, dass SEO ein „allgemeineres Marketing“ wird. Diesen Stimmungstrend sehe ich sogar als gefährlich an, denn die Disziplin SEO ist komplexer und technischer denn je. Das zeigt auch die extreme Nachfrage nach erfahrenen SEOs am Markt – also jenen, die tief in der Technik, Offpage und natürlich auch Onpage drin sind.

Jede Vereinfachung ist nicht nur falsch, sondern auch gefährlich. Natürlich sind viele neue Plattformen im Bereich Offpage dazugekommen, ein paar neue technische Tricks und Standards wie AMP und laufende Veränderungen bei den verschiedenen Redirects, Rel-Canonicals und anderen genialen Erfindungen. Aber hey, wäre ja langweilig wenn wir noch mit HTML 1.0 in Drupal 2.0 rumbasteln würden, oder?

Suchmaschinenoptimierung hatte immer schon zum Ziel gut crawlbare Webseiten mit Inhalten „die ins Hirn knallen“ (also gut konvertieren) zu schaffen. Von daher ist es nichts Neues, dass man sich ums Onpage kümmern muss, auch wenn jetzt viele neue Tools dazu da sind, die schön die Werbetrommel rühren und auch teilweise stark polarisieren.

Das Ranking von Artikeln und Domains hat Google Ende der 1990er damit innoviert, indem der Linkgraph auch ausgewertet wurde. Das konnten Altavista und Co früher einfach nicht. Google hat über Jahre gelernt Links zu zählen, dann von der Qualität her positiv zu gewichten um die Abstufungen der positiven Rankingfaktoren zu verbessern. Damit wurde allen SEOs und Linkspammern die mit einfacher Automatisierung gearbeitet haben, schon viel Einhalt geboten. Das schlechte bzw. billig gemachte Links seit 2012 auch „negative Rankingfaktoren“ sein können, sollte nichts Neues sein und wir haben mit Link Detox nun im vierten Jahr sehr viele Daten und Erfahrungen gesammelt. Gerade mit „DTOXRISK AI“ bringen wir 2016 damit die nächste Innovation raus.

Die Annahme, dass Google diese Fähigkeit (Links zu bewerten) und den größten Linkgraphen „abschalten“ würde, nur weil Yandex mal versucht hat Links für ein paar Monate für ein paar Keywords und nur im Raum Moskau nicht zu zählen, ist absurd. Natürlich testen alle Suchmaschinen viele Möglichkeiten und Gewichtungen von Rankingfaktoren aus, genauso wie wir selbst in Impactana auch.

Aber das Web ist das Web wegen der Links – das kann als Suchmaschine man gar nicht einfach „abschalten“.

Gerade im deutschen Sprachraum ist Mitte 2015 für manche Unternehmen die falsche Entscheidung getroffen worden „Wir machen nichts mit Links, und schauen die deshalb auch nicht an“. Das ist nicht nur falsch sondern auch gefährlich, weil sich dadurch nicht nur Wettbewerbsnachteile ergeben, sondern eben jene Unternehmen besonders anfällig für negatives SEO werden, auch das billig gemachte. Wer erstmal sein Onpage reparieren will, kann das ja tun, aber das eigene Backlinkprofil sollte man dabei immer im Auge behalten.

Kein billiges Linkbuilding mehr zu machen ist eine Empfehlung, die ich schon 2005 ausgesprochen habe und die gilt bis heute. Sein Linkprofil verwahrlosen lassen und von Konkurrenten zuspammen zu lassen, ist gefährlich. Hier sehe ich sehr viel Handlungsbedarf in Deutschland. International gibt es dieses Phänomen gar nicht.

Erst im März 2016 hab ich in einem Test mit nur einem Link eine Domain für ein Keyword auf Platz eins gebracht - und das in sechs Stunden. Jeden, der die Wirkung von Links auf Basis ein paar guter Vorträge und der „SEO-Mainstream-Presse“ anzweifelt, empfehle ich, mal wieder selbst ein paar SEO-Experimente (SEO-Tests) durchzuführen.

Google bestätigt auch immer wieder deutlich und zuletzt im März 2016, dass Links der wichtigste Rankingfaktor sind und bleiben.

Natürlich verhalten sich Branchen und darin auch noch verschiedene Keywordgruppen oder Unterbranchen sehr unterschiedlich. Das ist nichts Neues und analysieren wir im LRT mit dem Competitive Landscape Analyzer seit 2011 sehr ausführlich – die Branche „Finanzen“ z.B. umfasst „Lebensversicherungen“, „Bausparverträge“ genauso wie „Kredite ohne Schufa“ Rankings und diese können nicht über einen Kamm geschoren werden – weder vom Business noch vom SEO her.

Conclusio: Links, Content, User-Experience und Technik rundherum – das war und bleibt SEO. Wer sein Linkprofil vernachlässigt, muss sich dann nicht wundern, wenn die Konkurrenten besser ranken.

Brian Dean

Brian Dean
Unternehmen Backlinko
Position Founder
Spezialgebiet Content-Marketing
SEO seit 2008
Website backlinko.com
LinkedIn Brian Dean

Für mich wird sich die Zukunft der Suchmaschinenoptimierung nicht wirklich verändern. Heutzutage – dank Googles bestem Algorithmus aller Zeiten – dreht sich SEO um die Kreation und Promotion von außergewöhnlichen Inhalten rund um die Keywords, die Kunden suchen… Warum sollte dies in 2020 anders sein? Da glaube ich nicht dran. Was sich jedoch SICHER ändern wird, ist das, was Google als herausragenden Content einstuft.

Original: “I don't see SEO of the future as fundamentally different than SEO today. Today, thanks to Google's better-than-ever algorithm, SEO is all about creating outstanding content around keywords that customers search for...and promoting that content. Why would that change in 2020? It won't. What WILL change is what Google uses to determine what outstanding content is.”

Peter Dobler

Peter Dobler
Unternehmen Sky Deutschland Fernsehen GmbH & Co KG
Position Conversion Manager SEO
Spezialgebiet Allrounder
SEO seit 2010
Twitter @seocorn
XING Peter Dobler

Ich denke, dass Google versuchen wird, immer mehr zur Black Box zu werden. Mit RankBrain ist hier bereits ein Anfang gemacht. Durch Machine-Learning werden Nutzer-Signale automatisiert in die Berechnung der Rankings einbezogen. Hier wird sich wieder zeigen: Inhalte sollen für den Nutzer erstellt werden. Der Nutzer soll die bestmögliche Erfahrung mit der Webseite bzw. dem Suchergebnis machen, er soll dort die Antwort auf seine Frage erhalten und seine Suchintention soll befriedigt werden. Ist auf Position #1 ein qualitativ schlechtes Ergebnis, kommt es zu schlechter User Experience, bounced der Nutzer, so wird sich das weiter stark negativ auf das Ranking auswirken.

Das User Engagement wird noch weiter in den Fokus rücken. Es reicht nicht mehr bloß den Traffic zu erhalten, das reichte an sich noch nie wirklich aus. Die Nutzer müssen aktiv auf der Seite sein, bleiben, lesen, scrollen, klicken, etwas ausfüllen, beantworten etc. Ein hohes Engagement steigert die Popularität der Seite. Social-Shares spielen dabei eine Rolle.

Weiterhin gehe ich davon aus, dass Links an Bedeutung verlieren werden - zumindest die schlechten, gekauften Links. Echte Links, die auch echten Traffic bringen, behalten auch weiterhin ihre Bedeutung - so wie es für den User auch sein sollte. Findet er auf der verlinkten Seite Mehrwert, dann ist das auch ein positives Signal für Google. Und Google kann auch registrieren, ob Links echt sind und geklickt werden: Durch Google Analytics, Google Search Console und nicht zuletzt durch Chrome.

Man wird sich auch mehr davon trennen müssen, alle Rankings genau im Auge zu haben. Durch individuelle Suchergebnisse, Präferenzen, Interessen, vorangegangene Suchanfragen etc. – all das weiß Google über seine Nutzer und die SERPs werden dementsprechend ausgespielt. Das zeigt sich bei der lokalen Suche und zieht sich hin zu den Unterschieden zwischen Mobile vs. zu Hause.

Was wir als SEOs tun können, sind besonders zwei Dinge:

  • Technische Brillanz: Der Bot muss eine technisch gute Seite vorfinden. Ich sage bewusst gute und nicht sehr gute Seite, denn gewisse Fehler müssen auch weiterhin toleriert werden! Eine optimale Crawlability muss gegeben sein, das Crawl-Budget muss im Auge behalten werden, Inhalte müssen lesbar für den Bot gestaltet sein und eine gute Struktur bieten. Denn der Google Bot ist und bleibt eine Maschine – selbst wenn er dazu lernt.
  • Weiterhin ist natürlich der PageSpeed zu erwähnen. Mit AMP für Mobile will Google hier Standards setzen. Aber auch normale Desktop-Versionen müssen einfach schnell laden. Nicht nur, weil Google das bevorzugt (Crawlability), nein auch weil der User das bevorzugt. Die Internetverbindungen werden immer schneller, auch am Handy, die Menschen haben immer weniger Zeit. Weshalb also sollte ein User auf eine langsame Webseite warten, wenn er die Information auf einer anderen, schnellen Seite finden kann. Lädt eine Webseite länger als 3-5 Sekunden höre ich oft: „Die Seite geht nicht…” - doch sie geht schon, dauert eben nur etwas.

SEO wird weiter kämpfen müssen. Keine Frage, es wird nicht einfacher - gerade mit den bezahlten Suchergebnissen. Allerdings bleiben SEOs weiterhin super relevant, denn wir vereinen unterschiedliche Disziplinen und haben meist mehrere Blickwinkel im Hinterkopf: Nutzer, Google, technische Faktoren, Content, Usability, Wettbewerber, Tracking …

Saša Ebach

Saša Ebach
Unternehmen Content-Marketing-Magazin
Position Chefredakteur
Spezialgebiet Content und Links
SEO seit 2001
Website contentmarketingmagazin.de
XING Saša Ebach

Für mich persönlich hat SEO schon sehr lange nichts mehr mit dem „Austricksen“ von Google zu tun. Es geht darum herauszufinden, wie man im Rahmen der Regeln gewinnt. Nur so hat man auch langfristig etwas von guten Rankings. Nach oben kommen, ist Silber. Oben bleiben, ist Gold.

  • Inhouse-SEOs sitzen vor allem in Meetings, müssen interdisziplinäre Entscheidungen mittragen und immer wieder die eigene Relevanz unter Beweis stellen. Das erfordert vor allem Kommunikations-Knowhow. Das ist viel schwieriger als das Thema Rankingfaktoren.
  • Projekt-SEOs müssen immer mehr auf alle Faktoren gleichzeitig achten. Es reicht nicht mehr, einfach nur günstigen Text einzukaufen und das Projekt mit billigen Links zu befeuern. Inhalte und Links müssen stimmen und zueinander passen.
  • Agentur-SEOs müssen Ihre Produkte und Leistungen immer mehr an die Google-Richtlinien anpassen. Die größten Mankos sind hier immer noch die Qualität der Inhalte und die Legitimität der Verlinkungen. Inhalte müssen echte Mehrwerte für das Publikum schaffen, nützlich sein und begeistern. Links müssen als Brücke zwischen redaktionellen Inhalten dienen.

Auf der Hand liegt natürlich noch der Trend Mobilgeräte. In Zukunft wird er eine immer größere Rolle spielen. Wer es noch nicht gemacht hat, sollte sich schleunigst mit dem Thema „Responsive“ auseinandersetzen.

Dann ist da noch das Machine-Learning. Je mehr Google sich darauf verlässt, desto weniger verstehen die Algorithmus-Entwickler selbst, was da in ihrem RankBrain abläuft. Es ist ja gerade eine Charakteristik des Maschine-Learnings, dass es sich aus einem Datenpool selbst etwas beibringt. Google züchtet eine Art Armee von schwarzen Boxen. Meine Vermutung hierzu: Selbst die Google-Entwickler können bei Verwendung von RankBrain nicht mehr genau sagen, warum eine Seite auf Position 1 ist. Das kann nur noch die Maschine. Als außenstehende SEOs da einen Einblick zu finden, wenn die internen Leute bei Google ihn nicht haben, scheint mir auch in Zukunft sehr unrealistisch zu sein. Wir SEOs können uns da nur auf die Basics konzentrieren. Die Maschinen entscheiden dann über unsere Zukunft.

Florian Fischer

Florian Fischer
Unternehmen Home Shopping Europe GmbH
Position Inhouse-SEO
Spezialgebiet Allrounder
SEO seit 2008
Website hse24.de
XING Florian Fischer

Backlinks sind und waren aus meiner Sicht schon immer wichtig für das Ranking einer Webseite. Unabhängig davon, ob das jetzt kürzlich von Andrey Lipattsev bestätigt wurde. Was bringen mir aber Backlinks von starken relevanten Seiten, wenn ich meine Hausaufgaben bei meiner Seite nicht gemacht habe?

Wer verlinkt denn freiwillig auf eine schlecht strukturierte Seite, bei der auch nur mittelwertige Informationen vorhanden sind?

Keiner! Nur derjenige, der dafür Geld erhält. Echte, nicht bezahlte Backlinks, wird es mit einer schlecht strukturierten Seite, mit minderwertigen Informationen, nur wenige geben.

Bevor man sich also mit dem Generieren von hochwertigen Backlinks beschäftigt, sollte man erst mal die Seite, die verlinkt werden soll, so gut wie möglich optimieren. Damit ist jetzt aber nicht gemeint, dass es ausreicht Titles & Descriptions etwas anzupassen und das Keyword mindestens 8 Mal in den Kategorietext unterzubringen. Auf lange Sicht wird man mit diesen Optimierungen nicht viel erreichen.

Technisches SEO kombiniert mit einem guten Strategen in Verbindung mit Offpage-Maßnahmen, ist aus meiner Sicht die Zukunft. Eine Website, die sich durch eine gute Seitenarchitektur und hochwertige Inhalte auszeichnet, bei der der Google-Crawler nur die Seiten zu Gesicht bekommt, die er auch wirklich sehen und indexieren soll (Stichwort Crawl-Budget), wird auf lange Sicht alle Seiten überleben, die mit irgendwelchen fragwürdigen Tricks arbeiten. SEOs müssen technisch noch versierter werden, um in einem großen Unternehmen gehört zu werden. Bei sehr technischen Dingen macht auf jeden Fall die Unterstützung durch eine entsprechende SEO-Agentur Sinn.

Den Fokus auf bestimmte generische Keywords zu legen, nur weil diese ein hohes Suchvolumen haben, macht auch keinen Sinn mehr. Wichtig ist es, Fragen zu beantworten und einen Themenbereich mit den besten Informationen abzudecken. Rankings und Backlinks kommen dann erfahrungsgemäß von alleine.

Ich persönlich habe mich mit Rankbrain, Machine-Learning oder AMP noch nicht wirklich intensiv beschäftigt. Warum? Wir haben eben auch noch einige Hausaufgaben zu erledigen, bevor wir uns mit „Advanced-Themen“ beschäftigen können.

Michael Göpfert

Michael Göpfert
Unternehmen SportScheck GmbH
Position Senior SEO Manager
Spezialgebiet OnPage SEO
SEO seit 2009
Website Blog
XING Michael Göpfert

Flexibilität und Anpassungsfähigkeit, diese Eigenschaften werden für SEOs in Zukunft noch wichtiger werden. Denn auch Google steht vor der Herausforderung sein Geschäftsmodell zukunftsfähig zu machen und das Abwandern der User in Systeme auf die Google keinen Zugriff hat zu verhindern. Schon jetzt geht dies häufig zu Lasten der organischen Suchergebnisse. Auf der anderen Seite öffnen sich jedoch für Suchmaschinenoptimierer viele neue Türen, als Beispiele seien hier nur App Store Optimization, Amazon SEO und das Thema App-Indexierung genannt.

Um adäquat auf diese Entwicklungen reagieren zu können, muss man jedoch in Lage sein die unterschiedlichen Anforderungen mit seinen Systemen bedienen zu können. Dazu wird es viel technisches Know­how benötigen, denn auch die Webtechnologien entwickeln sich rasant weiter und Webseiten werden immer dynamischer und komplexer. Hier eine optimale Crawl- und Indexierbarkeit zu gewährleisten, stellt viele bereits heute vor große Herausforderungen. Der moderne SEO wird in Zukunft also noch mehr als Moderator und Schnittstelle zwischen Suchmaschine und IT gefragt sein.

Abseits des technischen SEO wird Google alles daran setzen, Manipulationen an den Rankings weiter zu erschweren. Durch RankBrain ist Google mittlerweile in der Lage einzelne Faktoren abhängig von der Suchanfrage unterschiedlich zu gewichten. Die Definition einzelner Ranking-Signale wird dadurch weiter erschwert. Umso wichtiger wird es für Suchmaschinenoptimierer seine Zielgruppen zu kennen, um die Suchintentionen bestmöglich interpretieren und bedienen zu können.

Dennis Ommer

Dennis Ommer
Unternehmen REWE digital
Position Digital Marketing Manager
Spezialgebiet Technisches SEO
SEO seit 2008
Website dennisommer.de
XING / Twitter Dennis Ommer / @DennisOmmer

Die Disziplin SEO unterliegt einem ständigen Wandel und kontinuierlichen Veränderungen. Jedoch gibt es einen entscheidenden und für das Ranking von Seiten besonders wichtigen Kern der Thematik, an dem sich über die Jahre nicht viel verändert hat - und sich meiner Meinung nach auch nicht viel ändern kann.

Das Ranking in den Google Suchergebissen resultiert aus einer Kombination verschiedener Faktoren, die sich heute genau wie damals in Onpage- und Offpage-Faktoren einteilen lassen. Die Onpage-Faktoren müssen passen, damit die Offpage-Maßnahmen die gewünschte Wirkung entfalten und sich positiv auf das Ranking der Seite auswirken. Konzentriert man sich nur auf eine der beiden Gruppen von Einflussfaktoren, erzielt man vorrausichtlich ein unterdurchschnittliches Gesamtergebnis.

Was sich im Laufe der Zeit an dieser Systematik geändert hat, ist lediglich der Wandel von Quantität zu Qualität und von Bot zur Nutzerorientierung. Während es früher geholfen hat 1.000 Links von irgendwelchen Seiten aufzubauen, hilft es heute wahrscheinlich eher einen Link aufzubauen der thematisch passt und einen Mehrwert für den Nutzer mit sich bringt (Contentqualität).

Nutzer die über einen solchen Link auf die Webseite gelangen werden dort vermutlich finden, was sie gesucht haben und länger verweilen, womit wir auch zu dem für mich springendem Punkt im Bereich SEO kommen: User-Signals. Positive Signale, die Nutzer einer Webseite an Google senden, stellen für mich den derzeit bedeutendsten Ranking-Faktor dar. Diese erzielt man einzig und allein durch hochwertige Inhalte und eine genaue Analyse der Suchintention.

Deswegen entwickelt sich die Disziplin SEO eindeutig hin in Richtung User-Experience-Optimierung und damit zu einer Art qualitätssichernden Instanz in der Online-Welt.

Sascha M. Otto

Sascha M. Otto
Unternehmen PETS DELI Roseneck GmbH
Position Senior SEO Manager
Spezialgebiet Strategieentwicklung
SEO seit 2010
Website www.petsdeli.de
XING Sascha M. Otto

Ich denke SEO wird sich noch stärker als Disziplin der Marketingkommunikation verstehen müssen. Die Arbeit eines guten SEOs beginnt meiner Ansicht nach mit einer Zielgruppen-Analyse, einer Wettbewerbsstrategie und einer vernünftigen Konzeption. Dabei sollte man das eigene Angebot und die eigenen USPs im Blick haben.

Es macht wenig Sinn für Inhalte in den SERPs präsent zu sein, die keinen oder nur einen geringen Mehrwert für den User haben.

Google hat sich diesbezüglich im Grunde auch wenig verändert – lediglich der Algorithmus hat sich verbessert. Ein passendes Angebot für die Zielgruppe wurde schon immer mit guten Usersignalen belohnt. Diese Signale fließen nun stärker in Googles Bewertung hinein. SEOs sollten deshalb immer auch einen Teil ihrer Zeit in der Webanalyse verbringen. Metriken wie Bouncerate, Nutzerinteraktion und Verweildauer können bei regelmäßigen Analysen und Handlungsableitungen dabei helfen das eigene Angebot zu verbessern.

Natürlich hilft die beste Marketingstrategie recht wenig wenn man nicht seine Hausaufgaben gemacht hat. Technische „Hygiene“ der eigenen Domain ist eine Grundvoraussetzung für Crawling und Indexierung. Ein Fokus sollte auch in 2016 beispielsweise auf dem eigenen URL-Handling und Indexierungsmanagement liegen. Als SEO gehört es zum daily business sich mit Fragen zu beschäftigen wie: Welche Inhalte sind erreichbar? Welche Inhalte gehören in den Index? Wie nutze ich das Crawlingbudget von Google & Co. am effizientesten aus?

SEO hat viele Berührungspunkte mit anderen Marketingdisziplinen. Für die Zukunft wird es noch wichtiger werden die Synergien zwischen den verschiedenen Teilbereichen richtig auszuspielen. Ein ganzheitliches Vorgehen wird stets eine positive Bewertung in Googles Rankingfaktoren mit sich bringen.

Thomas Rittsche

Thomas Rittsche
Unternehmen Unitedprint SE
Position Head of Online Marketing
Spezialgebiet Allrounder
SEO seit 2008
Website print24.com
XING Thomas Rittsche

Die Suchmaschinenoptimierung wird auch in den nächsten Jahren nicht an Bedeutung verlieren, wird sich aber immer wieder neuen Anforderungen stellen müssen.

Links haben meiner Meinung nach als Rankingfaktor etwas an Bedeutung verloren, qualitative Inhalte und positive Usersignale sind wichtiger geworden. Diesen Anforderungen gilt es beispielsweise aktuell gerecht zu werden.

Auch als technische Berater sind SEOs zukünftig gefragte Spezialisten. Gerade große Domains mit vielen Seiten und internationaler Ausrichtung haben oft technische Defizite in Hinsicht Crawlability, Indexability und interner Verlinkung, für deren Optimierung es Spezialisten braucht, da das entsprechende Fachwissen in den IT-Abteilungen der Unternehmen selten vorhanden ist.

Stefanie Senn

Stefanie Senn
Unternehmen Chefkoch GmbH
Position Inhouse-SEO
Spezialgebiet App SEO und Social SEO
SEO seit 2012
Website senn-seo.de
XING Stefanie Senn

In unserer täglichen Arbeit wird es immer schwieriger Entwicklungen, Trends oder Dips auf ein ursächliches Ereignis zurückzuführen, egal ob es ich um die täglichen Core-Updates von Google oder innerbetriebliche Prozesse der verschiedenen Abteilungen handelt. Mit Machine-Learning und RankBrain nimmt die Komplexität weiter zu, während gleichzeitig Google Ranking-Faktoren und deren Wechselwirkung an Bedeutung für die Optimierung von Websites verlieren.

Neben täglichen Real-Time-Algorithmus-Änderungen sind die Anforderungen auch plattformübergreifend gestiegen. So konzentrieren wir uns nicht mehr ausschließlich auf das stationäre Web, sondern zunehmend auch auf das mobile Web und die Apps. Ursache hierfür sind die steigende Nutzung mobiler Devices und die App Store spezifischen Ranking-Faktoren der Apps.

Unabdingbar und immer wichtiger werden das zentral koordinierte und nachgehaltene Tracking und Reporting der getätigten Aufgaben und Optimierungsmaßnahmen – sowohl im stationären Web wie auch auf den mobilen Seiten und in den Apps. Deshalb stehen wir Suchmaschinenoptimierer hier vor einer neuen Herausforderung. Denn geeignete Analysemethoden werden in Zukunft noch wichtiger und komplexer und zählen mehr denn je zu den erforderlichen Skills eines SEOs.

Alle genannten Entwicklungen erschweren die tägliche Arbeit und machen die „klassische“ Suchmaschinenoptimierung im Hinblick auf die Google Ranking-Faktoren zunehmend komplexer. Ein SEO muss auf Entwicklungen und Trends reagieren können und betreibt inzwischen oft mehr eine Art Risikomanagement, anstatt gezielt aufgrund der Ranking-Faktoren zu optimieren. Auf diese entsprechend reagieren zu können, wird aufgrund der genannten Entwicklungen immer schwerer fassbar für uns. Der bedeutendere Part liegt in Folge dessen bei Themen wie Nutzerzufriedenheit, Bedürfnisbefriedigung der User sowie Engagement-Optimierung. Das ist in meinen Augen der wichtigste Aspekt und Kern unserer zukünftigen Arbeit.

Die Meta-Studie

Diese Meta-Studie führt die interessantesten Informationen aus den weltweit besten Ressourcen zum Thema Google-Ranking-Faktoren zusammen.

Für Einsteiger in den Bereich haben wir jeden Faktor um eine subjektive Bewertung und unsere eigenen Erfahrungen in Form von Einschätzungen, Hinweisen und Tipps ergänzt.

Unsere Hauptquellen

Alle Ergebnisse dieser Studien sind gründlich aufgearbeitet, zusammengefasst und jeweils zitiert. Die gelisteten Faktoren sind, wo angebracht, mit den Hauptquellen abgeglichen. Englische Quellen haben wir meistens frei übersetzt. Zahlen haben wir in Wörter übersetzt, zum Beispiel ist eine hohe Bewertung „wichtig“, falls es eine mittleren Wert geht oder „extrem wichtig“, falls es um einen der höchsten Werte geht. Umgekehrt „schädlich“ bis „extrem schädlich“ bei Negativfaktoren.

Als Basis für die Liste und die Kategorien der Faktoren hat uns in erster Linie BACKLINKO-GRF gedient. Viele der gelisteten Faktoren waren unserer Ansicht nach ein wenig „bei den Haaren herbeigezogen“. Dies ist wahrscheinlich dem Umstand geschuldet, dass der Beitrag versucht unbedingt über 200 Faktoren zu listen. Es ist aber dennoch eine exzellente Liste.

Unser Ziel bei der Auswertung und Zusammenfassung all dieser Quellen ist, ein Dokument zu schaffen, welches je Faktor die jeweils wichtigsten Quellen und Aussagen zusammenfasst, aber dennoch für einen Einsteiger in die wundervolle Welt der Google-Rankings übersichtlich und verständlich bleibt.

Unser Dank geht an alle Bereitsteller dieser Informationen, in die jeweils eine Menge Zeit und Aufwand investiert wurde.

Statistiken, Korrelationen und „Erfahrungswerte“

Nur Google weiß, wie der Algorithmus wirklich funktioniert. Behalten Sie dies immer im Hinterkopf, wenn Sie über Ranking-Faktoren lesen. Es besteht zwar eine gewisse – vielleicht sogar eine gute – Wahrscheinlichkeit, dass viele der gelisteten Faktoren tatsächlich eine Auswirkung haben, nur wirklich wissen tut das niemand.

Gerade wenn es um Korrelationen geht, ist größte Vorsicht geboten. Die meisten Untersuchungen verlassen sich auf diese Korrelationen, um Aussagen über Rankingfaktoren zu machen. Hier ein Beispiel:

Wenn eine Website viele Likes auf Facebook hat, dann korreliert das zu einer gewissen Wahrscheinlichkeit mit besseren Rankings.

Problem: Korrelation beschreibt keine Ursache-Wirkungs-Beziehung, sie ist keine Kausalität. Im Beispiel: Es ist nicht mit Gewissheit bestimmbar, dass tatsächlich die Likes auf Facebook die besseren Rankings verursacht haben. Vielleicht bedeuten viele Fans und Shares auf Facebook, dass es mehr Menschen gibt, die über unsere Website berichten bzw. sie verlinken und das könnte der Grund für die besseren Rankings sein. Oder vielleicht sind die vielen Likes nur ein Nebeneffekt. Vielleicht haben die guten Rankings sogar die vielen Likes bewirkt. Keiner kann es mit Sicherheit sagen. Außer Google natürlich.

Wer schon eine Weile selbst SEO betreibt, der sammelt sie: Erfahrungswerte. Sie runden unser Repertoire ab. Zum Beispiel ist einer der Erfahrungswerte bei seo2b, dass seit 2012 (Pinguin-Update April 2012) wenige Links von hoher Qualität effektiver sind als viele Links von mittlerer oder niedriger Qualität. Gespräche mit Branchenkollegen bestätigen das. Allerdings gibt es immer noch viele Marktbegleiter, die heutzutage im Linkaufbau so arbeiten, als wäre es noch Anfang 2012. Das merken wir vor allem in unseren Kundengesprächen, in denen wir immer noch sehr viel aufklären müssen.

Insgesamt halten wir fest: Es gibt aufgrund Googles Hoheit schlichtweg keine bessere Methoden. Neben den wenigen Hinweisen, die uns Google selbst an die Hand gibt, sind wir auf Statistiken, Korrelationen und „Erfahrungswerte“ als Methoden angewiesen, um wenigstens ein bisschen Licht ins Dunkel zu bringen. Wir zitieren hier den SEO-Experten Hanns Kronenberg bei SISTRIX, der schreibt: „SEO ist keine exakte Wissenschaft“. Also bleiben Sie stets skeptisch und testen Sie immer selbst, was am besten bei Ihnen funktioniert!

Bewertungen

Wir wollten nicht nur eine Liste mit Rankingfaktoren veröffentlichen, sondern diese auch mit einem einfachen und subjektiven Bewertungssystem ergänzen. Die Bedeutung unseres 5-Sterne-Systems ist wie folgt:

Mythos: Hat keinerlei Relevanz für das Ranking. Es kann allerdings trotzdem sinnvoll sein, die Technik zu verwenden, falls Ihre Besucher davon profitieren.
Ist nur von sehr geringer Bedeutung. Wer nicht auf diese Faktoren achtet, macht in den meisten Fällen nichts falsch. Ausnahmen können die Regel bestätigen.
Leichter Einfluss auf das Ranking. Diese Faktoren scheinen halbwegs plausibel. In vielen Fällen kann man sie aber auch missachten.
Mittlerer Einfluss auf das Ranking. Diese Faktoren sollten Sie berücksichtigen. Wer sie in großer Menge ignoriert, könnte Probleme bekommen.
Hoher Einfluss auf das Ranking. Diese Faktoren muss die eigene SEO-Strategie unbedingt berücksichtigen. Wer schon einzelne solcher Faktoren nicht berücksichtigt, verbaut sich mit großer Wahrscheinlichkeit langfristig erfolgreiche Rankings.
Sehr hoher Einfluss auf das Ranking. Ohne diese Faktoren zu beherzigen, gibt es auch keine guten Rankings. Fertig!

Mit diesem Bewertungssystem wollen wir Einsteigern dabei helfen, sich auf die – unserer Meinung nach – wichtigen Punkte zu konzentrieren. Es gilt hier zu berücksichtigen, dass jedes Projekt andere Voraussetzungen und Anforderungen für gute Rankings mitbringt. Daher kann es natürlich sein, dass auch wichtige Faktoren an Bedeutung verlieren. Ein Beispiel: Einer renommierten Zeitung mit einer langen Domain-Historie und vielen Links (zum Beispiel spiegel.de) ist der Aufbau von guten Links (5 Sterne) nicht so wichtig, wie für einen gerade neu gestarteten Onlineshop.

Nur weil ein Ranking-Faktor vielleicht eine 1/5 oder 2/5 von uns erhält, heißt das nicht, dass er völlig unwichtig ist. In bestimmten Situation kann er relevant sein. Googles Einführung in der Suchmaschinenoptimierung bringt es schön auf den Punkt:

„Suchmaschinenoptimierung macht es oft notwendig, kleine Änderungen auf Teilen der Website durchzuführen. Wenn man diese Änderungen jeweils für sich allein betrachtet, mögen sie nur wie kleine Verbesserungen wirken, aber wenn sie mit den anderen Optimierungsmaßnahmen kombiniert werden, können sie eine deutliche Wirkung auf Nutzer eurer Site und das Abschneiden in der organischen Suche haben.“

Ranking-Faktoren 2016

Der ehemalige Chef des Web Spam-Teams Matt Cutts, der jahrelang für Webmaster das einzige Sprachrohr Googles war, bringt es in einem seiner vielen Youtube-Videos auf den Punkt:

„The fact is, it’s mostly the quality of your content and the sort of links that you get as a result of the quality of your content that determine how well you’re going to rank in the search engines.“

Auf Deutsch

„Fakt ist, es ist hauptsächlich die Qualität Ihrer Inhalte und die Typen von Links, die Sie als Folge der Qualität Ihrer Inhalte enthalten, die bestimmen wie gut Sie in den Suchmaschinen ranken werden.“

In einem Google-Hangout vom März 2016 (Google Q&A+ #March) bestätigt Andrey Lipattsev, Search Quality Senior Strategist bei Google (Irland), dass die beiden wichtigsten Faktoren zur Berechnung der Rankings, zu gleichen Anteilen Content und Links sind. Danach erst käme das RankBrain. Auf die Frage nach der Reihenfolge, also ob jetzt Content oder Links wichtiger wären, antwortet er, dass es keine Reihenfolge gäbe. Content und Links seien gleich wichtig.

Diese Aussagen vorausgesetzt, sollte klar sein, dass viele der Faktoren aus dieser Meta-Studie, die nichts mit Content und/oder Links zu tun haben, keine sonderlich hohe Relevanz für das Ranking haben. Das muss jedoch auch nicht bedeuten, dass sie nicht trotzdem optimiert werden sollten. Denn grundsätzlich gilt auch: Was für den Nutzer gut ist, dass findet auch Google gut.

Die seo2b Top-Domainfaktoren

Domainfaktoren

In diesem Abschnitt stellen wir Faktoren vor, die sich auf die gesamte Website bzw. Domain auswirken.

Domain-Historie

Je mehr positive Signale eine Domain im Laufe der Zeit sendet, desto besser ist das für ihre Vertrauenswürdigkeit. Die wichtigen Fragen sind hier:

  • Wann hat Google die Domain zuerst entdeckt?
  • Wann wurde die Domain zuerst in einem Dokument erwähnt oder verlinkt?
  • Wie aktiv oder inaktiv ist/war die Domain?
  • Wann erreicht die Domain zuerst eine gewisse Anzahl an Seiten?
  • Welches Linkwachstum hat in welchem Zeitraum stattgefunden?

Die Faktoren innerhalb der Domain-Historie sind aufgrund der Aussagen Googles und dem zugrunde liegenden Patent sehr wahrscheinlich plausibel. Dabei spielt jeder einzelne Faktor für sich betrachtet eine untergeordnete Rolle. Es kommt auf den richtigen Mix an.

seo2b-Erfahrungen

Insgesamt halten wir die Faktoren der Domain-Historie für herausragend wichtig, denn eine negative Historie kann dazu führen, dass es fast unmöglich wird, eine Domain in den Rankings wiederzubeleben. Google hat ein langes Gedächtnis und riskante Manöver können dazu führen, dass eine Domain völlig unbrauchbar wird.

Umgekehrt belohnt Google einen sauberen und kontinuierlichen Aufbau von Inhalten und Links. Erfahrungswerte zeigen, dass – bei richtiger Pflege – eine Domain im Laufe der Zeit immer stärker wirkt und besser rankt.

Aus Sicht der Informatik lässt sich ebenfalls vermuten, dass jegliche historische Faktoren, die Google über einen Zeitraum aufzeichnet und auswertet, auch in starkem Zusammenhang mit „Rankbrain“ stehen. Rankbrain ist bei Google der Begriff für einen Teil des Algorithmus’, der mittels künstlicher Intelligenz (KI) Ergebnisse sortiert und berechnet. Diese KI wertet gewisse Daten über einen Zeitraum aus und stellt die Ergebnisse für verschiedene Domains in Relation. So kann es zum Beispiel sein, dass eine neuere Seite (B) mit weniger Links besser rankt, als eine ältere Seite (A) mit mehr Links, wenn die Rate der Verlinkung auf der neueren Seite (B) in einem gewissen Zeitraum höher ist, als die von Seite (A).

Lohnt es sich zum Beispiel von einer zwei Jahre alten auf eine zehn Jahre alte Domain umzusteigen? Auch dann, wenn diese zwei Jahre alte Domain aktuell sehr gute Ergebnisse erzielt? Wir raten in den meisten Fällen davon ab. Es ist zu riskant. Handelt es sich um ein ganz neues Projekt? Dann kann es nicht schaden, nach einer älteren Domain Ausschau zu halten. Hier gilt es allerdings zu bedenken, dass ältere Domains in ihrer Historie auch negative Signale enthalten können. Es ist also auch immer zugleich ein Risiko, auf eine ältere Domain zu setzen.

Wir vermuten basierend auf Matt Cutts’ Aussagen, dass es in meisten Fällen ausreicht, eine Domain zwei bis drei Monate lang reifen zu lassen. Danach sollte sie dazu in der Lage sein, auch mit älteren Domains mitzuhalten. Es kommt alles darauf an, was in und nach diesen zwei bis drei Monaten passiert.

Weitere Quellen und Nachweise

Alter der Domain

Je älter eine Domain, desto besser. So die Theorie. Um das Domainalter zu bestimmen, wird jedoch nur der Registrierungszeitpunkt herangezogen. Googles Matt Cutts sagte bisher dazu: „Der Unterschied zwischen einer Domain, die sechs Monate und einer, die ein Jahr alt ist, ist überhaupt nicht groß.“

MOZ-CORRELATION-2015 Es gibt eine kleine Korrelation zwischen dem Zeitpunkt der Registrierung und besseren Rankings.
MOZ-SURVEY-2015 Umfrageteilnehmer halten das Alter der Domains für wichtig.

seo2b-Erfahrungen

Angenommen Domain A wurde 1995 registriert und Domain B erst 2015. Sollte Domain A den Vorzug erhalten, auch wenn Domain B zum Beispiel ein besserer Name ist? Unserer Meinung nach nur, falls alle anderen Faktoren vergleichbar sind. Beide Domains haben gleich viel Content, Links und eine vergleichbare Historie. Nur wegen des Domainalters zu wechseln, empfehlen wir jedenfalls nicht.

Weitere Quellen und Nachweise

Keyword in der Domain

Die Erfahrung zeigt, dass das Keyword in der Domain immer noch eine kleine Rolle spielen kann. Bekannte Beispiele für Domains mit extrem guter SEO-Performanz.

  • Mit Keyword: notebooksbilliger.de
  • Ohne Keyword: amazon.de

Der Onlineshop notebooksbilliger.de ist neben Amazon der größte Onlineshop für Computerware in Deutschland, nicht nur für Notebooks. Er hat allerdings auch Kategorien wie Haushaltswaren, Werkzeug & Garten oder LED-Beleuchtung. Das Beispiel macht deutlich, wie sehr eine Keyworddomain die zukünftige Markenwahrnehmung beeinflussen kann.

notebooksbilliger
Google assoziiert den Begriff „notebooksbilliger“ mit „notebook“. Das ist bestimmt nicht nur wegen dem Keyword in der Domain der Fall.

Auf der anderen Seite ist es so möglich eine Keyworddomain zum Markennamen zu erheben. Eine solche Assoziation ist mit einer Domain ohne Keywords nicht einfach oder sogar unmöglich. (Wer Gegenbeispiele kennt, kann sich gerne an uns wenden.)

Weiterhin sei es von leichtem Vorteil, falls die Keywords eher vorne als hinten in der Domain stehen.

Insgesamt ist die Verwendung von Keyword-Domains ein absteigender Trend.

SEARCHMETRICS-2015 „Der Anteil von Keyword-Domains in den Suchergebnissen nimmt weiter kontinuierlich ab.”
MOZ-SURVEY-2015 Umfrageteilnehmer halten das Keyword in der Domain immer noch für (EMD) wichtig und weniger wichtig, falls das Keyword nur Teil des Namens ist.

seo2b-Erfahrungen

Wie wahrscheinlich ist es, dass sich das Geschäftsmodell langfristig ändert und die Assoziation hinderlich wird? Ansonsten kann es nicht schaden, eine Keyworddomain zu betreiben oder beides zu berücksichtigen. Zum Schluss ist dieser Faktor ein schöner Bonus, aber keineswegs unbedingt notwendig, um gute Rankings für die jeweilige Keywordkombination zu erzielen. Da Keyworddomains in aller Regel nur noch mit viel Glück frei registrierbar sind, kommen unter Umständen zusätzliche Anschaffungskosten hinzu. Es ist also genau abzuwägen, ob sich das lohnt. Entscheidend ist es heutzutage nicht mehr.

Weitere Quellen und Nachweise

Keyword in der Subdomain

Sollten Seiten eher in Unterverzeichnissen oder auf Subdomains aufrufbar sein? Eine heiß diskutierte Debatte. Was ist besser?

  • Unterverzeichnis: website.xy/keyword oder
  • Subdomain: keyword.website.xy

Wenn es einen Rankingboost für das Keyword in der Subdomain geben sollte, dann ist dieser minimal.

SEARCHMETRICS-2015 hat gemessen, dass es „deutlich mehr Verzeichnisse als Subdomains in den SERPs [gibt].“
MOZ-CORRELATION-2015 Es gibt eine leichte Korrelation mit besseren Rankings, für das Keyword in der Subdomain.
MOZ-SURVEY-2015 Umfrageteilnehmer halten dies für wichtig, aber weniger wichtig, als das Keyword in der TLD.

seo2b-Erfahrungen

Der Effekt von „Keyword in der Subdomain“ ist vergleichbar mit dem Faktor „Keyword in der Domain“. Beispielsweise betreibt Stepstone Subdomains mit Keywords für bestimmte Kategorien und erzielt damit gute Ergebnisse.

Hilft das Keyword in der Subdomain?

Im Beispiel ranken direkt zwei Seiten auf Platz 2 und 3. Vielleicht ist das eine Strategie, die man zum Beispiel an einer einzelnen Seite ausprobieren sollte. Wichtig dabei: Beide Seiten müssen unterschiedliche Inhalte liefern.

In der Praxis ist jedoch zu beachten, dass mehrere Subdomains auch entsprechend verwaltet und aktualisiert werden müssen.

Weitere Quellen und Nachweise

Länge der Domainregistrierung

Google bestätigt, dass es sinnvoll sein kann, die Registrierungsdauer zu berücksichtigen. Domains lassen sich viele Jahre im Voraus sichern. Eine längere Sicherung kann ein Zeichen von höherer Legitimität sein. Ein direktes Zitat aus dem Patent:

„Wertvolle (legitime) Domains werden oft mehrere Jahre im Voraus bezahlt, während Doorway-Domains (illegitime Domains) selten für mehr als ein Jahr gebraucht werden. Daher kann das Auslaufdatum einer Domain als ein Faktor dazu verwendet werden, die Legitimität einer Domain vorherzusagen.“
MOZ-CORRELATION-2015 Es gibt eine sehr kleine Relation zwischen der verbleibenden Laufzeit der Domain und besseren Rankings.
MOZ-SURVEY-2015 Umfrageteilnehmer halten dies für weniger wichtig.

seo2b-Erfahrungen

Die meisten Domainnamen sind doch recht günstig, was die Verlängerungsoptionen betrifft. Wer nicht gerade Dutzende oder mehr Domains betreibt, sollte schon alleine aus dem Sicherheitsgedanken heraus projektierte Domains für einen längeren Zeitraum registrieren. Schaden kann es jedenfalls nicht.

Weitere Quellen und Nachweise

Exact-Match-Domain

Eine Exact-Match-Domain (EMD) kann einen Vorteil verschaffen, wenn denn auch der Rest dieser Website richtig optimiert ist. Ein Beispiel für eine EMD: hotel.de. Allerdings hat Google in 2012 die Relevanz dieses Faktors für „EMDs von geringer Qualität“ reduziert.

exact-match-domains
Matt Cutts verkündete die Degradierung von EMDs
MOZ-CORRELATION-2015 findet eine leicht erhöhte Korrelation für Exact-Match-Domains, bei denen die Endung ebenfalls .com ist.

seo2b-Erfahrungen

Wer eine EMD bekommen kann, der sollte sie wahrscheinlich immer noch nehmen. Bei korrekter Projektierung kann eine EMD immer noch gegen ansonsten stärkere Domains gewinnen. Ein Beispiel:

emd
EMD setzt sich gegen stärkere Domain durch

Weitere Quellen und Nachweise

Anonymisierte Domain-Registrierung

Wer seine privaten Daten bei der Domainregistrierung – zum Beispiel durch einen Dienst zur anonymen Registrierung – versteckt, könnte Gefahr laufen, dafür abgewertet zu werden. Hier ein Zitat von Googles Matt Cutts von 2006:

[…] Anonyme Registrierungen zu nutzen, ist nicht automatisch schlecht, allerdings könnte das in Verbindung mit anderen Faktoren den Verdacht erwecken, dass es sich hier um einen „anderen Typ“ von Webmaster handelt […]

seo2b-Erfahrungen

Registrieren Sie nur in Ausnahmefällen und mit gutem Grund anonym.

Länderspezifische Top-Level-Domains

Wie wichtig ist es, eine länderspezifische TLD wie zum Beispiel .de, .at oder .ch zu verwenden? Als alleinstehender Faktor ist dies nicht so wichtig. Apple verwendet zum Beispiel nur eine Hauptdomain (apple.com) und legt die jeweiligen Länder und Sprachversionen in Unterverzeichnisse (apple.com/de/ für Deutschland), siehe Choose your country or region - Apple.

SEARCHMETRICS-2015 „Ein Rankingfaktor sind TLDs generell nicht.“
MOZ-CORRELATION-2015 findet eine leicht erhöhte Korrelation für Exact-Match-Domains, bei denen die Endung ebenfalls .com ist.

seo2b-Erfahrungen

Im obigen Beispiel würde Apple vielleicht minimal von einem Wechsel auf die .de-Domain profitieren. Dafür würde allerdings das bisher aufgebaute Linkprofil (Links aus Deutschland auf apple.com/de/) nicht mehr die internationale Domain stärken. Wer absehen kann, dass das eigene Angebot ausschließlich auf ein Land beschränkt bleibt und auch keine Vorteile in der Internationalisierung sieht, der kann es mit länderspezifischen Domains probieren. Ansonsten empfehlen wir in den meisten Fällen eine zentrale Domain aufzubauen.

Weitere Quellen und Nachweise

Die seo2b Onpage-Faktoren für die Seite

Onpage-Faktoren für die Seite

Onpage-Faktoren für die Seite beziehen sich immer und ausschließlich auf einzelne Seiten. Sie bewerten den Aufbau, den Text und die internen Links der jeweiligen Seite.

Seite von hoher Qualität

Google schreibt in GOOGLE-SQRG, dass eine Seite von hoher Qualität ist, wenn sie diese Kriterien erfüllt (frei übersetzt):

  • Eine befriedigende Menge an Hauptinhalt (Main Content) zum angegebenen Thema.
  • Die Inhalte sind fundiert, verlässlich und vertrauenswürdig.
  • Die Website hat bezogen auf das Thema eine gute Reputation.
  • Es gibt eine zufriedenstellende Anzahl von Informationen über den Website-Betreiber, zum Beispiel Über uns, Kontakt, Service-Informationen etc.
  • Zusätzlich zu den Hauptinhalten enthält die Website unterstützende Nebeninhalte (Supplementary Content), die das Erlebnis der Besucher bereichern.
  • Ein funktionstüchtiges Design, was einen problemlosen Konsum von Haupt- und Nebeninhalten ermöglicht.
  • Eine gepflegte Gesamt-Website.

seo2b-Erfahrungen

Bei der Beurteilung einer einzelnen Seite legen Googles Quality-Rater einen unglaublichen hohen Standard an. Sie ziehen zur Qualitätsbeurteilung das Gesamterscheinungsbild heran. Es reicht also nicht nur eine gute Seite zu haben. Die gesamte Website muss passen! Außerdem überprüfen sie, was andere Websites über die vorliegende Seite UND den Anbieter zu sagen haben und nehmen dies mit in ihre Bewertung auf.

Zusatzinhalte, Tools und Multimedia

Google liebt es, wenn Sie Ihren Content um Zusatzinhalte, Tools und Multimedia bereichern. Dies geht klipp und klar aus den GOOGLE-SQRG hervor.

GOOGLE-SQRG Eine Seite mit zusätzlichen Inhalten (Supplementary-Content) oder ergänzenden Multimedia-Inhalten wird durch Quality-Rater positiv bewertet.

seo2b-Erfahrungen

Fügen Sie ihren Seiten zusätzliche Inhalte in Form von Vergleichstabellen, Rechnern, interaktiven Multimedia-Elementen etc. hinzu.

Weitere Quellen und Nachweise

Ein nutzerfreundliches Layout

Was genau ein nutzerfreundliches Layout ist, das geht ebenfalls aus GOOGLE-SQRG hervor. Wichtig dabei ist, dass die Hauptinhalte nicht hinter vielen unnützen Elementen, wie zum Beispiel Werbung verschwinden. Ein Nutzer muss schnell an die Hauptinformationen kommen. Auch wenn es vielleicht kein algorithmischer Faktor ist, so spielt er wenigstens für die Quality-Rater eine entscheidende Rolle:

  • Der Hauptinhalt muss klar erkennbar sein und im Vordergrund stehen.
  • Der Hauptinhalt ist das Erste, was der Besucher sieht.
  • Das Design, der Aufbau, die Nutzung von Raum, die Fonts, die Fontgröße, der Hintergrund usw. machen es absolut klar, was der Hauptinhalt ist.
  • Werbung und Nebeninhalte sollten nicht vom Hauptinhalt ablenken, aber dennoch gut erreichbar sein.
  • Werbung ist klar gekennzeichnet.

seo2b-Erfahrungen

Ein gutes Layout ist Grundvoraussetzung für den optimalen Konsum von Inhalten. Hier lohnt es sich, langfristig zu investieren.

Nützliche Inhalte

Google möchte nützliche Suchergebnisse liefern. Nicht die „besten“. Google zieht also nützliche Inhalte guten Inhalten vor. Gute Inhalte von allumfassender Qualität könnten schlechter verständlich oder unübersichtlicher sein, als nützliche Inhalte. Google könnte diese nützlichen Inhalte auch dann vorziehen, wenn die guten Inhalte mehr Daten & Fakten korrekt und wahrheitsgemäß darstellen, aber nicht so zugänglich sind.

needs-met
Screenshot: Quality-Rater müssen eine Website auf dieser Skala einstufen

Google definiert in den GOOGLE-SQRG sogar eine Skala der Nützlichkeit für die eigenen Suchergebnisse. Quality-Rater verwenden diese, um eine Gesamtaussage über eine Suchergebnisseite zu machen. Sind die Ergebnisse bei einer bestimmten Suchanfrage nicht gut genug, kann Google entsprechende Seiten abwerten oder den Algorithmus anpassen.

seo2b-Erfahrungen

Sorgen Sie dafür, dass Ihre Inhalte sowohl nützlich als auch qualitativ hochwertig sind. Unter nützlich verstehen wir, dass vor allem komplexe oder sehr lange Inhalte für Leser mit wenig Zeit zusammengefasst werden. Denken Sie bei der Contentproduktion an alle möglichen Besucher, Leser und Lerntypen. Versuchen Sie den Nutzwert Ihrer Seiten zu maximieren. Jeder Besucher muss in der kürzest möglichen Zeit an seine Informationen kommen.

Bewertung

Latente-Semantische-Indexierung (LSI)

Es ist wahrscheinlich, dass Google die Methoden aus der Latenten-Semantischen-Analyse (LSA) oder eine damit vergleichbare Methode verwendet, um die eigenen Suchergebnisse zu optimieren. Die LSA ist eine Methode des Information-Retrievals (die Wissenschaft der Suchmaschinen), die Oberbegriffe bestimmen kann.

lsi-katze
Eine Suche nach [tier miau] liefert Ergebnisse zum Begriff [katze]

Google hat in anderen Dokumenten, in denen die Begriffe „Tier“ und „Miau“ oft vorkamen, mit Hilfe der LSA auch den Begriff „Katze“ oft gefunden. So kann es diese Ergebnisse anzeigen.

seo2b-Erfahrungen

LSI oder LSA sind Methoden, die die Suchmaschine einsetzt. Wie genau diese Methode im Zusammenhang mit der Suchmaschinenoptimierung zu verwenden ist, steht nicht wirklich fest. Es lässt sich aber schon behaupten, dass es hier hauptsächlich weniger um die Verwendung Synonymen von artverwandten, zugehörigen Begriffen geht. Wie lassen sich solche LSI-Keywords finden? Zum Beispiel am Boden der Suchergebnisse:

lsi-keywords-katze
Verwandte Suchanfragen zu [katze]

Der Begriff Felidae (lateinische Bezeichnung für Katze) ist ein Synonym. Aber vielleicht sollte ein Beitrag zum Thema Katze auch über Katzenrassen reden und Youtube-Videos von Katzen zeigen. An diese Begriffe kommt Google, da sie eben auch in anderen Dokumenten zum Thema Katze auftauchen.

Wir haben für diesen Faktor eine relativ hohe Bewertung gegeben. Ob Google LSA verwendet, ist nicht bekannt. Es ist auch egal, wie genau sich die wissenschaftliche Methode nennt. Uns gefällt, dass solche Methoden oder Denkweisen uns dabei helfen, Inhalte mit den unterschiedlichsten Begriffen anzureichern. Und das ist richtig und wichtig.

Weitere Quellen und Nachweise

Keywords

Eine Suche kann ein Wort nur dann in einem Dokument finden, falls es auch darin vorkommt.

SEARCHMETRICS-2015 „Die Bedeutung des Faktors ,Keyword’ ist in den meisten Bereichen weiter rückläufig. Vielmehr geht es darum, dass Content holistisch auf Topics optimiert wird, also sinnvoll zusammenhängende Keywords, die Entitäten darstellen.“
MOZ-CORRELATION-2015 „We continue to see lower correlations between on-page keyword use and rankings.“

seo2b-Erfahrungen

Keywords waren in der Vergangenheit das A und O im SEO. Heutzutage geht es mehr um Themen.

Keyword im Title-Tag

Der <title>-Title-Tag ist klassischerweise der wichtigste Ort für eine erste Klassifizierung des Themas einer Seite. Nur der eigentliche Inhalt der Seite ist wichtiger. Der Titel erscheint ebenfalls im Suchergebnis an erster Stelle. Für das Ranking spielt der Faktor keine tragende Rolle mehr. Angenommen eine Seite verwendet [Hart-umkämpftes-Keyword] im Title-Tag, dann ist das alleine genommen noch kein ausreichender Grund für ein gutes Ranking für diesen Begriff. Wie bei so vielen anderen Faktoren kommt es immer auf die richtige Kombination mit den anderen Faktoren an.

BACKLINKO-MIO Ein exaktes Keyword im Titel hat eine geringe Korrelation mit besseren Rankings.

seo2b-Erfahrungen

Das Keyword im Title-Tag zu verwenden ist definitiv Best Practice. Jede Seite sollte im Titel sowohl die Haupt-Keywords am besten am Anfang enthalten, einzigartig, nicht länger als 55 Zeichen sein und gleichzeitig den Leser zum Klicken motivieren. Ein empfehlenswertes Format: „Erstes Keyword – zweites Keyword | Marke“.

Weitere Quellen und Nachweise

Keyword in Meta-Description

Der Meta-Description-Tag dient als Zusammenfassung des Inhalts einer Webseite. Er erscheint in den Suchergebnissen direkt unter dem Titel und bietet etwas mehr Platz als der Titel. Für das Ranking spielt die Verwendung der Keywords eine untergeordnete aber nicht zu vernachlässigende Rolle. Der Meta-Description-Tag trägt jedoch zusammen mit dem Titel eine enorme Bedeutung, was das Klickverhalten angeht. Ein Sprichwort besagt: „Es kommt nicht darauf an, wie oft du erscheinst, sondern wie oft du angeklickt wirst.“

seo2b-Erfahrungen

Laut SISTRIX klicken/tappen fast 60 % in den Suchergebnisseiten auf die erste Position. Um auf Position 2 überhaupt noch eine Chance zu haben, muss man sowohl in Title, als auch in die Meta-Description-Tag Arbeit investieren. Ein besserer Handlungsaufruf (Call-to-Action) könnte hier Vorteile verschaffen. Es besteht Konsens, dass der Meta-Description-Tag vornehmlich zum Klicken animieren soll und erst danach zum Zwecke der Suchmaschinenoptimierung dient. Es lässt sich aber auch durchaus beides miteinander vereinen.

Je nach Anzeigemodus kann der Meta-Description-Tag zwischen 139 und 156 Zeichen (inkl. Leerzeichen) enthalten.

Weitere Quellen und Nachweise

Keyword in H1-H6-Tags

Die erste Überschrift im Dokument, das sogenannte <h1>-Element, kann ebenfalls dabei helfen, mehr Relevanz zu erzeugen. Das Element ist so etwas wie ein zweites Title-Element.

Heading-Tags-Ranking-Graph
Chris Butterworth: H1 rankt besser als P

Diese klein angelegte Studie von Chris Butterworth bestätigt, dass das <h1>-Element gegenüber einem einfach <p>-Element klare Rankingvorteile bringen kann. Die Ergebnisse solcher Studien sind allerdings mit Vorsicht zu genießen.

Was für das <h1>-Element gilt, funktioniert wahrscheinlich auch für die aufsteigenden Elemente <h2> bis <h6>. Diese Elemente dienen ursprünglich dazu, ein Dokument hierarchisch zu gliedern.

GOOGLE-EIS empfiehlt ausdrücklich den strukturierten Einsatz von Überschriften.

seo2b-Erfahrungen

Die Nutzung von Keywords in H-Elementen ist ebenfalls ein lang gehegter Standard. Wir empfehlen aber nicht nur ein einziges Keyword in allen Überschriften zu wiederholen. Viel besser ist die umschreibende Verwendung multipler Synonyme in den Überschriften. Wichtig ist es, dabei nicht zu übertreiben. Schreiben Sie Überschriften in erster Linie für den Leser.

Weitere Quellen und Nachweise

Keyword in URL

Das Keyword in der URL zu haben, kann einen winzigen Rankingboost liefern.

  • Schlecht: onlineshop.xy/123/456.html
  • Besser: onlineshop.xy/unterkategorie/produkt.html
  • Auch noch OK: onlineshop.xy/kategorie/unterkategorie/produkt.html

Komplizierte URLs schrecken andere eventuell davon ab zu verlinken.

MOZ-CORRELATION-2015 Sehr geringe positive Korrelation mit besseren Rankings.

seo2b-Erfahrungen

Selbstsprechende URLs sind immer noch die beste Möglichkeit für Suchmaschinen und Besucher zu signalisieren, was sich hinter einer URL (Adresse) verbirgt. Der Einsatz wird klar empfohlen.

Zu vermeiden sind Großschreibung, zu lange URLs, extreme Verschachtelung von Ordnern oder die übermäßige Anwendung von Parametern. Allgemein: Keine Wörter in der URL verwenden, die nichts mit dem Inhalt dieser Seite zu tun haben.

Länge des Inhalts

Korrelationsstudien bezeugen: Längere Inhalte ranken besser.

serpiq-content-length
serpIQ: Durchschnittliche Anzahl Wörter der Top-10-Ergebnisse

Darüber hinaus führen umfangreichere Inhalte im Schnitt sogar indirekt zu mehr Links.

links-based-on-wordcount
MOZ: Je mehr Wörter, desto mehr Links
SEARCHMETRICS-2015 findet ebenfalls eine Korrelation zwischen Länge der Inhalte und den Rankings. Je länger, desto besser.
content_word-count_de
searchmetrics: Je mehr Wörter, desto höher die Rankings
BACKLINKO-MIO „Längere Inhalte tendieren dazu, höher bei Google zu ranken. Die durchschnittlich erstgerankte Seite enthält 1.890 Wörter.“ Außerdem: „[Wir] haben herausgefunden, dass umfassende Inhalte signifikant besser funktionieren als flache Inhalte.“

seo2b-Erfahrungen

Wie viele Wörter haben die Beiträge, die jetzt schon für Ihre Suchbegriffe ranken? Zählen Sie einfach mal nach und experimentieren dann einfach mal mit unterschiedlich vielen Wörtern.

Eine Sache finden wir logisch. Je umfangreicher eine Seite ein Thema behandelt, desto mehr inhaltlichen Zusammenhang kann sie liefern. Daher kann die Länge der Inhalte auch die Wahrscheinlichkeit erhöhen, dass diese Seite für ihre Suchbegriffe eine bessere Performanz erzielt.

Es gilt jedoch zu bedenken, dass länger nicht immer nützlicher ist.

Weitere Quellen und Nachweise

Keyword-Dichte

Die Keyword-Dichte beschreibt den prozentualen Anteil, den ein Keyword am gesamten Text einer Seite besitzt. Sie ist der wahrscheinlich am einfachsten manipulierbare Faktor. Wer das Keyword am meisten auf der Seite wiederholt, der rankt am besten. Das funktioniert heutzutage allerdings nicht. Dennoch lässt sich feststellen, dass das Keyword eine gewisse Menge an Wiederholungen haben muss, damit es gut rankt. Es gibt nur keine magische Zahl, wie 3 %. Es kommt auch hier auf viele weitere Faktoren an.

seo2b-Erfahrungen

Der Inhalt jeder Seite sollte zuerst auf den Leser abgestimmt sein. Wer seine Keywords zu oft wiederholt, läuft Gefahr, dass der eigene Text unleserlich wird. Sobald der Text optimal auf den Leser zugeschnitten ist, können Sie experimentieren und die Anzahl der Wiederholungen des Keywords leicht erhöhen oder herabsetzen.

Praktisch spielt die Keyword-Dichte nur noch eine untergeordnete Rolle, da es heutzutage mehr auf die Gesamtkomposition der Keywords auf einer Seite ankommt.

Weitere Quellen und Nachweise

Gesamtkomposition der Keywords

Für die textuelle Onpage-Optimierung ist dieser Faktor der Heilige Gral. Unter Gesamtkomposition der Keywords fallen alle Verfahren zur Kombination von Keywords in einem Dokument. Ein populäres Beispiel ist Termgewichtung (WDF * IDF).

SEARCHMETRICS-2015 „Viel wichtiger als das Keyword sind jedoch verwandte Terme und eine hohe semantische Dichte sowie die Relevanz des Textes zur Suchintention des Nutzers.“ Auch Relevant- und Proof-Terms spielen eine große Rolle. Solche Begriffe gehören in jeden Beitrag zu einem gewissen Thema.

seo2b-Erfahrungen

Nur wer die richtigen Wörter in der richtigen Kombination auf seine Seite bringt, hat auch eine Chance auf Rankings. Klassische Ansätze wir Keyword-Dichte und die Termgewichtung liefern einen ersten Ansatz. Google ist hier allerdings schon gefühlte 1.000 Schritte weiter.

Wir empfehlen folgendes Vorgehen für eine erste Version eines Dokumentes: Nehmen Sie die Texte der ersten zehn Positionen zu Ihrem Suchbegriff genau unter die Lupe. Wie gewichten diese Seiten als Ganzes das oder die Keyword(s)? Versuchen Sie jetzt die Inhalte und Kombination an Keywords über diese ersten zehn Texte im eigenen Text abzubilden. Natürlich ohne abzuschreiben.

Weitere Quellen und Nachweise

Reihenfolge von Keywords

Selbstverständlich kann die Reihenfolge von Keywords eine Rolle spielen. Keywords sollten in der Reihenfolge eingesetzt werden, wie sie auch am meisten gesucht werden.

seo2b-Erfahrungen

Die Keywordrecherche entscheidet über die beste Reihenfolge von Keywords. [webdesign trier] ist vermutlich besser als [trier webdesign].

Keyword weiter vorne

Je weiter vorne ein Keyword ist, desto wahrscheinlicher hilft es beim Ranking.

seo2b-Erfahrungen

Achten Sie darauf, die wichtigen Keywords auch in den ersten 50 – 100 Wörtern der Seite einzusetzen.

Grammatik und Rechtschreibung

Laut Google gibt es eine Korrelation zwischen Seiten, die korrekte Grammatik und Rechtschreibung beherrschen und bessere Rankings haben. Allerdings sagte Google 2012 auch, dass Grammatik und Rechtschreibung aktuell keine Rankingfaktoren seien, aber mal werden könnten. Die Sprache, Grammatik und Rechtschreibung in allen Fällen seiten- und/oder paragrafenweise zu erkennen, sei aktuell zu anspruchsvoll.

GOOGLE-EIS „Vermeidet die Veröffentlichung von schlampig verfasstem Text mit vielen Rechtschreib- und Grammatikfehlern Text in Bildern darzustellen“

seo2b-Erfahrungen

Selbstverständlich empfehlen wir korrekte Grammatik und Orthografie. Hier und da können sich immer mal ein paar kleine Fehler einschleichen. Zu einer guten Redaktionsarbeit gehört allerdings auch immer ein Korrektorat.

Weitere Quellen und Nachweise

Leseniveau

Google hatte den Reading-Level (das Leseniveau), wie leicht oder schwer ist ein Text zu lesen, 2010 in den Suchergebnissen eingeführt aber 2015 auch wieder entfernt. Ob Google diesen Faktor weiterhin im Algorithmus auswertet, ist fraglich.

GOOGLE-EIS „Schreibt Text, der sich gut lesen lässt“. ← Tipp an Google: Diese Schreibweise ist lesbarer – „Schreibe gut lesbaren Text.“

seo2b-Erfahrungen

Auch wenn Google das Leseniveau eventuell nicht mehr als Rankingfaktor einsetzt, lohnt es sich klar und deutlich zu formulieren. Verwenden Sie kurze Sätze. Nutzen Sie einfache Wörter. Achten Sie auf leichte Verständlichkeit. Ihre Leser danken es Ihnen.

Weitere Quellen und Nachweise

URL-Länge

Zu lange URLs können einen negativen Einfluss auf das Ranking haben. Ideale Länge sind 3-5 Wörter.

Beispiel: http://domain.xy/drei-tipps-abehmen-karotten-saft/ wobei /drei-tipps-abehmen-karotten-saft/ hier die URL ist.

SEARCHMETRICS-2015 „Besser rankende URLs sind oft kürzer.“
MOZ-CORRELATION-2015 findet ebenfalls eine leichte negative Korrelation mit schlechteren Rankings, je länger die URL.
BACKLINKO-MIO „Kurze URLs tendieren dazu besser zu ranken als lange URLs.“

seo2b-Erfahrungen

Bei URLs liegt die Würze In der Kürze. Zu lange URLs können nicht nur leicht abgewertet werden, Besucher klicken Sie einfach auch weniger.

Weitere Quellen und Nachweise

URL-Pfad

Je näher der URL-Pfad zur Startseite liegt, desto besser.

  • domain.xy/kategorie/unterkategorie/unterunterkategorie/unterunterunterkategorie/thema.html ist zu lang.
  • Besser: domain.xy/unterunterunterkategorie/thema.html

seo2b-Erfahrungen

Bei Websites mit extrem vielen hierarchischen Informationen, müssen diese natürlich auch über Ordner strukturiert werden. Ein paar Ordner im Pfadnamen gehen schon in Ordnung. Wer allerdings mehr als drei bis vier Ordner braucht, der sollte vielleicht ein wenig optimieren. Ein klassisches Beispiel für zu viele Ordner in der URL ist dmoz.org. Hier ein Beispiel:

http://www.dmoz.org/World/Deutsch/Computer/Software/Internet/Webseitenverwaltung/Content_Management/Redaktionssysteme/PHP/Contao/

Weitere Quellen und Nachweise

Bilder

Bilder und deren Metainformationen sind für Google ein Relevanzsignal. Besonders hervorzuheben sind hier der Dateiname und der Alt-Text. Beispiel für ein voll optimiertes Bild:

<figure>
  <img src="katze-wollknäuel.jpg" alt="Eine Katze spielt mit einem Wollknäuel">
  <figcaption>© Rechteanbieter – Katze mit Wollknäuel.</figcaption>
</figure>
BACKLINKO-MIO „Content mit wenigstens einem Bild rankt höher als ohne Bild.“ Mehr als ein Bild bringe jedoch keine Vorteile.

seo2b-Erfahrungen

Wo möglich und relevant lohnt es sich, Bilder voll auszuzeichnen. Es ist ein kleines Signal. Ein Text und ein Bild sind immer noch besser als nur ein Text. Vorausgesetzt beide Texte sind gleichwertig.

Weitere Quellen und Nachweise

Seitenaktualisierungen

Bei bestimmten Themen können aktuellere Informationen besser ranken. Vor allem Dokumente, die immer wieder überarbeitet und aktualisiert werden. Auch ein historischer Faktor kann hier eine Rolle spielen. Also wie oft wurde die Seite im Laufe ihrer Geschichte überarbeitet?

letzte-aktualisierung
Google zeigt das Datum der letzten Aktualisierung schon seit vielen Jahren an

Selbstverständlich macht es auch einen Unterschied, ob nur ein paar Wörter ausgetauscht werden oder sich gesamte Sektionen ändern.

seo2b-Erfahrungen

Denken Sie daran, dass man bestehende Dokumente auch aktualisieren kann. Es müssen nicht immer neue Beiträge sein. Aus SEO-Sicht kann es sich auch lohnen, bestehende Beiträge zu erneuern, zu erweitern oder sogar zu reduzieren, um sie immer besser zu machen. Gerade bei Ressourcensammlungen kann dies von großer Bedeutung sein.

Weitere Quellen und Nachweise

Ausgehende Links von hoher Qualität können das Ranking verbessern. Google dementiert diesen Faktor. Tests zeigen allerdings, dass etwas daran sein könnte. Was ausgehende Links betrifft, so gibt es eine goldene Mitte bezogen auf Anzahl und Qualität. Denn zu viele ausgehende Links (meist Hunderte) können dem Ranking auch schaden.

outgoing-link-experiment-position-graph-a
Experiment von Reboot: Im Laufe von ca. 16 Wochen ranken Seiten mit vertrauensvollen, ausgehenden Link allesamt besser, als ohne
MOZ-CORRELATION-2015 findet eine leichte positive Korrelation mit der Anzahl der ausgehenden Links und besseren Rankings.

seo2b-Erfahrungen

Verlinken Sie nach außen! Dies kann die Relevanz und Glaubwürdigkeit der eigenen Inhalte steigern. Wichtig ist dabei, dass Sie auf thematisch passende und qualitativ hochwertige andere Websites/Webseiten verlinken.

Weitere Quellen und Nachweise

Anzahl, Qualität und die Linktexte der internen Links verraten Google etwas darüber, zu welchen Keywords die jeweils verlinkte Seite der eigenen Ansicht nach ranken sollte.

MOZ-CORRELATION-2015 Die absolute Anzahl von Links hat eine moderate Korrelation mit Google-Rankings

seo2b-Erfahrungen

Die Optimierung der internen Verlinkung ist eine der wichtigsten, komplexesten und aufwändigsten SEO-Maßnahmen schlechthin. Es gilt eine Balance aus der richtigen Verlinkungsmenge und -qualität zu finden.

Wir vergeben die höchste Bewertung. Nicht etwa, weil sich durch die Optimierung der internen Verlinkung anfangs etwas bewegen lässt. Für bestehende Websites mit bestehenden Rankings und vielen Kategorien und Ebenen ist dieser Bereich jedoch einer der wichtigsten Faktoren überhaupt.

Weitere Quellen und Nachweise

PageRank

Der PageRank wird heutzutage von Google nicht mehr nach außen hin angezeigt. Vermutlich weil dieser eine Wert für moderne Darstellungsformen von Rankings zu simplistisch geworden ist. Allgemein kann man immer noch sagen, dass Seiten mit höherem (internen) PageRank auch besser ranken. Der PageRank-Algorithmus ist aber jetzt auch schon sehr alt und intern bei Google bestimmt auch mit einer moderneren Alternative ersetzt oder erweitert worden.

seo2b-Erfahrungen

Heutzutage gibt es dank vieler exzellenter Tools bessere Kennzahlen, die sich heranziehen lassen. Zum Beispiel MOZ PA/DA.

Weitere Quellen und Nachweise

Priorität in der Sitemap

In einer Sitemap kann eine Seite mit einer höheren Priorität versehen werden. Dies könnte sich positiv auf das Ranking auswirken.

seo2b-Erfahrungen

Wir empfehlen damit sparsam umzugehen. Die Priorität in der Sitemap könnte die interne Verlinkung unterstützen und so in komplexen Fällen die Optimierung vereinfachen. Die Wahrscheinlichkeit, dass dieser Faktor eine große Wirkung entfaltet ist eher gering.

Weitere Quellen und Nachweise

Alter der Seite

Eine oft aktualisierte, alte Seite kann bessere Rankings für einen neuen Begriff hervorbringen als eine neue Seite. Rankt die Seite für viele andere Keywords, so ist wahrscheinlich, dass sie auch für weitere Keywords gut ranken könnte.

seo2b-Erfahrungen

Wer bereits eine gut rankende Webseite hat, der kann es ausprobieren. Es ist manchmal leichter für einen neuen Begriff auf einer alten Seite zu ranken.

Seitengeschwindigkeit

Die Seitengeschwindigkeit ist seit vielen Jahren ein Rankingfaktor. Google rankt eine Seite schlechter als sie es verdient, falls diese zu langsam ist. Google arbeitet selbst seit vielen Jahren daran das Netz zu beschleunigen – ein überaus wichtiges Thema für Google. Vermutung: Schnellere Seiten bringen mehr Umsatz für Google.

SEARCHMETRICS-2015 „Besser rankende Seiten laden schneller. Seitenladezeit ist ein wichtiger Ranking-Faktor und beeinflusst das Userverhalten.“
MOZ-SURVEY-2015 Umfrageteilnehmer halten die durchschnittliche Ladezeit aller Seiten einer Domain für sehr wichtig.
BACKLINKO-MIO „Seiten auf schnell ladenden Websites ranken signifikant höher […]“

seo2b-Erfahrungen

Ein guter erster Schritt: Nutzen Sie die PageSpeed Insights, um eine Liste mit Vorschlägen zur Verbesserung der Seitengeschwindigkeit zu erhalten.

Weitere Quellen und Nachweise

Optimiert für Mobilgeräte

Es besteht kein Zweifel daran, dass Google für Mobilgeräte optimierte Seiten bevorzugt. Google bietet selbst Dokumentation hierzu an.

mobile-friendly
Google weiß, ob eine Seite für Mobilgeräte optimiert ist

Zur Optimierungsstrategie gehört zum Beispiel auch die Verwendung der seit Ende 2015 neuen AMPs (Accelerated-Mobile-Pages).

MOZ-SURVEY-2015 Umfrageteilnehmer halten den Einsatz von responsiven Technologien für sehr wichtig.

seo2b-Erfahrungen

Falls Ihre Zielgruppe mit dem Handy unterwegs ist, sollten Sie unbedingt in mobile Optimierung investieren. Laut Google suchen mittlerweile mehr Menschen mit dem Handy als mit dem Desktop. In Bereichen, in denen viele Besucher Handys nutzen, ist der Faktor extrem wichtig. In anderen vielleicht nicht.

Weitere Quellen und Nachweise

Videos

Wer ein Video auf YouTube lädt, hat gute Chancen für bestimmte Begriffe zu ranken. In abgeschwächtem Maße gilt dies auch für weitere Videodienste, wie DailyMotion, Vimeo etc. Youtube dominiert allerdings die Video-Suchergebnisse.

seo2b-Erfahrungen

Erstellen Sie Videos für Begriffe, für die es ansonsten schwer ist, zu ranken. Ergänzen Sie Ihre Inhalte mit diesen Videos. In manchen Fällen besteht die Chance, dass Sie in die Top-10 aufsteigen können. Ansonsten gibt es auch immer die Möglichkeit in oder mit der zweitgrößten Suchmaschine der Welt zu ranken: YouTube.

videos-in-serps
Videoanbieter in den SERPS: Keine Chance gegen Youtube

Weitere Quellen und Nachweise

Mikroformate

Der Einsatz von Mikroformaten kann dabei helfen, das Ranking zu verbessern.

schema
Sterne-Bewertungen sind wohl das wichtigste Mikroformat

Hier zum Beispiel eine Sternebewertung.

BACKLINKO-MIO findet keine Korrelation zwischen dem Gebrauch von Mikroformaten und besseren Rankings.

seo2b-Erfahrungen

Unabhängig vom Potenzial einer Rankingverbesserung ist der Einsatz solcher Mikroformate natürlich schon aus Gründen der Steigerung der Durchklickrate interessant. Wer Mikroformate nutzen kann, sollte dies alleine schon deswegen in Betracht ziehen.

Weitere Quellen und Nachweise

Die seo2b Top-Onpage-Faktoren für die Domain

Onpage-Faktoren für die Domain

Unter Onpage-Faktoren für die Domain fallen alle OnPage-Signale, die die gesamte Website umfassen oder als Vertrauenssignal für die Website fungieren.

Wertvolle und einzigartige Inhalte

Google wünscht sich Websites, die im Gesamten wertvolle und einzigartige Inhalte anbieten – im Gegensatz zu Websites, die nur durch SEO-Tricksereien versuchen einen schnellen Euro zu generieren.

GOOGLE-EIS „Erzeugt Content hauptsächlich für eure Nutzer, nicht für Suchmaschinen“
MOZ-SURVEY-2015 Umfrageteilnehmer halten die Einzigartigkeit der Inhalte auf der gesamten Domain für extrem wichtig.
SEARCHMETRICS-2015 spricht in diesem Fall durchgehend von „holistischem“ Content.

seo2b-Erfahrungen

Wertvolle und einzigartige Inhalte zu erstellen, ist eine Wissenschaft für sich. Suchen Sie sich ein besonderes Thema. Produzieren Sie Inhalte, die Sie in dieser Form noch nie irgendwo gesehen haben. Google belohnt dies – langfristig. Beispiel: Diese Meta-Studie der Rankingfaktoren. Es gibt schon viele unterschiedliche Beiträge zu diesem Thema. Allerdings hat bisher keine von ihnen diesen Umfang erreicht und/oder sich an einem vergleichbaren Format versucht. Wir hoffen, dass dies für Leser sehr nützlich ist.

Das Besondere an solchen Inhalten? Sie lassen sich vielfältig einsetzen. Sei es im SEO, im Linkaufbau, im Social-Web, bei der Leadgenerierung, in Vorträgen, im E-Mail-Marketing, im Affiliate-Marketing etc. Der Nutzen solcher Inhalte ist sowohl für den Besucher wie auch für das eigene Unternehmen enorm. Ein Investment in außerordentliche Inhalte lohnt sich fast immer.

In der Branche haben sich in den letzten Jahren für diese Inhalte neue Namen gebildet.

  • Rand Fishkin nennt sie „10x-Content“. Zehnmal so gute Inhalte, wie alles, was bisher da gewesen ist.
  • Brian Dean verwendet einen ähnlichen Ansatz im Linkbuilding mit der sogenannten „Skyscraper-Technique“. Ein Wolkenkratzer ist ein extrem hohes Hochhaus. Es ist viel höher als andere Häuser. Der Content im SEO und im Linkbuilding muss einfach viel umfangreicher, besser, größer, höher sein als alles, was bis dahin da gewesen ist.

Weitere Quellen und Nachweise

Aktualisierungen der Website

Wie oft wird die gesamte Website aktualisiert? Wie oft kommen neue Inhalte dazu? Wie hoch ist der Aktionsgrad der Gesamtwebsite von Tag zu Tag, Woche zu Woche und Monat zu Monat?

GOOGLE-EIS Neuer Content bringt neue und wiederkehrende Besucher. Man solle Content nicht wieder aufwärmen.
MOZ-SURVEY-2015 Umfrageteilnehmer halten die Frische der Inhalte für sehr wichtig.

seo2b-Erfahrungen

Regelmäßiges Publizieren ist eine der absoluten Grundvoraussetzungen für vielfältige Rankings.

Anzahl der Seiten

Die Anzahl der Beiträge einer Website kann ebenfalls eine Rolle spielen. Aber nur wenn diese Seiten auch differenzierte Inhalte bieten. Es sind also keine Websites mit Millionen von Unterseiten ohne einzigartige Inhalte gemeint. Solche Verzeichnisse hat Google in den letzten Jahren mehr und mehr den Garaus gemacht.

seo2b-Erfahrungen

Publiziere viel guten Content ist die erste Grundregel im SEO. Auch wenn nicht klar ist, ob die Anzahl der Seiten wirklich einen Faktor darstellen, so lässt sich dennoch behaupten: Je mehr Content auf der Domain, desto höher die Chance für vielfältige Rankings.

Website-Struktur

Eine Gliederung der Inhalte in sogenannte Silos kann den Seiten in diesen Silos dabei helfen, besser zu ranken. Ein Silo ist wie eine streng begrenzte Kategorie. Der Begriff Silo rührt daher, dass siloisierte Kategorien sich nicht untereinander kennen/verlinken. Sie sind thematisch abgekapselt. Dies ist nur notwendig, falls eine Website sehr viele verschiedene Themen und Kategorien beherbergt.

Google empfiehlt in GOOGLE-EIS beispielsweise sowohl eine Sitemap für Bots als auch eine Sitemap für Besucher anzubieten.

Die interne Verlinkung soll eine „nachvollziehbare Hierarchie“ abbilden. Jede Seite sollte mit den wenigsten möglichen Klicks erreichbar sein. Zu vermeiden: „Verlinkungen von jeder einzelnen Seite auf jede andere“.

Implizit ist das eine Empfehlung für das Siloing.

seo2b-Erfahrungen

Siloing kann sich lohnen, vor allem im Zusammenhang mit der internen Verlinkung. Falls Ihre Website mehr als zwei bis drei große Kategorien besitzt, dann sollten zum Beispiel Unterseiten aus Kategorie A nicht auf Unterseiten aus Kategorie B verlinken.

Weitere Quellen und Nachweise

Website-Uptime

Wenn der Server ausfällt, dann läuten die Alarmglocken. Wer die Situation nicht in wenigen Tagen wieder in den Griff bekommt, den bestraft Google unter Umständen mit einer permanenten Degradierung.

seo2b-Erfahrungen

Die Erreichbarkeit der Website sicherstellen und immer schnell reagieren. Idealerweise gibt es ein Spiegel-System, auf welches die Website ausgelagert werden kann. Zum Beispiel auch im Falle eines Angriffs (DDOS).

Server-Standort

Eine Website für den deutschsprachigen Markt rankt für geospezifische Suchanfragen unter Umständen schlechter, falls der Server im Ausland steht.

seo2b-Erfahrungen

Falls die eigene Website hauptsächlich sprach- oder ländergebundene Informationen bietet, empfiehlt sich auch ein Hosting im eigenen Land. Google bietet über die Search-Console die Möglichkeit, Sprache und Region für eine bestimmte Domain einzustellen. Daher gehen wir davon aus, dass dieser Faktor nur wenig Berücksichtigung findet.

Weitere Quellen und Nachweise

HTTPS

Die Verwendung von HTTPS ist ein von Google offiziell bestätigtes Rankingsignal.

SEARCHMETRICS-2015 „HTTPS wird relevanter, ist aber nicht für jede Seite nötig. Wichtig ist eine Verschlüsselung z.B. für Websites mit Kaufprozessen und/oder sensiblen Kundendaten, um Vertrauen und Conversions zu erhöhen.“
MOZ-CORRELATION-2015 Die Nutzung von HTTPS hat eine sehr geringe positive Korrelation mit besseren Rankings
BACKLINKO-MIO HTTPS hat eine moderate Korrelation mit besseren Rankings.

seo2b-Erfahrungen

Verwenden Sie SSL falls möglich und angebracht.

Weitere Quellen und Nachweise

AGB, Datenschutz, Impressum

Seriöse Websites haben Seiten für AGB, Datenschutz, Impressum und Kontakt. Google kann diese als Vertrauenssignal interpretieren.

MOZ-SURVEY-2015 Umfrageteilnehmer halten Firmeninformationsseiten und Kontaktseiten für sehr wichtig.

seo2b-Erfahrungen

Vertrauenswürdige Quellen nachzuahmen, ist grundsätzlich keine schlechte Sache. Es stärkt das Vertrauen der eigenen Besucher und eventuell auch das Vertrauen von Google.

Brotkrumen-Navigation

Eine Brotkrumen-Navigation hilft als Usability-Feature bei der Navigation der Website. Hier ein Beispiel von Amazon.de:

brotkrumen-navigation
Eine Brotkrumen-Navigation bei Amazon

Was dem User hilft, könnte auch gut für das Ranking sein.

seo2b-Erfahrungen

Wir sind für den Einsatz von jeglichen Maßnahmen, die die Usability verbessern und einem Quality-Rater dabei helfen, eine Website positiv zu bewerten. Ob der Einsatz ein direkter Rankingfaktor ist, wagen wir jedoch zu bezweifeln. Jedoch lassen sich natürlich Keywords und Links in solchen Elementen unterbringen. Daher haben sie für das Ranking wahrscheinlich schon einen Nutzen.

Weitere Quellen und Nachweise

Sitemap.xml

Besitzt die Website eine Sitemap.xml? Dann könnte diese dabei helfen, bessere Rankings zu erzielen.

seo2b-Erfahrungen

Der Einsatz einer Sitemap kann eine gute Idee sein, falls es ansonsten aufgrund der Anzahl der Seiten und Kategorien schwierig ist, allein über die interne Verlinkung eines ausreichenden Indexierungsgrad zu erreichen. Wer mehr Seiten in den Index bekommt, steigert auch die Sichtbarkeit der Website und verbessert so auch die Rankings. Die bloße Existenz halten wir jedoch nicht für einen direkten Rankingfaktor.

Weitere Quellen und Nachweise

Die seo2b Top-Offpage-Faktoren

Offpage-Faktoren

Sämtliche Linkfaktoren entfalten laut allen Analysen/Quellen die größte Wirkung unter allen Rankingfaktoren. Links sind immer noch das A und O bei der Suchmaschinenoptimierung und selbst Google empfiehlt den „Backlinkaufbau“.

GOOGLE-EIS „Das Promoten eurer Website und qualitativ hochwertige Links können die Reputation eurer Website verbessern.“ Google weist außerdem darauf hin, auf Social-Media-Sites zu promoten und seine Inhalte in passenden Communities bekannt zu machen – ohne diese „zuzuspammen“.
SISTRIX Ein Link ist umso wertvoller, je häufiger er von echten Besuchern tatsächlich geklickt wird.

Links spielen nach wie vor eine entscheidende Rolle für das Ranking. Die meisten Untersuchungen zeigen zum Teil, dass die Relevanz minimal abnimmt, Links aber immer noch der Faktor Nummer 1 sind. Die reine Anzahl der externen Links ist dabei allerdings nicht so entscheidend. Denn hierunter fallen zum Beispiel auch Szenarien, wie 100 Links von 2 Domains. Selbstverständlich sind 100 Links von 100 verschiedenen Domains deutlich wertvoller.

SEARCHMETRICS-2015 „Backlinks sind – statistisch gesehen noch immer – ein Faktor, der einen Zusammenhang mit guten Rankings aufweist. Die Korrelationen der jeweiligen einzelnen Link-Ranking-Faktoren sind hoch, nehmen jedoch kontinuierlich ab.“
MOZ-CORRELATION-2015 „[…] die Daten zeigen immer noch höchste Korrelationen zwischen den Google-Rankings und der Anzahl an Links, die eine Seite hat.“
BACKLINKO-MIO „Mehr absolute Backlinks = höhere Rankings“

seo2b-Erfahrungen

Ob die Bedeutung von Links für die organische Suche in Zukunft weiter sinken wird, bleibt stark zu bezweifeln. Es müsste als Ersatz für den Link eine ganz neue Faktorengruppe her. Niemand darf vergessen, dass das WWW hauptsächlich aus diesen zwei Komponenten besteht: Texten und Links. Interaktions-Faktoren und Markensignale spielen in Zukunft bestimmt eine größere Rolle. Nur bedrohen Sie den Kaiser Link unserer Meinung nach nicht wirklich. Und daran wird sich auch so schnell nichts ändern.

Domainpopularität verlinkende Seite

Anzahl der verlinkenden Domains oder auch Domainpopularität (DP) ist in allen Untersuchungen einer der wichtigsten Faktoren schlechthin.

05_Number-of-Referring-Domains_line
Backlinko: Je mehr Links von unterschiedlichen Domains zu einer Seite, desto besser rankt diese
BACKLINKO-MIO Die Anzahl der verlinkenden Domains auf eine Seite ist mit Abstand der wichtigste Faktor.
MOZ-CORRELATION-2015 findet eine hohe Korrelation zwischen Google-Rankings und der Anzahl der verlinkenden Domains („# of root domains with any pages linking to the URL“)
MOZ-SURVEY-2015 Umfrageteilnehmer halten diesen Faktor für wichtig.

seo2b-Erfahrungen

Mindestens einen Link von so vielen Domains wie möglich. Das war früher die Devise. Heutzutage ist das deutlich differenzierter zu sehen. Aber der Grundgedanke bleibt. Insgesamt sollte des Verlinkungsgrad von unterschiedlichen Domains eher hoch sein. Zwei nicht zu empfehlende Extrembeispiele:
1. Alle Links kommen von sehr wenigen oder einer einzelnen Domain.
2. Viele Domains verlinken, aber keine mehr als ein mal.

Domainpopularität verlinkende Domain

Die allgemeine Domainpopularität spielt ebenfalls eine wichtige Rolle. Für einzelne Rankings ist sie nicht so wichtig wie für das allgemeine Rankingverhalten einer Domain. Websites mit einer hohen DP ranken oft sehr schnell für ihre neuen Seiten.

MOZ-CORRELATION-2015 findet eine recht hohe Korrelation – allerdings etwas geringer als auf dem Seitenlevel – zwischen Google-Rankings und der Anzahl der verlinkenden Domains auf die gesamte Domain („# of root domains with any pages linking to the root domain of the URL“)
MOZ-SURVEY-2015 Umfrageteilnehmer halten diesen Faktor für den wichtigsten Faktor überhaupt.

seo2b-Erfahrungen

Viele großartige Domains verlinken auf Ihre Website. Das ist heutzutage fast schon ein Garant für gute Rankings.

TrustRank der Linkquelle

Der TrustRank der linkgebenden Website, also die Vertrauenswürdigkeit, hat eine Auswirkung auf das Ranking.

Laut ursprünglichem Patent ist der TrustRank ein Algorithmus, der dabei helfen soll, vertrauenswürdige Websites zu entdecken und nicht vertrauenswürdige Websites zu erkennen. Dabei wird eine bestimmte Anzahl an höchst-vertrauenswürdigen Website zugrunde gelegt (Ebene 0). Der Algorithmus prüft nun, wohin diese Websites verlinken und klassifiziert diese als Ebene 1. Ebene 1 erhält weniger Trust als Ebene 0. Jetzt untersucht der Algorithmus, welche Websites Ebene 1 verlinkt. Das sind dann die Websites auf Ebene 2.

  • Ebene 0 = 100 % Trust
  • Ebene 1 = 90 % Trust
  • Ebene 2 = 80 % Trust
  • Ebene n = 0 % Trust

Der TrustRank ist unabhängig vom PageRank. Er wird den Ergebnissen des PageRanks sozusagen hinzugerechnet, um das „Unkraut“ auszujäten.

MOZ-SURVEY-2015 Umfrageteilnehmer halten es den TrustRank einer Domain für extrem wichtig. Außerdem ist wichtig, dass die Domain selbst Trust-Signal-Pages hat.

seo2b-Erfahrungen

Wer auf TrustRank optimiert, also Vertrauen gewinnen möchte, der braucht Links von sehr vertrauenswürdigen Websites.

Weitere Quellen und Nachweise

Anzahl der verlinkenden Seiten

Mehr als ein Link von einer Domain ist ein viel zitierter Rankingfaktor.

seo2b-Erfahrungen

Versuchen Sie immer mehr als einen Link von einer Domain zu erhalten. Von besonders starken Seiten sollten Sie sogar viele Links haben. Stellen Sie sich das so vor: Angenommen spiegel.de verlinkt Ihre Website einmal oder zehnmal. Was ist besser? Zehnmal natürlich. Am besten sogar in unregelmäßigen Zeitabständen. Wir halten das für extrem wichtig!

Linkposition auf der Seite

Links aus dem Inhalt einer Seite, die mitten aus dem Text (Paragrafen, Liste, Überschrift etc.) kommen, wirken besser. Im Gegensatz dazu wirken Links schlechter, wenn sie aus einer Seitenleiste oder dem Fußbereich kommen.

MOZ-SURVEY-2015 Umfrageteilnehmer halten dies für wichtig.

seo2b-Erfahrungen

Gute Links kommen aus dem Text, aus einer kontextuellen Umgebung.

Redaktionelle Links oder auch natürliche Links bilden eine Brücke zwischen Inhalten nicht-kommerzieller Natur. Informationsbeitrag auf Informationsbeitrag und aus dem Kontext heraus. Daher bezeichnen viele diese Links auch als kontextuelle Links. Auf der anderen Seite der Links wird nichts verkauft, sondern informiert.

Google möchte vor allem diese Links dazu nutzen, um Rankings zu errechnen. Googles ursprüngliche Idee für den PageRank war das Zitat innerhalb von wissenschaftlichen Arbeiten – die Zitationsanalyse. Die meistzitierten wissenschaftlichen Arbeiten sind die besten. Dieses Prinzip hat Larry Page auf den PageRank übertragen. Ein Zitat innerhalb einer wissenschaftlichen Arbeit zeigt in aller Regel nicht auf eine Produktseite eines Onlineshops.

seo2b-Erfahrungen

Vorsicht ist geboten. Verlinken Sie niemals oder nur sehr selten direkt auf ein kommerzielles Angebot. Ein Link aus einem informativen Beitrag sollte nicht auf eine Produktseite eines Onlineshops verweisen, außer es gibt einen aus Redaktionssicht sehr guten Grund dafür.

Weitere Quellen und Nachweise

PageRank der Domain

Der PageRank oder die Autorität der verlinkenden Website (auch der PageRank der Startseite) ist ein sehr wichtiger Rankingfaktor. Dieser wird meist am PageRank der Startseite festgemacht.

Leider zeigt Google seit 2016 den PageRank nicht mehr in der Toolbar an.

MOZ-SURVEY-2015 Umfrageteilnehmer halten dies für extrem wichtig.

seo2b-Erfahrungen

Zuverlässige Werte für den PageRank waren oft kaum zu ermitteln, weil gerade für neue Seiten noch kein PageRank verfügbar war. Alternative Bewertungssysteme bieten sich hier an. Beispielsweise die DomainAuthority von MOZ.

Jedoch konnte eine Page-Rank-Abstufung einen Hinweis darauf geben, ob die Domain manuell zurückgestuft wurde. Dies ließ sich häufig bei Page-Rank-Abstufungen >= 2 beobachten.

Wir halten die allgemeine Autorität einer Domain für einen der ausschlaggebenden Rankingfaktoren schlechthin.

Weitere Quellen und Nachweise

PageRank der verlinkenden Seite

Der PageRank oder die Autorität der verlinkenden Seite ist ein sehr wichtiger Rankingfaktor. Nicht der Toolbar-PageRank.

MOZ-SURVEY-2015 Umfrageteilnehmer halten dies für wichtig.

seo2b-Erfahrungen

Zuverlässige Werte für den PageRank sind mittlerweile nicht mehr zu ermitteln. Auch zu Zeiten der Google-Toolbar waren die Werte alles andere als zuverlässige Indikatoren. Alternative Bewertungssysteme bieten sich hier an. Beispielsweise die PageAuthority von MOZ.

Weitere Quellen und Nachweise

Ein Link von einer als Autorität eingestuften Website vererbt mehr Rankingkraft.

MOZ-SURVEY-2015 Umfrageteilnehmer halten diesen Faktor für wichtig.
BACKLINKO-MIO „[Es] ist typischerweise besser einen einzigen Link von einer Website mit hoher Autorität zu erhalten als 100 Links von 100 Seiten von geringer Qualität.“

seo2b-Erfahrungen

Das Problem mit dem Begriff Autorität ist, dass jeder seine eigene Definition dafür hat. Eine Person ist eine Autorität, wenn sie über einen langen Zeitraum Expertenstatus beweist. Im Web bedeutet das: Über einen langen Zeitraum publizieren und die Anerkennung dafür in Form von Berichten und Links von vielen anderen Websites zur erhalten. Wer über einen langen Zeitraum alles richtig macht, dem wird eine hohe Autorität zugerechnet.

Manche Websites sind allerdings auch einfach nur populär und das kann manchmal auch reichen. Dennoch volle Punktzahl.

Natürliches Linkprofil

Ein „natürliches Linkprofil“ enthält keine auffälligen Verlinkungsmuster. Um zu erkennen, ob ein Linkprofil unnatürlich – also von Menschenhand manipuliert – ist, kommen mehrere Faktoren in Spiel. Zum Beispiel die Verteilung der Linktexte, das Deeplink—Ratio, das Nofollow-Ratio etc.

MOZ-SURVEY-2015 Umfrageteilnehmer halten eine Vielfalt (diversity) von verschiedenen Links für sehr wichtig. Außerdem ist ein hohes prozentuales Vorkommen von Markentext als Linktext sehr wichtig.

seo2b-Erfahrungen

Natürliche Linkprofile bestehen hauptsächlich aus Links zur eigenen Marke, Domain und neutralen Begriffen wie „hier“. Sie verzichten auf sogenannte „Money-Keywords“, wie „Tennisschläger kaufen“.

Weitere Quellen und Nachweise

Links reifen wie Wein. Mit der Zeit werden sie immer besser. Diese These wird auch durch ein Google-Patent bestätigt. Ein guter Link wird laut Google auch dann nicht aktualisiert, falls die umgebende Seite ein Update erfährt.

SEARCHMETRICS-2015 „Seiten, die für die Top10-Suchergebnispositionen ranken, haben ältere Backlinks als URLs auf den unteren SERPs.“

seo2b-Erfahrungen

Das Alter eines Links lässt sich nicht manipulieren. Da lässt sich nur raten: Fangen Sie so früh wie möglich mit dem Linkaufbau an. Dann kommen Sie auch schneller in den Genuss von guten, gereiften Links.

Weitere Quellen und Nachweise

Verlinkungsgeschwindigkeit

Erhält eine Seite/Website im zeitlichen Verlauf eine stetig steigende Anzahl von Links, dann ist das ein Zeichen für steigende Popularität. Diese kann zu einem Bonus führen. Jedoch ist das Gegenteil ebenso der Fall. Dieser Faktor steht im Zusammenhang mit der Domain-Historie.

MOZ-SURVEY-2015 Umfrageteilnehmer halten dies für wichtig bis sehr wichtig.

seo2b-Erfahrungen

Regelmäßig Links aufbauen, darauf kommt es an.

Externer Linktext

Der Linktext oder Ankertext ist ein starkes Signal, beschreibt er doch oft das Linkziel. Das Problem ist, dass der Linktext auch als Webspam-Signal fungiert, weil es zu viel Missbrauch dieses Faktors gegeben hat. Beispiele für unterschiedliche Linktexte:

Natürlich auftauchende Linktexte:

  • Neutral: Klicken Sie hier
  • Brand: Mustermann GmbH
  • Redaktionell: 10 Tipps für ein gesundes Leben

Unnatürlich wirkende Linktexte:

  • Keyword: Private Krankenversicherung
  • URL: www.mustermann.xy
  • Mischung: Mustermann Private Krankenversicherung
GOOGLE-EIS „Der Ankertext sollte zumindest eine grundlegende Vorstellung vermitteln, wovon die verlinkte Seite handelt.“ Dabei soll er generischen Ankertext vermeiden, zum Beispiel „Seite”, „Artikel” oder „klicken Sie hier”. Dabei sollen mehrere Wörter aber keine langen Sätze, Absätze oder URLs verwendet werden.
SEARCHMETRICS-2015 „Der Anteil von Links mit Keyword im Ankertext nimmt weiter ab.“
MOZ-CORRELATION-2015 findet bei allen Variationen von Linktexten mit Keyword eine höhere Korrelation mit guten Rankings.
MOZ-SURVEY-2015 Umfrageteilnehmer halten den Einsatz von Keywords in Linktexten für wichtig.
BACKLINKO-MIO „Exact-Match-Linktext korreliert signifikant mit besseren Rankings“

seo2b-Erfahrungen

Wie stark der Einfluss des Keywords auf das Ranking sein kann, erkennt man bei der Suchanfrage [hier].

hier
Erstaunlich wie stark der Einfluss des Linktextes auf das Ranking ist

Abermillionen von Websites verlinken mit dem Wort „hier“ auf den Acrobat Reader, Apples Quicktime und die Java-Software. „Um den Acrobat Reader herunterzuladen, klicken Sie bitte hier.“

Grundsätzlich ist es demnach schon ein sehr wichtiger Rankingfaktor. Dabei gilt: Je mehr Vertrauen eine Website hat, desto mehr exakte Keywordlinks sind möglich. In neuen oder noch schwach verlinkten Projekten ist höchste Vorsicht geboten.

Vermeiden Sie unsichere Linktexte von externen Websites.

Interner Linktext

Die Linktexte auf den eigenen Seiten teilen Google mit, für welche Keywords Google die jeweiligen Seiten der eigenen Meinung nach ranken soll.

seo2b-Erfahrungen

Bei internen Linktexten ist im Vergleich zu externen Linktexten so ziemlich alles erlaubt. Verwenden Sie ruhig aggressive Linktexte mit Keywords. Dennoch möchten Sie bestimmt einen Kompromiss finden, der auch gut für Ihre Besucher ist. Seiten mit extrem vielen Keywordlinks sind oft nicht gerade nutzerfreundlich.

Alter Linkquelle Domain

Je älter die verlinkende Domain, desto mehr Kraft könnte von ihr ausgehen.

seo2b-Erfahrungen

Das reine Alter einer Domain halten wir für nicht so wichtig. Viel wichtiger ist die Frage, ob diese Domain selbst auch wieder von vielen anderen Domains verlinkt wurde und wird. Je mehr das der Fall ist, desto besser.

IP-Adressen werden oft blockweise in der gleichen C-Netzklasse vergeben, zum Beispiel

192.100.1.1 192.100.1.2 192.100.1.3
Gleiche C-Klasse und D-Klasse (AAA.BBB.CCC.DDD)
192.100.1.1 192.150.1.2 192.200.1.3
Ungleiche C-Klasse

Nebeneinander liegenden Adressen könnten einem einzelnen Unternehmen gehören. Um diese Wahrscheinlichkeit zu reduzieren, könnte Google die Links aus unterschiedlichen C-Klassen betrachten, um so mehr Spam zu entfernen.

seo2b-Erfahrungen

Wir halten dies nicht wichtig genug, um gesondert darauf zu optimieren. Wer regelmäßig Linkaufbau von echten Websites betreibt, für den ergeben sich automatisch die richtigen Muster bezogen auf die Verteilung der IP-Adressen. Wenn die eigenen Links maßgeblich nur von wenigen IP-Adressen kommen, da kann das schon ein Alarmsignal sein. Prüfen Sie es einfach mal nach.

Der Alt-Text ist der Ersatz für den Linktext/Ankertext. Beispiel:

<img="bild.png" alt="Hier steht der Alt-Text mit Keyword">

seo2b-Erfahrungen

Das ist eine schöne Alternative für zwischendurch. Verlinken Sie ruhig mal mit einem Bild.

Gerüchteweise vermuten viele Branchenteilnehmer, dass Nofollow-Links trotz Googles Aussage, dass sie keinerlei Rolle spielen, es dennoch tun. Ein bestimmter Prozentsatz an Nofollow-Links könnte Aufschluss darüber geben, ob ein Linkprofil (un)natürlich ist.

seo2b-Erfahrungen

Investieren Sie Ihre Zeit lieber in Follow-Links. Unserer Meinung nach lohnt es sich nur Nofollow-Links zu akquirieren, falls diese Links zielgerichteten Traffic liefern. Beispielsweise wirklich verdiente Links aus der Wikipedia.

Weitere Quellen und Nachweise

Vielfalt der Linktypen

Die Vielfalt verschiedener Linktypen ist ein Zeichen für ein natürliches Linkprofil. Links aus nur einer Quelle, zum Beispiel nur Links aus Foren, könnten auf Webspam hinweisen.

seo2b-Erfahrungen

Versuchen Sie immer viele verschiedene Links aus ganz unterschiedlicher Herkunft zu erhalten. Foren, Blogs, Magazine, Universitäten etc. Theoretisch gilt: Je unterschiedlicher, desto besser. In der Realität schafft das aber auch so gut wie niemand. Unser Tipp: Konzentrieren Sie sich auf Links von Websites, die auch echten Traffic haben.

Der Umgebungstext eines Links kann eine Rolle spielen, da der Linktext selbst oft auch eine handlungsweisende Rolle erfüllt. Klicken Sie bitte „hier“. Theoretisch könnte sich Google die Wörter vor und nach dem Link anschauen, um darauf Rückschlüsse über den Link zu gewinnen und diese zu verwerten.

  • Beispiel 1: „Um mehr Informationen zum Thema private Krankenversicherung zu erhalten, klicken Sie bitte hier.“ (hier ist Linktext, aber das Thema private Krankenversicherung wird vorher genannt.)
  • Beispiel 2: „Klicken Sie hier, um mehr Informationen zum Thema private Krankenversicherung zu erhalten.“ (hier ist Linktext, aber das Thema private Krankenversicherung wird nachher genannt.)

seo2b-Erfahrungen

Zugehörige Wörter vor und nach dem Link zu platzieren, ist völlig natürliches Linkverhalten. Wer dies von sich aus steuern kann, hat hier also eine weitere, weniger aufdringliche Art „weichen“ Linktext unterzubringen.

Weitere Quellen und Nachweise

Ein Link von einer länderspezifischen Domain hilft mehr im Ranking als eine „ausländische“ Domain. Beispiel: Ein Link von einer .de-Domain hilft einer .de-Domain mehr.

seo2b-Erfahrungen

Das halten wir für einen Mythos. Wer eine lokale oder regionale Domain betreibt möchte wahrscheinlich auch Links von Domains haben, die „von außen“ über diese Region berichten.

Spätestens seit der Einführung der neuen Top-Level-Domains, zum Beispiel .blog, .web, .shop, .adac, .bosch, .berlin etc. dürfte dieser Faktor immer mehr an Relevanz verlieren.

Wichtiger ist da die IP-Location der linkgebenden Seite.

Linkposition oben

Links am Anfang der Seite sind minimal besser, als Links am Ende der Seite. Was oben steht, ist wichtiger.

MOZ-SURVEY-2015 Umfrageteilnehmer halten dies für wichtig.

seo2b-Erfahrungen

Auch in diesem Dokument sind die wichtigsten Links oben. Der Faktor ist aber nicht wichtig genug, dass Sie jetzt immer auf Links oben im Dokument bestehen sollten. Wenn’s klappt, dann gut, wenn nicht, dann auch.

Links von relevanten und themennahen Seiten/Domains, zum Beispiel aus der gleichen Branche oder zum gleichen Thema, funktionieren besser. Relevante Seiten sind oft dadurch zu erkennen, dass sie einen Hub (Nabe, Knotenpunkt) darstellen. Das sind die Seiten, auf die alle innerhalb eines Themengebietes verlinken.

MOZ-SURVEY-2015 Umfrageteilnehmer halten Links von themenrelevanten Seiten für sehr wichtig. Darüber hinaus halten sie die Themenrelevanz für der linkgebenden Domain für extrem wichtig.

seo2b-Erfahrungen

Dies können wir so nicht bestätigen. Links aus themenfremden Portalen können ganz genauso gut funktionieren und vielleicht sogar noch besser. Wichtig ist natürlich, dass der Link legitim ist. Das ist der Fall, wenn es aus redaktioneller Sicht einen einleuchtenden Grund für ihn gibt.

Themenrelevanz kann vielleicht einen winzigen Vorteil verschaffen (vergleiche: Hilltop-Algorithmus). Allerdings ist es für Außenstehende schwierig zu bestimmen, wann eine Gruppe von Websites tatsächlich zu einem themenrelevanten Pool von Websites/Webseiten gehört.

Links von themenrelevanten Websites sind gut und wichtig. Links von themenfremden Websites sind aber unserer Meinung nach genauso wichtig und manchmal sogar wichtiger – stärken sie doch in fast allen Fällen wenigstens die Reputation einer Website.

Weitere Quellen und Nachweise

Keyword aus dem Title als Linktext

Befinden sich im Linktext Wörter aus dem Titel der Seite könnte das einen Bonus verschaffen.

Beispiel: Eine Seite hat den Titel „Mit diesen 10 Tipps nehmen Sie in 10 Tagen 10 Kilo ab“

Jetzt könnte der Link den Titel auch als Linktext übernehmen:

Lesen Sie im Diätblog jetzt den Beitrag „<a href="…">Mit diesen 10 Tipps nehmen Sie in 10 Tagen 10 Kilo ab</a>“

seo2b-Erfahrungen

Den Titel oder Auszüge daraus als Linktext zu verwenden, ist eine gute Idee. In diesem Dokument finden Sie dafür zahlreiche Beispiele. Dies macht aber auch nur dann Sinn, falls es sich um redaktionelle Inhalte handelt.

Ein Wikipedia-Link wird immer noch als heiße SEO-Ware gehandelt, obwohl ausgehende Links auf Wikipedia grundsätzlich auf NoFollow stehen.

PageRank wird nicht vererbt. Die Vermutung besteht, dass Wikipedia-Links trotzdem Autorität und Trust vererben.

seo2b-Erfahrungen

Ein Wikipedia-Link ist für uns vor allem wegen seiner potenziellen Trafficleistung interessant. Grundsätzlich halten wir ihn nicht für einen gesonderten Rankingfaktor.

Google erkennt Links von Seiten, die aus von Nutzern erstellten Inhalten (UGC, user generated content) stammen. Zum Beispiel Blogkommentare, Forenbeiträge, Freeblogs, Gästebücher, Linkverzeichnisse etc. und wertet diese nicht so hoch.

seo2b-Erfahrungen

Eine Teilnahme an solchen Websites kann sinnvoll sein. Aber nur falls auch eine echte Community hinter diesen Websites steht. Aus SEO-Sicht ist es jedoch immer besser, Links von Seiten aufzubauen, hinter denen auch echte Redaktionen stehen. Google möchte, dass jemand anderes Ihre Website empfiehlt. Nicht Sie selbst.

Übermäßige Anwendung von 301-Umleitungen

Laut Aussagen von Google ist eine Reihenschaltung von mehr als vier bis fünf 301-Weiterleitungen unter Umständen gefährlich. Rankingpower könnte dabei verloren gehen.

seo2b-Erfahrungen

Versuchen Sie alte Links, die unter Umständen schon mehrfach per 301 weitergeleitet sind, an der Quelle zu ändern. Je weniger Weiterleitungen, desto besser.

Weitere Quellen und Nachweise

Die Anzahl der Links auf der linkgebenden Seite hat laut PageRank-Theorie eine Bedeutung für die vererbte Rankingpower (Juice). Je mehr Links auf dieser Seite, desto schlechter.

seo2b-Erfahrungen

Es sieht eventuell nicht besonders gut aus, falls im Linkprofil eine hohe Anzahl an Seiten mit einem einzelnen Link zu Ihrer Website zu finden sind. Gute Seiten verlinken oft mehrfach und somit ist es auch völlig in Ordnung sich mit anderen Links den Linkjuice zu teilen.

Anzahl der Wörter auf der linkgebenden Seite

Ein Link von einer Seite mit 1.000 Wörtern bringt mehr als ein Link von einer Seite mit 100 Wörtern.

seo2b-Erfahrungen

Wir halten dies nicht in jedem Fall für akkurat. Dennoch haben Seiten mit mehr Wörtern deutlich mehr Kontext, in den sie einen Link einbetten können. Da Google diesen Kontext wahrscheinlich auswertet, dürfte es hier auch eine Art Zusammenhang geben. Vor allem, weil Links ja ohnehin idealerweise aus dem Text kommen sollten.

Nur viel Text alleine genommen, ist uns aber dennoch keine sehr hohe Bewertung wert.

Qualität Text Linkquelle

Automatisch erstellte Kauderwelsch-Texte können zu Abwertungen auch für die Links führen. Links aus spammigen Inhalten sollten auch nicht wirklich zählen. Dafür sind Links aus qualitativ hochwertigen Inhalten mehr wert.

seo2b-Erfahrungen

Wir glauben, dass sich das von selbst erklärt. Wobei man natürlich auf die Qualität der linkgebenden Seite selten Einfluss hat. Theoretisch wäre es denkbar, bereits auf uns verlinkenden Websites dabei zu helfen, ihren Content zu verbessern. So könnten wir Fehler eliminieren und Inhalte mit Updates versehen. Als Dankeschön für eine Verlinkung sozusagen. Wenn wir die Seiten unserer Linkgeber verbessern, dann werden auch die darauf erhaltenen Links stärker. Macht das schon jemand? Uns ist das nicht bekannt.

Die seo2b Top-Interaktions-Faktoren

Interaktions-Faktoren

Wer irgendwo klickt, der agiert und erzeugt ein Signal. Viele dieser Klicks könnte Google als Rankingsignal nutzen.

Google Chrome

Ehemalige Google-Mitarbeiter bestätigen, dass Google „definitiv“ Nutzerdaten aus Chrome für das Ranking verwendet. Google Chrome sendet eine ganze Reihe an Daten an Google. Darunter Suchanfragen und alles, was Sie in die Omnibox tippen. Eine vollständige Liste veröffentlicht Google in den Datenschutzhinweisen zu Google Chrome.

omnibox
Die Omnibox telefoniert nach Hause

Auch die Google-Toolbar übermittelt Daten an Google, die für das Ranking genutzt werden/wurden.

seo2b-Erfahrungen

Jetzt wissen wir auch, warum eine Suchmaschine wie Google einen eigenen Browser hat. Wir vergeben keine Höchstwertung, weil wir denken, dass externe Signale immer noch größer sind als diejenigen, die Chrome jemals an Google liefern kann. Nicht jeder verwendet Chrome!

Wer nicht möchte, dass seine Nutzerdaten an Google gesendet werden, der sollte in Chrome den Inkognito-Modus verwenden.

Weitere Quellen und Nachweise

Durchklickrate für ein Keyword

Die Durchklickrate in der organischen Suchergebnisliste wirkt sich auf das Ranking aus.

Angenommen bei einer Suche zum Begriff [Abenteuerreise] befindet sich WebsiteA auf Platz 1 und WebsiteB auf Platz 2. Falls WebsiteB die größte Anzahl an Klicks erhält, kann Google sie auf Platz 1 befördern, obwohl alle anderen Faktoren sagen, dass sie eigentlich auf Platz 2 ranken sollte.

Folie 30
Google bevorzugt Ergebnisse, die der Algorithmus schlechter bewertet, falls es eine höhere Durchklickrate erzielt.

seo2b-Erfahrungen

Hier bekommen der Titel, die Meta-Description (enthält sie eine gute Handlungsaufforderung?) und die URL eine ganz neue Bedeutung. Diese Faktoren haben die Kraft Rankings zu beeinflussen. Nutzen Sie diese!

Weitere Quellen und Nachweise

Durchklickrate für alle Keywords

Google kann eine durchschnittliche Durchklickrate für eine Domain ermitteln und diese ebenfalls bei der Berechnung berücksichtigen.

MOZ-SURVEY-2015 Umfrageteilnehmer halten diesen Faktor für sehr wichtig.

seo2b-Erfahrungen

Siehe oben.

Bouncerate/Verweildauer

Ein Besucher klickt auf ein Suchergebnis und sofort wieder auf „Zurück“. Das Suchergebnis hat dann wohl nicht die Erwartung erfüllt. Passiert dies immer wieder bei einer Seite, dann könnte Google diese Seite abwerten. Umgekehrt erhöht es die Verweildauer auf der Seite, was ein positives Signal sein kann.

MOZ-SURVEY-2015 Umfrageteilnehmer halten die Verweildauer bezogen auf die gesamte Domain für sehr wichtig.
BACKLINKO-MIO Niedrige Bouncerates haben eine starke Korrelation mit höheren Rankings.

seo2b-Erfahrungen

Die Bouncerate korrespondiert mit der Verweildauer auf der eigenen Website. Wer die Verweildauer optimiert, der hat auch eine bessere Bouncerate. Eine geringere Bouncerate steigert in der Regel auch die Verweildauer und damit die Konversionsrate. Sie zu optimieren, lohnt sich also in jedem Fall. Wir bezweifeln jedoch, dass Google diese Faktoren als direkte Rankingsignale einsetzt. Und wenn doch, dann spielen sie nur eine sehr untergeordnete Rolle.

Bilder und Videos helfen dabei, die Verweildauer zu verbessern.

Weitere Quellen und Nachweise

Wiederkehrende Besucher

Hat eine Website stetig über Google wiederkehrende Besucher, dann kann sie dafür einen Bonus erhalten.

seo2b-Erfahrungen

Wiederkehrende Besucher möchte wohl jeder Website-Betreiber haben. Am besten ist es, falls Ihre Besucher direkt Ihre Domain eingeben. Aus Sicht dieses Faktors hilft das jedoch nicht, außer vielleicht, wenn diese Besucher Google Chrome verwenden. Um diesen Faktor vollends auszunutzen, müssten Sie Ihren Besuchern mitteilen, dass diese immer über Google gehen sollten, um auf Ihre Website zu kommen. Das wäre theoretisch machbar, wir empfehlen es aber nicht. Die Abhängigkeit zu Google würde dadurch zu groß.

Nutzer-Interaktionen

Kommentare, Bewertungen und Nutzer-Interaktionen auf der eigenen Website können für Google ein Signal darstellen. Voraussetzung ist eine hohe Qualität der Signale bzw. deren Authentizität.

seo2b-Erfahrungen

Ermöglichen Sie Nutzer-Interaktionen auf Ihrer Website, aber auch anderen Bewertungsportalen.

Die seo2b Top-Markensignale

Markensignale

Seit den berühmten Worten von Googles Ex-CEO Eric Schmidt legt Google verstärkt Wert auf Marken.

„Marken sind die Lösung, nicht das Problem. Marken räumen mit dem Spam auf.“
– Frei übersetzt nach Eric Schmidt

Im Laufe der Zeit haben sich so mögliche Faktoren herauskristallisiert. Diese drehen sich ausschließlich um die Marke als Rankingfaktor.

SEARCHMETRICS-2015 stellt fest: „Offenbar ranken in den Top30 nun insgesamt noch mehr Domains, die bereits Brand-Charakter besitzen“.

Vertrauenswürdige Marke

Wer das Vertrauen von Google gewinnen möchte, muss viele kleinere Signale in einer „Marke“ (Brand) bündeln. Dazu gehören u. a.:

  • Die Verlinkung von anderen Autoritäts-Websites: Hochgradige Links von reputablen Personen, Unternehmen, Institutionen und den Medien.
  • Ein Impressum und eine Datenschutz-Seite.
  • Eine niedrige Bounce-Rate. Google kann diese vermutlich über Chrome messen.
  • Eine ausführliche Über-uns-Seite.
  • Aktive Social-Media-Accounts.
  • Für einen langen Zeitraum registrierte Domains.
  • Richtiges Zitieren.

Es geht darum, sich so zu verhalten, wie es eine renommierte Marke (Brand) tun würde.

seo2b-Erfahrungen

Eine Website mit einem hohen Vertrauen kann neue Seiten und Keywords ohne Verzögerung ranken und ist auch gegen Attacken besser geschützt (negatives SEO). Es ist ein langer Weg bis zur vertrauensvollen Marke, aber er lohnt sich ungemein.

Weitere Quellen und Nachweise

Reputation

Google spricht in seinen Guidelines für Quality-Rater vermehrt über die „Reputation“ von Websites. Was andere über einen sagen, sei viel wichtiger als das, was man selbst über sich sagt. Hierbei empfiehlt Google seinen Ratern auf vielerlei Quellen zurückzugreifen.

GOOGLE-SQRG „Suche nach Informationen, die von einer Person stammen und nicht von aus Statistiken und maschinell erstellten Daten herrühren. News, Wikipedia-Artikel, Blogbeiträge, Magazinartikel, Forendiskussionen und Bewertungen von unabhängigen Organisationen können alle reputable Informationsquellen sein.“

Google macht die Recherche von Reputationsinformationen für alle Quality-Rater und für alle Bewertungsaufgaben zur Pflicht. („Reputation research is required for all PQ rating tasks“) Es wird also keine Seite bewertet, bevor nicht überprüft wurde, was andere Websites über diese Seite schreiben.

seo2b-Erfahrungen

Egal wer was über Sie sagt, es könnte Ihr Ranking beeinflussen. Versuchen Sie schlechte Rezensionen zu vermeiden oder zu entfernen. Ermuntern Sie zufriedene Kunden auf Ihren eigenen Websites oder in anderen Portalen über Sie zu schreiben. Pflegen Sie Ihre Reputation!

News-Themen

Eine Nennung des Markennamens in den Medien oder konstante Verlinkungen aus den Medien können dabei helfen, das Markensignal zu verstärken. Bekannte Marken finden täglich Erwähnung in den Medien. Google bietet für bestimmte Suchanfragen sogar einen eigenen Newsfeed. Wer sich so einen Newsfeed verdient, den könnte Google auch in den organischen Ergebnissen begünstigen.

newsfeed-audi
Der Suchbegriff [audi] hat einen eigenen Newsfeed. Für das Ranking schadet das bestimmt nicht

seo2b-Erfahrungen

Konstante Pressearbeit kann sich lohnen. Auch wenn dies eher für die größeren Marken interessant ist. Was aber genau der Punkt ist!

Linktext mit Markennennung

Der Ankertext kann ein Markensignal sein, falls er aus dem Namen einer Marke besteht oder ihn enthält.

Brand: Googles Rankingfaktoren bei <a href="/google-ranking-faktoren/">seo2b</a>
Kombiniert: <a href="/google-ranking-faktoren/">Googles Rankingfaktoren bei seo2b</a>

seo2b-Erfahrungen

Verlinken Sie extern und intern öfters mit Ihrem (Marken-)Namen. Das ist wichtig.

Nennungen (ohne Link)

Marken werden sehr oft ohne Link genannt. Das kann Google als Markensignal interpretieren.

SEARCHMETRICS-2015 „,Mentions’ – also die Nennung einer Domain oder einer Brand ohne Verlinkung – spielt zunehmend ebenfalls eine Rolle – insbesondere auf Domains mit thematischer Nähe.“
MOZ-CORRELATION-2015 findet eine recht hohe Korrelation zwischen Nennungen der Domain und besseren Rankings.
MOZ-SURVEY-2015 Umfrageteilnehmer halten dies für sehr wichtig.

seo2b-Erfahrungen

Links aufzubauen ist immer noch der entscheidende Faktor schlechthin. Manchmal reicht aber auch schon eine Nennung. Eine Nennung ist besser als nichts. Und ein Link ist besser als eine Nennung.

Markensuchen

Wenn mehr Menschen direkt bei Google nach einer Marke suchen, dann rankt diese insgesamt höher.

brandbox
Die Brandbox ist ein Zeichen für eine „anerkannte“ Domain
MOZ-SURVEY-2015 Umfrageteilnehmer halten ein hohes Suchvolumen für die Brand/Domain für sehr wichtig.

seo2b-Erfahrungen

Wir empfehlen nicht zu versuchen, diesen Faktor händisch zu manipulieren. Den Status als „Brand“ muss sich jeder hart erarbeiten. Wir fragen uns jedoch bei aller Diskussion rund um Brands, ob es hier nicht einfach nur darum geht, Autoritätssignale aufzubauen.

Offizielle Seite bei LinkedIn und Xing

Offizielle Unternehmensseiten bei Xing und LinkedIn könnten Google Aufschluss darüber liefern, ob es bei diesem Unternehmen, um eine größere Marke handelt. Dabei könnte es zusätzlich helfen, falls Mitarbeiter sich auf diesen Seiten registrieren.

seo2b-Erfahrungen

Entsprechende Seiten einzurichten, könnte sich lohnen. Wir halten dies selbst nicht für einen Faktor, es spricht aber auch nichts dagegen, die eigenen Profile entsprechend anzupassen.

Lokales Listing bei Google+

Ein lokales Listing kann Aufschluss darüber geben, ob das Unternehmen Filialen/Standorte hat und somit ein „echtes“ Unternehmen im klassischen Sinne ist.

seo2b-Erfahrungen

Es schadet sicher nicht, so eine Seite anzulegen und zu pflegen.

Die seo2b Top-sozialen Signale

Soziale Signale

Ob Google tatsächlich soziale Signale für das Ranking verwendet, ist hoch umstritten. Sehr wahrscheinlich ist, dass sie es versuchen. Google hat bereits mehrfach gesagt, dass soziale Signale keine Beachtung finden.

Auch Googles eigener Dienst Google+ stelle keine ausreichende Datenquelle dar, da Google+ im Vergleich zu Facebook und Twitter nicht groß genug ist.

Korrelationsanalysen stellen immer wieder fest, dass hohe Rankings mit einer hohen Anzahl an sozialen Signalen einhergehen. Wir haben die großen sozialen Netzwerke aus diesem Dokument bewusst ausgelassen. Ausnahme ist Google+. Wir denken zwar auch, dass Google+ keine direkten Rankingsignale liefert, allerdings werden Posts aus dem Google+-Netzwerk in die Suchergebnisse eingeflochten. Google+ hat also unumstritten eine gewisse Relevanz für das Ranking. Auch wenn diese nur in für personalisierte Ergebnissen relevant ist.

SEARCHMETRICS-2015 „Wir erkennen, dass höher gerankte Seiten auch mehr Likes & Shares, Tweets oder +1 aufweisen. Jedoch hat Google stets betont, dass Social Signals kein direktes Ranking-Signal darstellen.“

Autorität der Google+-Konten

Google wertet die +1en eventuell höher, falls sie von einem Konto kommen, welches selbst hohe Autoritäts-Signale sendet. Beispielsweise eine hohe Anzahl an Followern, eine hohe Interaktionsrate, eine hohe Publikationsfrequenz etc.

seo2b-Erfahrungen

Je nach Umfeld kann es sich lohnen, auf Google+ zu publizieren und zu interagieren. Kontakte bekommen so immer wieder Ihr Gesicht/Ihre Marke eingeblendet und gelangen auch über die Suchergebnisse auf Ihre Website.

Anzahl der Google+1

Die Anzahl der +1 bestimmt, wie hoch ein Post gerankt wird.

seo2b-Erfahrungen

Es ist wahrscheinlich weniger die Anzahl der +1 als eine Kombination von Shares, Anzahl und Qualität der Klicks und der Umstand, dass ein Share auch einen Link erzeugt. Leider ist dieser Link seit 2014 auf NoFollow.

Weitere Quellen und Nachweise

Negativfaktoren Onpage oder Onsite

Es gibt viele Negativfaktoren, die Google heranziehen kann, um Spam zu bekämpfen. Wer in einen solchen „Spam-Filter“ gerät, den kann Google ganz aus den Suchergebnissen herausschmeißen. Vorsicht ist geboten. Von den folgenden Faktoren sollten Sie nicht zu viel machen.

Die Bewertungen beziehen sich darauf, wie sehr sie diese Strategien meiden sollten. Eine hohe Bewertung bedeutet: Machen Sie das bloß nicht!

Die folgenden Faktoren beziehen sich auf OnPage-Signale, entweder auf der einzelnen Seite oder der gesamten Domain.

Panda-Penalty

Google hat Anfang 2011 (Panda-Update) verstärkt damit begonnen, ganze Websites dafür zu devaluieren, wenn diese hauptsächlich knappe und flache Informationen ohne jeglichen Tiefgang veröffentlichen. Wer mit einer solchen Penalty belegt wird, der muss viele unterschiedliche Maßnahmen ergreifen, um ihr wieder zu entkommen.

Laut Google ist Panda kein inkrementelles Update mehr. Panda ist jetzt voll in den Kernalgorithmus integriert.

seo2b-Erfahrungen

SISTRIX hat eine schöne Übersicht über Panda und was für Betroffene zu tun ist. Insgesamt lässt sich feststellen, dass es seit dem Panda-Update unmöglich geworden ist, mit „schlechten“ Inhalten gute Ergebnisse zu erzielen.

Weitere Quellen und Nachweise

Duplizierte Inhalte

Falls ein und der gleiche Inhalt (gilt auch für Meta-Informationen) mehrfach auf einer Website vorkommt, können darunter die Rankings leiden. Beispiel: Seite A ist sowohl unter website.xy/seite-a.html als auch unter website.xy/archiv/seite-a.html zu finden. Die Inhalte sind identisch. Nur die URLs unterscheiden sich.

seo2b-Erfahrungen

Google wird immer besser darin Duplicate-Content (DC) zu erkennen und selbst zu entfernen. Dennoch lohnt sich eine Prüfung der Website. Was im Falle von DC zu unternehmen ist, hat Google auf einer speziellen Seite (s. u.) zusammengefasst.

Weitere Quellen und Nachweise

Crawlingfehler

Wenn der Google-Bot viele Crawlingfehler ertragen muss, dann ist dies wahrscheinlich kein gutes Signal für Google.

MOZ-SURVEY-2015 Umfrageteilnehmer halten viele Crawlingfehler und 404-Seiten für schädlich.

seo2b-Erfahrungen

Prüfen Sie Ihre Website, zum Beispiel in der Search-Console auf Crawlingfehler und beseitigen diese schnellstmöglich.

Page-Assets blocked durch robots.txt

Wenn der Google-Bot keine CSS- und JS-Dateien laden darf, dann kann er nicht erkennen, wie ein Besucher die Seite sieht. Er denkt vielleicht: „Was möchte diese Website vor mir verstecken?“

MOZ-SURVEY-2015 Umfrageteilnehmer halten geblockte Asset-Dateien für schädlich.

seo2b-Erfahrungen

Entblocken Sie Ihre Asset-Dateien.

Cloaking

Cloaking oder das absichtliche Verstecken von Inhalten (zum Beispiel mit Sneaky-Redirects), die nur für die Suchmaschine bestimmt sind, können zum kompletten Ausschluss aus den Suchergebnissen führen.

seo2b-Erfahrungen

Dies ist eine Black-Hat-Strategie. Finger weg.

Weitere Quellen und Nachweise

Viele kaputte Links deuten auf eine ungepflegte Website hin.

seo2b-Erfahrungen

Pflegen Sie regelmäßig Ihre Links.

Wer auf „verdächtige“ (zum Beispiel Adult oder typische Spamthemen) Seiten verlinkt, den kann Google dafür abwerten.

MOZ-SURVEY-2015 Umfrageteilnehmer halten Links zu anderen Spamseiten für sehr schädlich.

seo2b-Erfahrungen

Prüfen Sie regelmäßig Ihre Links. Verlinkungen auf verdächtige Seiten passieren in der Regel, weil alte Domains auslaufen, von Spammern übernommen werden, die dort dann fragwürdige Inhalte platzieren. So verlinken Sie plötzlich auf fragwürdige Inhalte, ohne es zu wissen.

Störende Werbung

GOOGLE-SQRG Eine manuelle Prüfung durch einen Quality-Rater kann ergeben, dass Ihre Website zu viele Popups oder irreführende Werbeflächen enthält.

Eine Degradierung kann die Folge sein. Ein Beispiel ist Googles Page-Layout-Update.

MOZ-CORRELATION-2015 findet eine hohe Korrelation zwischen der Anzahl an Werbeblöcken und schlechteren Rankings.
MOZ-SURVEY-2015 Umfrageteilnehmer halten zu viel Werbung für sehr schädlich.

seo2b-Erfahrungen

Übertreiben Sie es nicht mit der Werbung. Ihre Besucher sollten immer zuerst den Inhalt einer Seite sehen und nicht die Werbung.

Weitere Quellen und Nachweise

Automatisch erstellte Inhalte

Automatisch erstellte Inhalte sind Google schon lange ein Dorn im Auge.

GOOGLE-SQRG „Bewerte Seiten oder Websites, die aus automatisch erstellten Inhalten bestehen, ohne Überarbeitung und ohne manuelle Zusammenstellungsleistung, ohne originelle Inhalte und ohne Mehrwert, mit der geringsten Bewertung.“

seo2b-Erfahrungen

Es geht nichts über echte, von Menschen erstellte Inhalte.

Weitere Quellen und Nachweise

Übermäßige Optimierung

Wer zu viel SEO macht, den bestraft Google. Beispielsweise eine übermäßige Verwendung von Keywords (Keyword-Stuffing) in Titel, Meta-Description, Überschriften, Text, exzessives PageRank-Sculpting etc.

MOZ-CORRELATION-2015 Nur eine kleine Anzahl an externen Links enthält den Markennamen korreliert mit schlechteren Rankings.
MOZ-SURVEY-2015 Umfrageteilnehmer halten überoptimierte Ankertexte und Keyword-Stuffing für sehr schädlich.

seo2b-Erfahrungen

Der Grat ist schmal zwischen der perfekten Optimierung und der Überoptimierung. Google erkennt, wie viel SEO Sie machen. Wer es damit übertreibt, läuft Gefahr. Auch wenn es schwierig zu erkennen ist: Manchmal ist es ratsam, etwas weniger SEO zu machen.

Affiliate Sites

Google ist kein Fan von Affiliates.

seo2b-Erfahrungen

Wer ein Affiliate-Projekt betreibt, der sollte besonders vorbildlich agieren.

Weitere Quellen und Nachweise

Negativfaktoren Offpage

Die folgenden Faktoren beziehen sich auf OffPage-Signale (Link/Nennung), entweder auf einzelne Links bezogen oder aber auf das gesamte Linkprofil.

Penguin-Penalty

In einem historischen Update am 24.04.2012 hat Google damit begonnen, Seiten und gesamte Websites für minderwertige externe Links abzuwerten. Seitdem sind Website-Betreiber nicht mehr nur für die Inhalte auf der eigenen Website verantwortlich, sondern auch für Links, die andere Menschen auf ihre Seiten setzen.

Pinguin greift ein, falls eine Website eine prozentual hohe Anzahl von Links aus minderwertigen Quellen vorweist, beispielsweise aus Blogkommentaren, Forenprofilen, Gästebüchern etc., die darauf hinweisen, dass der Website-Betreiber offensichtlich versucht, Google zu manipulieren.

Ähnlich wie beim Panda-Update ist Pinguin ursprünglich ein inkrementelles Update. Google plant jedoch für 2016, Pinguin ebenfalls in den Kernalgorithmus zu integrieren.

seo2b-Erfahrungen

Wer einmal vom Pinguin erwischt wird, der kommt nur sehr langwierig und mit extremem Aufwand wieder raus. Es lohnt sich vor vornherein in qualitativ hochwertigen Linkaufbau zu investieren. Seit Pinguin kommt es weniger darauf, an „gute Links“ denn „qualitativ hochwertige Links“ aufzubauen, die zum Beispiel auch einer Prüfung durch Quality-Rater standhalten.

Weitere Quellen und Nachweise

Verlinkungs-Schemata

Google führt eine ganze Reihe an für das Ranking schädlichen Linktaktiken auf. Die Anwendung dieser Taktiken kann sich negativ auf die eigenen Rankings auswirken. Hierunter fallen (auszugsweise):

  • Kauf oder Verkauf von Links
  • Exzessiver Linktausch
  • Artikel-Marketing
  • Gastbeiträge mit Ankertextlinks, die viele Keywords enthalten
  • Automatisiertes Erstellen von Links zur eigenen Website
  • und viele mehr
SISTRIX „[W]as sind Spamlinks noch wert, wenn Google die tatsächlichen Besucherströme über den Google Chrome Browser messen kann?“
MOZ-SURVEY-2015 Umfrageteilnehmer halten eine hohe Anzahl an unnatürlichen Links für ultimativ schädlich. Nichts ist schädlicher.

seo2b-Erfahrungen

Google gibt auch gleich einen Tipp mit, was zu tun ist, wenn man nicht von Google abgestraft werden möchte:

„Die beste Methode, Webmaster anderer Websites dazu zu bewegen, über hochqualitative Links auf Ihre Website zu verweisen, sind individuelle und relevante Inhalte, die sich ohne Manipulation großer Beliebtheit bei der Internet-Community erfreuen. Das Erstellen guter Inhalte zahlt sich aus: Links sind meist redaktionelle Bewertungen, die freiwillig abgegeben werden, und je nützlicher Ihre Inhalte sind, desto höher sind die Chancen, dass jemand anderes diese Inhalte als wertvoll für seine Leser erachtet und auf Ihre Seite verlinkt.“

Weitere Quellen und Nachweise

Die Vermutung liegt nahe. Wer Links von Seiten bezieht, die selbst offensichtlich zu einer schlechten Nachbarschaft gehören, spielt mit dem Feuer. Offensichtliche Linknetzwerke gehören ohne Zweifel zu dieser schlechten Nachbarschaft. Google kann diese Netzwerke aufdecken, was Google auch weltweit schon mehrfach getan hat.

seo2b-Erfahrungen

Analysieren Sie Ihr Linkportfolio und schauen Sie sich auch das Linkumfeld verdächtiger Links an. Könnten diese Teil eines Netzwerkes aus minderwertigen Publishern sein? Dann räumen Sie auf und fügen diese Links proaktiv Ihrer Disavow-Liste hinzu. Ein Disavow ist ein für ungültig erklärter Link.

Weitere Quellen und Nachweise

Links verkaufen und diese auch noch als Kauflinks auszuzeichnen, zum Beispiel mit Begriffen wie Partner oder Sponsored by etc. kann zu einer Abwertung führen.

seo2b-Erfahrungen

Tun Sie es lieber nicht.

Linkspam-Welle

Rasantes Linkwachstum kann ein Warnsignal sein. Oft handelt es sich hier um Spamlinks.

seo2b-Erfahrungen

Keine Sorge vor vielen Links, falls diese alle qualitativ hochwertig sind. Bitte prüfen Sie solche Vorkommnisse. Kommen die Links aus einer sauberen Aktion? Ansonsten könnte es ich auch um einen Linkspam-Angriff handeln. In diesem Fall sollten Sie reagieren und versuchen, diese Links zu entwerten.

Linkwarnung

Wer einen „Blauen Brief“ von Google erhalten hat, der muss umgehend darauf reagieren, um eine Chance darauf zu haben, die vorherige Sichtbarkeit zurück zu gewinnen.

So eine Benachrichtigung von Google deutet explizit darauf hin, dass Google Links gefunden hat, die gegen die Webmaster-Richtlinien verstoßen.

seo2b-Erfahrungen

Jetzt ist Handeln angesagt. Google listet selbst auf, welche Schritte notwendig sind.

Weitere Quellen und Nachweise

Unnatürliche Links zu Ihrer Website

Disavowed

Google könnte die Disavows (für ungültig erklärte Links) anderer Webmaster dazu benutzen, auf die Qualität von Seiten und Domains zu schließen.

MOZ-SURVEY-2015 Umfrageteilnehmer halten die Anzahl der Disavows für schädlich.

seo2b-Erfahrungen

Dagegen kann man nicht wirklich etwas tun. Ziemlich schlau dieses Google.

Manuelle Bestrafung

Google ist bekannt dafür, auch mal öffentlich eine manuelle Strafe auszuhändigen. Sogar sich selbst hat Google schon mehrfach abgestraft.

seo2b-Erfahrungen

Wer gegen die Richtlinien verstößt, muss jederzeit damit rechnen. Aus so einer Penalty herauszukommen, ist dann nicht immer möglich.

Weitere Quellen und Nachweise

Negative Bewertungen

Negative Bewertungen auf Nutzerportalen wie zum Beispiel Yelp könnten Rankings beeinflussen.

Erstaunlicherweise hat sich Google sehr umfangreich zu diesem Faktor geäußert, da einige Anbieter davon ausgegangen sind, dass negative Bewertungen und die daraus entstehenden Links zu positiven Rankingeffekten führen können. In diesem Zusammenhang hat Google sogar bestätigt, dass sie seit mindestens 2007 über ein „Weltklasse-Tool zur Sentimentanalyse“ verfügen. Mit so einem Tool lässt sich bestimmen, ob jemand für oder gegen einen bestimmten Sachverhalt ist. Sie schildern sogar, dass sie die Stimmungsanalyse für den Einsatz als Rankingfaktor getestet haben. Leider ohne Erfolg. In Zukunft könnte dieser Faktor allerdings noch eine Rolle spielen.

seo2b-Erfahrungen

Schreiben Sie bloß keine negativen Kommentare über sich selbst!

Bewertung

Gastbeiträge

Links aus Gastbeiträgen und hier speziell Links aus der Autorenbox könnten von Google als negativ eingestuft werden.

seo2b-Erfahrungen

Falls Sie Gastbeiträge schreiben, dann verlinken Sie nach Möglichkeit auch innerhalb des Textes auf weiterführende Inhalte der eigenen Website. Nicht nur aus der Autorenbox. Selbstverständlich brauchen Sie dazu auch passende, hochwertige Inhalte auf der eigenen Website.

Weitere Quellen und Nachweise

Giftige Linktexte

Wenn giftige Linktexte auf die eigene Website zeigen, dann kann dies zu einer Penalty führen. Giftige Linktexte kommen meist aus spamaffinen Branchen, zum Beispiel „Kaufe Potenzmittel hier“.

seo2b-Erfahrungen

Achten Sie auf solche Linktexte und versuchen Sie, sie zu entfernen. Wenn das nicht klappt, dann bleibt immer noch das Disavow-Tool.

Fazit

Diese Meta-Studie beleuchtet insgesamt weit über 100 Faktoren. Warum sind es nicht mehr, da ja beispielsweise BACKLINKO-GRF über 200 Faktoren listet? Das liegt einfach an der Art, wie diese Faktoren von den jeweiligen Quellen zusammengefasst werden. Viele Faktoren sind im Prinzip Duplikate oder aber manchmal auch einfach unbrauchbar. Wir haben so gut wie möglich zusammengefasst, aber auch viele Faktoren gestrichen.

Was gibt es Neues in der Welt der Rankingfaktoren? Leider nicht viel. Google schützt den Algorithmus so gut wie Coca Cola die Rezeptur ihrer weltberühmten Zuckerbrause. Allerdings veröffentlicht Google selbst immer mehr sehr interessante Informationen.

Neu ist, dass Google die seit vielen Jahren immer wieder „geleakten“ Search Quality Rating Guidelines jetzt auch offiziell herausgibt. Diese Ressource wird von Jahr zu Jahr umfangreicher und besser. Für alle SEOs, die strategisch und langfristig denken, liefert sie – unter allen hier verglichenen Quellen – sicher die wertvollsten Informationen. (Hier eine Zusammenfassung: 30+ Important Takeaways from Google's Search Quality Rater's Guidelines).

Für Anfänger und Profis zugleich, bleibt eine simplistische – von Google immer wiederholte – Formel weiterhin der Maßstab aller Dinge: Kreieren Sie gute Inhalte für Ihre Leser! Denn was für den Leser gut ist, gerade das möchte Google anzeigen. Zu Zeiten von Google Chrome bekommt diese Aussage eine ganz neue Gewichtung, denn Google weiß unter Umständen sehr genau, wie der Besucher auf Suchergebnisse und Ihre Websites reagiert. Das ist für uns Grund genug auch in Zukunft immer mehr über den Tellerrand zu schauen und Faktoren aus Usability- und Konversions-Optimierung zu berücksichtigen.

Viel Erfolg bei der Suchmaschinenoptimierung wünscht Ihnen
das SEO-Team bei seo2b

seo2b-Impressum

Newsletter abonnieren und Meta-Studie als PDF erhalten

Newsletter

  • Lassen Sie sich regelmäßig über die wichtigsten Neuigkeiten informieren
  • Erfahren Sie als Erster von besonderen seo2b Aktionen
  • Exklusive Informationen für Abonnenten
  • Absolut unverbindlich. Jederzeit abmeldbar

Kommentar schreiben

Kommentar von Frank |

Hut ab! Das ist wirklich ein ausführlicher und detaillierter Artikel zum Thema Rankingfaktoren. Tolle Infos und sehr schön aufbereitet! Auch mit vielen Jahren SEO-Erfahrung schön zu lesen ;-)
Herzlichen Dank dafür!

Kommentar von Rolf-W. Antweiler |

Wenn der direkte Download nur über Newsletterabonnement läuft, wie erhalten die alten Newsletterabonnenten den Download? Eine Anforderung unter bestehender E-Mail ist nicht möglich, aber ohne Registrierung keine Pdf-Download. Selbige müssten das Pdf entweder als Dateianhang oder über Codeeingabe einen Sonder-download erhalten.

M.f.G.

Rolf-W. Antweiler

P.s.: Bin mal gespannt was jetzt kommt oder ob ich den NL abbestellen muss.

Kommentar von Christian Weber [seo2b GmbH] |

Guten Tag Herr Antweiler.

Die PDF-Datei kann über die Newsletter-Anmeldung angefordert werden, auch wenn der Newsletter bereits abonniert wurde. Die Datei wird Ihnen auch bei bestehendem Abonnement per Email zugestellt.
Wenn Sie die erneute Eingabe Ihrer Daten in das Formular auf dieser Seite schon durchgeführt haben, sollte die PDF-Datei also bereits in Ihrem Postfach angekommen sein.

Die Seite, auf die bestehende Abonnenten umgeleitet werden, wurde inzwischen angepasst, um weitere Unklarkeiten auszuräumen.

Mit freundlichen Grüßen
Christian Weber

Kommentar von Stefan |

Dies ist die umfassendste Analyse die ich je zu diesem Thema gesehen habe.
Kompliment!

Kommentar von Christoph Decker |

Sehr interessante Zusammenfassung von Rankingfaktoren.
Anmerkung zum Punkt: "Aktualisierung der Website" ist sehr wichtig.
Wenn es sich um zusätzliche Seiten dreht, ist die Aktualisierung sicher ein guter Rat.
Wenn man allerdings einzelne HTML-Seiten mit Top-10-Rankings hat, sollte man sehr vorsichtig mit Aktualisierungen dieser Seiten sein, denn sonst kann es schnell passieren, dass das Top-10-Ranking in Eimer ist. Es gibt viele einzelne Webseiten, die seit Jahren - fast unverändert - Top-Rankings haben.

Kommentar von Christoph Szepanski |

Das ist sehr interessant. An manchen Stellen sicherlich noch ausbaufähig, aber ich freue mich sehr, dass auch für mich ein paar Dinge dabei sind, die ich richtig spannend finde.
Es ist eh immer so, dass ich mir alles Mögliche durchlese und selbst Anfänger-Guides von "Experten" konsumiere. Dabei kommen, zumindest mir, so oft neue Ideen und Ansätze ... einfach herrlich. So auch hier, obwohl das alles andere als Anfängerkost ist. Herzlichen Dank.

Kommentar von Salih Daglar |

Wow,
Das sind so viele eindrücke.
Nützlichste Informationen sehr gut zusammengestellt und detailliert beschrieben.

DANKE FÜR DIE MÜHE

Kommentar von Dirk |

Ein sehr gut recherchierter Beitrag. Gefällt mir und trifft den Zahn der Zeit.

Kommentar von Mark |

Sehr schöne Idee mit dieser Zusammenfassung!

Kommentar von Udo |

Das nenne ich jetzt mal eine wirklich allumfassende Zusammenfassung zum Thema Seo. War sehr schön das Thema als ganzes nochmal in sich aufzusaugen

Kommentar von Nico Schubert |

Krasser Beitrag! Da habt ihr euch echt Mühe gegeben und dieser bietet wirklich einen Mehrwert. Ich glaube dieser wird viel Aufmerksamkeit auf sich ziehen. Macht weiter so.

Kommentar von Niklas |

Ganz vielen Dank für die umfassend aufgelistete Studie! Gerade für noch unerfahrene SEOs eine Art Handbuch, mit dem man drauf los optimieren kann. :) Sehr übersichtlich, gefällt mir! :)

Kommentar von Annette |

Ich würde auch gerne in den Genuss dieser sicherlich sehr interessanten Studie kommen. Daher habe ich mich für den Newsletter angemeldet. Die Anmeldebestätigung ist auch gekommen. Die Frage ist nur - wie komme ich jetzt an die pdf? Ich werde jedes Mal nur zu dem Anmeldeformular geführt. Es wäre sehr nett, wenn Sie mir die Studie an meine o.g. eMail Adresse schicken würden. Vielen Dank :-).

Kommentar von SEO Agnes |

Wow. Mein Respekt. Das ist wirklich mal eine vollständige - ok...NAHEZU vollständige Liste.
Vor allem für Neulinge ist das mal ein toller Überblick.
Wirklich toll. Lieben Gruss,
Agnes

Kommentar von Gray SEO Global |

Great article! Thanks for this.

Kommentar von Rainer Reitz |

Toll gemacht, vielen Dank! Eine sehr umfassende, schön aufbereitete Darstellung.

Kommentar von Daniel |

Ein wirklich sehr guter Artikel. Ich habe mir mal die Zeit genommen und den ganzen Artikel gelesen und viel neues gelernt. Mal sehen wie hoch ich mit meiner neuen Webseite ranken werde.

Beste Grüße
Daniel

Kommentar von 10 seos |

This is the most awesome post. That's why I love to land on this page directly. Great work to motivate and get started for the betterment

© 2017 seo2b.de. All Rights Reserved. — Designed by seo2b - Onlinemarketing Agentur im Raum Trier, Luxemburg und Saarbrücken