Google Rankingfaktoren 2016 Die ultimative Meta-Studie der wichtigsten Faktoren mit praktischen Tipps zur Umsetzung
Wer herausfinden möchte wie Google funktioniert, kann auf eine ganze Reihe guter Quellen zurückgreifen. Einige davon kommen sogar direkt von Google. Die Quellen sind teilweise sehr umfangreich und behandeln die unterschiedlichsten Faktoren. Manche von ihnen listen über 200 Faktoren auf. Es gibt eine Menge Aussagen, die darauf hindeuten, dass es wahrscheinlich sogar deutlich mehr sein könnten: vielleicht sogar mehr als 10.000. Für uns ist das Grund genug einmal all diese Quellen durchzuforsten, um die Faktoren miteinander in Verbindung zu bringen.
SEOs, wohin geht die Reise?
Solange es Suchmaschinen gibt, wird es auch professionelle SEOs geben. Wir haben nachgehakt und gehen dabei der Frage nach der Zukunft der Suchmaschinenoptimierung und der Rankingfaktoren auf den Grund.
- Was bleibt gleich, was wird anders?
- Wie sieht die Zukunft in Sachen SEO und Rankingfaktoren aus?
- Worauf müssen sich SEOs einstellen?
Auf den Punkt gebracht:
„Wie sieht die Zukunft der Suchmaschinenoptimierung bzw. der Google-Ranking-Faktoren aus?“
Diese Frage haben wir Deutschlands SEO-Experten gestellt. Sie haben geantwortet (in alphabetischer Reihenfolge):
Timo Abid
![]() |
|
---|---|
Unternehmen | seo2b GmbH |
Position | Geschäftsführer |
Spezialgebiet | Linkaufbau |
SEO seit | 2008 |
Website | www.seo2b.de |
Timo Abid |
Google wird immer schlauer und SEO deswegen immer schwieriger. Insbesondere durch die Implementierung von Panda und Pinguin in den Real-Time-Algorithmus. Wer jedoch die Rankingfaktoren im historischen Vergleich betrachtet, stellt im Großen und Ganzen weit weniger Änderungen über die Jahre fest, als gedacht. Wenngleich sich die jeweilige Gewichtung durchaus verändert hat und auch verändern wird. Es kommt immer noch hauptsächlich darauf an, dass eine Website sauber gecrawlt werden kann, die wichtigsten Onpage-Faktoren (URL, Titel, Meta-Description, Inhalt, Keywords an den richtigen stellen etc.) und danach Link-Signale von reputablen Websites erhält.
Hinzugekommen sind in 2015/6 hauptsächliche die Interaktions-Faktoren. Mit Google Chrome besitzt Google mittlerweile den populärsten Browser der Welt und kann hier genau sehen, was die Nutzer machen, wohin sie klicken, ob sie wegklicken und wie lange das alles dauert (Stichwort Verweildauer/Bouncerate). Das sind alles wichtige Datenpunkte, die Google dabei helfen, die Suchergebnisse zu verbessern.
Wer SEO auf höchstem Niveau praktizieren möchte, muss sich intensiv mit den Wechselwirkungen der Faktoren untereinander auseinandersetzen. Im Bereich Onpage geht es vor allem darum, die richtige Komposition von Themen und Keywords zu finden. Die einfache Keyword-Recherche ist ein Auslaufmodell. Es geht darum semantische Beziehungen von Keywords zu erkennen und diese richtig zu einem Thema zu formulieren. Das Gesamtergebnis muss dann auch noch das Publikum begeistern und mit Mehrwert überwältigen.
Bei der Produktion dieser Meta-Studie haben mich besonders Googles Anforderungen an die Quality-Rater überrascht. Diese sind zwar keine direkten Rankingsignale, können jedoch mittel- und langfristig darüber entscheiden, ob sich eine Website in den Rankings oben halten kann. Insbesondere der Fokus darauf, dass die Bewertung einer Website nicht ohne externe Signale auskommt. Google verlässt sich mehr denn je darauf, was andere über eine Website sagen. Dieser Punkt bestärkt mich in meiner Auffassung, dass der Link – allen Unkenrufen zum Trotz – weiterhin eine entscheidende Rolle für die Rankings spielen wird. Es geht aber nicht mehr nur einfach um Links. Auch hier kommt es auf die Wechselwirkungen vieler verschiedener Faktoren an. Vor allem der Kontext aus dem ein Links entsteht, spielt eine entscheidende Rolle. Wie sieht der Link aus? Woraus wird verlinkt? Wohin zeigt er? Passt er thematisch? Mit welcher Intention wurde er gesetzt? Das wird entscheidend sein!
Marie Bläsing
![]() |
|
---|---|
Unternehmen | TopTarif Internet GmbH |
Position | Teamlead Inhouse SEO |
Spezialgebiet | Allrounder |
SEO seit | 2012 |
Website | TopTarif |
Marie Bläsing |
Kürzlich wurde veröffentlicht, was eigentlich kein Geheimnis sein sollte: zu den Top 3 Ranking Faktoren gehören Links, Content („Wörter“) und RankBrain. Wer jetzt allerdings wieder mit massenhaftem Linkaufbau beginnt, macht trotzdem einiges falsch.
Denn Updates im Google Algorithmus können zwar dem einen oder anderen Website-Betreiber den Schlaf rauben, aber wie Sasa es bereits in seinem Beitrag erwähnt, hat gutes SEO nichts mehr mit Tricksereien zu tun. Gutes SEO sollte vor allen Dingen eines sein: sauber. Dann muss sich um stürmisches SEO-Wetter kein Kopf mehr gemacht werden.
Bereits heute ist die Arbeit als SEO kaum noch mit der Tätigkeit von vor wenigen Jahren vergleichbar. Es reicht nicht, sich alleine auf Bereiche wie Offsite und Onsite zu beschränken. In Zukunft wird SEO vor allem in eine Richtung gehen: Brand & User-Experience. Während die Stärke der Marke allein durch SEO schwer zu beeinflussen ist, muss der Fokus auf User-Engagement, Engagement-Reputation und User-Experience gesetzt werden.
Es gilt mehr denn je, dem Nutzer das beste Produkt auf der besten Website zu liefern. Hierzu gehören nicht nur eine gesunde Seitenarchitektur, ein kontrollierter Nutzerflow und ein gutes Endprodukt. Technisches SEO wird auch in diesem Zuge zu einem wichtigen Aspekt, welcher, meines Erachtens, noch viel zu selten im Fokus vieler Marketing-Teams liegt. Nicht nur für Google – auch für den Nutzer ist eine schnelle, technisch einwandfreie Seite ein wichtiges Signal. Besonders größere Seiten müssen sich darüber im Klaren sein, wie Site-Speed, Site-Architecture und Crawl-Budget optimiert werden können.
Auch das Thema RankBrain wird in Zukunft immer spannender. Selbst Googles Entwickler verstehen die Hintergründe des Machine Learnings nicht hundertprozentig – die Frage ist hier: wie gut kann eine Maschine entscheiden, welches die beste Seite für ein bestimmtes Query ist? Als SEO ist es daher unvermeidlich, sich auf offensichtliche Nutzerbedürfnisse zu konzentrieren, um so für sein Produkt ein optimales Ergebnis in den SERPs zu erreichen.
Britta Kristin Böhle
![]() |
|
---|---|
Unternehmen | Trusted Shops GmbH |
Position | SEO/SEA Managerin |
Spezialgebiet | E-Commerce |
SEO seit | 2010 |
Website | Trusted Shops für Shopbetreiber |
Britta Kristin Böhle |
Organischen Traffic zu generieren wird allein dadurch schwieriger, dass für diesen Kanal immer weniger vom Kuchen übrig bleibt. Mit der Erhöhung der möglichen Anzahl der bezahlten Google Ads-Anzeigen auf vier rücken die organischen Ergebnisse darunter weiter in den Hintergrund. Man darf sich also vor allem jetzt nicht mehr auf die organischen Ergebnisse von Google als hauptsächlichen Traffic-Lieferanten verlassen, sondern mussdiese mit alternativen Quellen ergänzen.
Ansonsten stehen für mich Usersignale am meisten im Fokus in den nächsten Monaten. Das Schaffen von Inhalten, die einen tatsächlichen Mehrwert bieten, ist genau das, was Google seit Jahren predigt und mittlerweile sehr gut messen kann. RankBrain wird in dem Zusammenhang natürlich auch eine große Rolle spielen - wie groß in nächster Zukunft, bleibt abzuwarten. Das Potenzial künstlicher Intelligenz für Suchmaschinen ist groß, aber Microsofts „Tay“ hat auch gezeigt, dass solche Systeme schnell aus dem Ruder laufen können.
Dabei sind Usersignale nicht nur für informations-, sondern auch für transaktionsorientierte Suchanfragen entscheidend. Online-Shops müssen es demnach schaffen, die Kunden mit ihren Produkten und dem angebotenen Service zufrieden zu stellen.
Christoph C. Cemper
![]() |
|
---|---|
Unternehmen | LinkResearchTools GmbH & Impactana GmbH |
Position | CEO |
Spezialgebiet | Links und allgemein Offpage-Signale |
SEO seit | 2003 |
Website | LinkResearchTools | Impactana |
Christoph C. Cemper |
Ich widerspreche mal allen Stimmen, die behaupten, dass SEO ein „allgemeineres Marketing“ wird. Diesen Stimmungstrend sehe ich sogar als gefährlich an, denn die Disziplin SEO ist komplexer und technischer denn je. Das zeigt auch die extreme Nachfrage nach erfahrenen SEOs am Markt – also jenen, die tief in der Technik, Offpage und natürlich auch Onpage drin sind.
Jede Vereinfachung ist nicht nur falsch, sondern auch gefährlich. Natürlich sind viele neue Plattformen im Bereich Offpage dazugekommen, ein paar neue technische Tricks und Standards wie AMP und laufende Veränderungen bei den verschiedenen Redirects, Rel-Canonicals und anderen genialen Erfindungen. Aber hey, wäre ja langweilig wenn wir noch mit HTML 1.0 in Drupal 2.0 rumbasteln würden, oder?
Suchmaschinenoptimierung hatte immer schon zum Ziel gut crawlbare Webseiten mit Inhalten „die ins Hirn knallen“ (also gut konvertieren) zu schaffen. Von daher ist es nichts Neues, dass man sich ums Onpage kümmern muss, auch wenn jetzt viele neue Tools dazu da sind, die schön die Werbetrommel rühren und auch teilweise stark polarisieren.
Das Ranking von Artikeln und Domains hat Google Ende der 1990er damit innoviert, indem der Linkgraph auch ausgewertet wurde. Das konnten Altavista und Co früher einfach nicht. Google hat über Jahre gelernt Links zu zählen, dann von der Qualität her positiv zu gewichten um die Abstufungen der positiven Rankingfaktoren zu verbessern. Damit wurde allen SEOs und Linkspammern die mit einfacher Automatisierung gearbeitet haben, schon viel Einhalt geboten. Das schlechte bzw. billig gemachte Links seit 2012 auch „negative Rankingfaktoren“ sein können, sollte nichts Neues sein und wir haben mit Link Detox nun im vierten Jahr sehr viele Daten und Erfahrungen gesammelt. Gerade mit „DTOXRISK AI“ bringen wir 2016 damit die nächste Innovation raus.
Die Annahme, dass Google diese Fähigkeit (Links zu bewerten) und den größten Linkgraphen „abschalten“ würde, nur weil Yandex mal versucht hat Links für ein paar Monate für ein paar Keywords und nur im Raum Moskau nicht zu zählen, ist absurd. Natürlich testen alle Suchmaschinen viele Möglichkeiten und Gewichtungen von Rankingfaktoren aus, genauso wie wir selbst in Impactana auch.
Aber das Web ist das Web wegen der Links – das kann als Suchmaschine man gar nicht einfach „abschalten“.
Gerade im deutschen Sprachraum ist Mitte 2015 für manche Unternehmen die falsche Entscheidung getroffen worden „Wir machen nichts mit Links, und schauen die deshalb auch nicht an“. Das ist nicht nur falsch sondern auch gefährlich, weil sich dadurch nicht nur Wettbewerbsnachteile ergeben, sondern eben jene Unternehmen besonders anfällig für negatives SEO werden, auch das billig gemachte. Wer erstmal sein Onpage reparieren will, kann das ja tun, aber das eigene Backlinkprofil sollte man dabei immer im Auge behalten.
Kein billiges Linkbuilding mehr zu machen ist eine Empfehlung, die ich schon 2005 ausgesprochen habe und die gilt bis heute. Sein Linkprofil verwahrlosen lassen und von Konkurrenten zuspammen zu lassen, ist gefährlich. Hier sehe ich sehr viel Handlungsbedarf in Deutschland. International gibt es dieses Phänomen gar nicht.
Erst im März 2016 hab ich in einem Test mit nur einem Link eine Domain für ein Keyword auf Platz eins gebracht - und das in sechs Stunden. Jeden, der die Wirkung von Links auf Basis ein paar guter Vorträge und der „SEO-Mainstream-Presse“ anzweifelt, empfehle ich, mal wieder selbst ein paar SEO-Experimente (SEO-Tests) durchzuführen.
Google bestätigt auch immer wieder deutlich und zuletzt im März 2016, dass Links der wichtigste Rankingfaktor sind und bleiben.
Natürlich verhalten sich Branchen und darin auch noch verschiedene Keywordgruppen oder Unterbranchen sehr unterschiedlich. Das ist nichts Neues und analysieren wir im LRT mit dem Competitive Landscape Analyzer seit 2011 sehr ausführlich – die Branche „Finanzen“ z.B. umfasst „Lebensversicherungen“, „Bausparverträge“ genauso wie „Kredite ohne Schufa“ Rankings und diese können nicht über einen Kamm geschoren werden – weder vom Business noch vom SEO her.
Conclusio: Links, Content, User-Experience und Technik rundherum – das war und bleibt SEO. Wer sein Linkprofil vernachlässigt, muss sich dann nicht wundern, wenn die Konkurrenten besser ranken.
Brian Dean
![]() |
|
---|---|
Unternehmen | Backlinko |
Position | Founder |
Spezialgebiet | Content-Marketing |
SEO seit | 2008 |
Website | backlinko.com |
Brian Dean |
Für mich wird sich die Zukunft der Suchmaschinenoptimierung nicht wirklich verändern. Heutzutage – dank Googles bestem Algorithmus aller Zeiten – dreht sich SEO um die Kreation und Promotion von außergewöhnlichen Inhalten rund um die Keywords, die Kunden suchen… Warum sollte dies in 2020 anders sein? Da glaube ich nicht dran. Was sich jedoch SICHER ändern wird, ist das, was Google als herausragenden Content einstuft.
Original: “I don't see SEO of the future as fundamentally different than SEO today. Today, thanks to Google's better-than-ever algorithm, SEO is all about creating outstanding content around keywords that customers search for...and promoting that content. Why would that change in 2020? It won't. What WILL change is what Google uses to determine what outstanding content is.”
Peter Dobler
![]() |
|
---|---|
Unternehmen | Sky Deutschland Fernsehen GmbH & Co KG |
Position | Conversion Manager SEO |
Spezialgebiet | Allrounder |
SEO seit | 2010 |
@seocorn | |
Peter Dobler |
Ich denke, dass Google versuchen wird, immer mehr zur Black Box zu werden. Mit RankBrain ist hier bereits ein Anfang gemacht. Durch Machine-Learning werden Nutzer-Signale automatisiert in die Berechnung der Rankings einbezogen. Hier wird sich wieder zeigen: Inhalte sollen für den Nutzer erstellt werden. Der Nutzer soll die bestmögliche Erfahrung mit der Webseite bzw. dem Suchergebnis machen, er soll dort die Antwort auf seine Frage erhalten und seine Suchintention soll befriedigt werden. Ist auf Position #1 ein qualitativ schlechtes Ergebnis, kommt es zu schlechter User Experience, bounced der Nutzer, so wird sich das weiter stark negativ auf das Ranking auswirken.
Das User Engagement wird noch weiter in den Fokus rücken. Es reicht nicht mehr bloß den Traffic zu erhalten, das reichte an sich noch nie wirklich aus. Die Nutzer müssen aktiv auf der Seite sein, bleiben, lesen, scrollen, klicken, etwas ausfüllen, beantworten etc. Ein hohes Engagement steigert die Popularität der Seite. Social-Shares spielen dabei eine Rolle.
Weiterhin gehe ich davon aus, dass Links an Bedeutung verlieren werden - zumindest die schlechten, gekauften Links. Echte Links, die auch echten Traffic bringen, behalten auch weiterhin ihre Bedeutung - so wie es für den User auch sein sollte. Findet er auf der verlinkten Seite Mehrwert, dann ist das auch ein positives Signal für Google. Und Google kann auch registrieren, ob Links echt sind und geklickt werden: Durch Google Analytics, Google Search Console und nicht zuletzt durch Chrome.
Man wird sich auch mehr davon trennen müssen, alle Rankings genau im Auge zu haben. Durch individuelle Suchergebnisse, Präferenzen, Interessen, vorangegangene Suchanfragen etc. – all das weiß Google über seine Nutzer und die SERPs werden dementsprechend ausgespielt. Das zeigt sich bei der lokalen Suche und zieht sich hin zu den Unterschieden zwischen Mobile vs. zu Hause.
Was wir als SEOs tun können, sind besonders zwei Dinge:
- Technische Brillanz: Der Bot muss eine technisch gute Seite vorfinden. Ich sage bewusst gute und nicht sehr gute Seite, denn gewisse Fehler müssen auch weiterhin toleriert werden! Eine optimale Crawlability muss gegeben sein, das Crawl-Budget muss im Auge behalten werden, Inhalte müssen lesbar für den Bot gestaltet sein und eine gute Struktur bieten. Denn der Google Bot ist und bleibt eine Maschine – selbst wenn er dazu lernt.
- Weiterhin ist natürlich der PageSpeed zu erwähnen. Mit AMP für Mobile will Google hier Standards setzen. Aber auch normale Desktop-Versionen müssen einfach schnell laden. Nicht nur, weil Google das bevorzugt (Crawlability), nein auch weil der User das bevorzugt. Die Internetverbindungen werden immer schneller, auch am Handy, die Menschen haben immer weniger Zeit. Weshalb also sollte ein User auf eine langsame Webseite warten, wenn er die Information auf einer anderen, schnellen Seite finden kann. Lädt eine Webseite länger als 3-5 Sekunden höre ich oft: „Die Seite geht nicht…” - doch sie geht schon, dauert eben nur etwas.
SEO wird weiter kämpfen müssen. Keine Frage, es wird nicht einfacher - gerade mit den bezahlten Suchergebnissen. Allerdings bleiben SEOs weiterhin super relevant, denn wir vereinen unterschiedliche Disziplinen und haben meist mehrere Blickwinkel im Hinterkopf: Nutzer, Google, technische Faktoren, Content, Usability, Wettbewerber, Tracking …
Saša Ebach
![]() |
|
---|---|
Unternehmen | Content-Marketing-Magazin |
Position | Chefredakteur |
Spezialgebiet | Content und Links |
SEO seit | 2001 |
Website | contentmarketingmagazin.de |
Saša Ebach |
Für mich persönlich hat SEO schon sehr lange nichts mehr mit dem „Austricksen“ von Google zu tun. Es geht darum herauszufinden, wie man im Rahmen der Regeln gewinnt. Nur so hat man auch langfristig etwas von guten Rankings. Nach oben kommen, ist Silber. Oben bleiben, ist Gold.
- Inhouse-SEOs sitzen vor allem in Meetings, müssen interdisziplinäre Entscheidungen mittragen und immer wieder die eigene Relevanz unter Beweis stellen. Das erfordert vor allem Kommunikations-Knowhow. Das ist viel schwieriger als das Thema Rankingfaktoren.
- Projekt-SEOs müssen immer mehr auf alle Faktoren gleichzeitig achten. Es reicht nicht mehr, einfach nur günstigen Text einzukaufen und das Projekt mit billigen Links zu befeuern. Inhalte und Links müssen stimmen und zueinander passen.
- Agentur-SEOs müssen Ihre Produkte und Leistungen immer mehr an die Google-Richtlinien anpassen. Die größten Mankos sind hier immer noch die Qualität der Inhalte und die Legitimität der Verlinkungen. Inhalte müssen echte Mehrwerte für das Publikum schaffen, nützlich sein und begeistern. Links müssen als Brücke zwischen redaktionellen Inhalten dienen.
Auf der Hand liegt natürlich noch der Trend Mobilgeräte. In Zukunft wird er eine immer größere Rolle spielen. Wer es noch nicht gemacht hat, sollte sich schleunigst mit dem Thema „Responsive“ auseinandersetzen.
Dann ist da noch das Machine-Learning. Je mehr Google sich darauf verlässt, desto weniger verstehen die Algorithmus-Entwickler selbst, was da in ihrem RankBrain abläuft. Es ist ja gerade eine Charakteristik des Maschine-Learnings, dass es sich aus einem Datenpool selbst etwas beibringt. Google züchtet eine Art Armee von schwarzen Boxen. Meine Vermutung hierzu: Selbst die Google-Entwickler können bei Verwendung von RankBrain nicht mehr genau sagen, warum eine Seite auf Position 1 ist. Das kann nur noch die Maschine. Als außenstehende SEOs da einen Einblick zu finden, wenn die internen Leute bei Google ihn nicht haben, scheint mir auch in Zukunft sehr unrealistisch zu sein. Wir SEOs können uns da nur auf die Basics konzentrieren. Die Maschinen entscheiden dann über unsere Zukunft.
Florian Fischer
![]() |
|
---|---|
Unternehmen | Home Shopping Europe GmbH |
Position | Inhouse-SEO |
Spezialgebiet | Allrounder |
SEO seit | 2008 |
Website | hse24.de |
Florian Fischer |
Backlinks sind und waren aus meiner Sicht schon immer wichtig für das Ranking einer Webseite. Unabhängig davon, ob das jetzt kürzlich von Andrey Lipattsev bestätigt wurde. Was bringen mir aber Backlinks von starken relevanten Seiten, wenn ich meine Hausaufgaben bei meiner Seite nicht gemacht habe?
Wer verlinkt denn freiwillig auf eine schlecht strukturierte Seite, bei der auch nur mittelwertige Informationen vorhanden sind?
Keiner! Nur derjenige, der dafür Geld erhält. Echte, nicht bezahlte Backlinks, wird es mit einer schlecht strukturierten Seite, mit minderwertigen Informationen, nur wenige geben.
Bevor man sich also mit dem Generieren von hochwertigen Backlinks beschäftigt, sollte man erst mal die Seite, die verlinkt werden soll, so gut wie möglich optimieren. Damit ist jetzt aber nicht gemeint, dass es ausreicht Titles & Descriptions etwas anzupassen und das Keyword mindestens 8 Mal in den Kategorietext unterzubringen. Auf lange Sicht wird man mit diesen Optimierungen nicht viel erreichen.
Technisches SEO kombiniert mit einem guten Strategen in Verbindung mit Offpage-Maßnahmen, ist aus meiner Sicht die Zukunft. Eine Website, die sich durch eine gute Seitenarchitektur und hochwertige Inhalte auszeichnet, bei der der Google-Crawler nur die Seiten zu Gesicht bekommt, die er auch wirklich sehen und indexieren soll (Stichwort Crawl-Budget), wird auf lange Sicht alle Seiten überleben, die mit irgendwelchen fragwürdigen Tricks arbeiten. SEOs müssen technisch noch versierter werden, um in einem großen Unternehmen gehört zu werden. Bei sehr technischen Dingen macht auf jeden Fall die Unterstützung durch eine entsprechende SEO-Agentur Sinn.
Den Fokus auf bestimmte generische Keywords zu legen, nur weil diese ein hohes Suchvolumen haben, macht auch keinen Sinn mehr. Wichtig ist es, Fragen zu beantworten und einen Themenbereich mit den besten Informationen abzudecken. Rankings und Backlinks kommen dann erfahrungsgemäß von alleine.
Ich persönlich habe mich mit Rankbrain, Machine-Learning oder AMP noch nicht wirklich intensiv beschäftigt. Warum? Wir haben eben auch noch einige Hausaufgaben zu erledigen, bevor wir uns mit „Advanced-Themen“ beschäftigen können.
Michael Göpfert
![]() |
|
---|---|
Unternehmen | SportScheck GmbH |
Position | Senior SEO Manager |
Spezialgebiet | OnPage SEO |
SEO seit | 2009 |
Website | Blog |
Michael Göpfert |
Flexibilität und Anpassungsfähigkeit, diese Eigenschaften werden für SEOs in Zukunft noch wichtiger werden. Denn auch Google steht vor der Herausforderung sein Geschäftsmodell zukunftsfähig zu machen und das Abwandern der User in Systeme auf die Google keinen Zugriff hat zu verhindern. Schon jetzt geht dies häufig zu Lasten der organischen Suchergebnisse. Auf der anderen Seite öffnen sich jedoch für Suchmaschinenoptimierer viele neue Türen, als Beispiele seien hier nur App Store Optimization, Amazon SEO und das Thema App-Indexierung genannt.
Um adäquat auf diese Entwicklungen reagieren zu können, muss man jedoch in Lage sein die unterschiedlichen Anforderungen mit seinen Systemen bedienen zu können. Dazu wird es viel technisches Knowhow benötigen, denn auch die Webtechnologien entwickeln sich rasant weiter und Webseiten werden immer dynamischer und komplexer. Hier eine optimale Crawl- und Indexierbarkeit zu gewährleisten, stellt viele bereits heute vor große Herausforderungen. Der moderne SEO wird in Zukunft also noch mehr als Moderator und Schnittstelle zwischen Suchmaschine und IT gefragt sein.
Abseits des technischen SEO wird Google alles daran setzen, Manipulationen an den Rankings weiter zu erschweren. Durch RankBrain ist Google mittlerweile in der Lage einzelne Faktoren abhängig von der Suchanfrage unterschiedlich zu gewichten. Die Definition einzelner Ranking-Signale wird dadurch weiter erschwert. Umso wichtiger wird es für Suchmaschinenoptimierer seine Zielgruppen zu kennen, um die Suchintentionen bestmöglich interpretieren und bedienen zu können.
Dennis Ommer
![]() |
|
---|---|
Unternehmen | REWE digital |
Position | Digital Marketing Manager |
Spezialgebiet | Technisches SEO |
SEO seit | 2008 |
Website | dennisommer.de |
XING / Twitter | Dennis Ommer / @DennisOmmer |
Die Disziplin SEO unterliegt einem ständigen Wandel und kontinuierlichen Veränderungen. Jedoch gibt es einen entscheidenden und für das Ranking von Seiten besonders wichtigen Kern der Thematik, an dem sich über die Jahre nicht viel verändert hat - und sich meiner Meinung nach auch nicht viel ändern kann.
Das Ranking in den Google Suchergebissen resultiert aus einer Kombination verschiedener Faktoren, die sich heute genau wie damals in Onpage- und Offpage-Faktoren einteilen lassen. Die Onpage-Faktoren müssen passen, damit die Offpage-Maßnahmen die gewünschte Wirkung entfalten und sich positiv auf das Ranking der Seite auswirken. Konzentriert man sich nur auf eine der beiden Gruppen von Einflussfaktoren, erzielt man vorrausichtlich ein unterdurchschnittliches Gesamtergebnis.
Was sich im Laufe der Zeit an dieser Systematik geändert hat, ist lediglich der Wandel von Quantität zu Qualität und von Bot zur Nutzerorientierung. Während es früher geholfen hat 1.000 Links von irgendwelchen Seiten aufzubauen, hilft es heute wahrscheinlich eher einen Link aufzubauen der thematisch passt und einen Mehrwert für den Nutzer mit sich bringt (Contentqualität).
Nutzer die über einen solchen Link auf die Webseite gelangen werden dort vermutlich finden, was sie gesucht haben und länger verweilen, womit wir auch zu dem für mich springendem Punkt im Bereich SEO kommen: User-Signals. Positive Signale, die Nutzer einer Webseite an Google senden, stellen für mich den derzeit bedeutendsten Ranking-Faktor dar. Diese erzielt man einzig und allein durch hochwertige Inhalte und eine genaue Analyse der Suchintention.
Deswegen entwickelt sich die Disziplin SEO eindeutig hin in Richtung User-Experience-Optimierung und damit zu einer Art qualitätssichernden Instanz in der Online-Welt.
Sascha M. Otto
![]() |
|
---|---|
Unternehmen | PETS DELI Roseneck GmbH |
Position | Senior SEO Manager |
Spezialgebiet | Strategieentwicklung |
SEO seit | 2010 |
Website | www.petsdeli.de |
Sascha M. Otto |
Ich denke SEO wird sich noch stärker als Disziplin der Marketingkommunikation verstehen müssen. Die Arbeit eines guten SEOs beginnt meiner Ansicht nach mit einer Zielgruppen-Analyse, einer Wettbewerbsstrategie und einer vernünftigen Konzeption. Dabei sollte man das eigene Angebot und die eigenen USPs im Blick haben.
Es macht wenig Sinn für Inhalte in den SERPs präsent zu sein, die keinen oder nur einen geringen Mehrwert für den User haben.
Google hat sich diesbezüglich im Grunde auch wenig verändert – lediglich der Algorithmus hat sich verbessert. Ein passendes Angebot für die Zielgruppe wurde schon immer mit guten Usersignalen belohnt. Diese Signale fließen nun stärker in Googles Bewertung hinein. SEOs sollten deshalb immer auch einen Teil ihrer Zeit in der Webanalyse verbringen. Metriken wie Bouncerate, Nutzerinteraktion und Verweildauer können bei regelmäßigen Analysen und Handlungsableitungen dabei helfen das eigene Angebot zu verbessern.
Natürlich hilft die beste Marketingstrategie recht wenig wenn man nicht seine Hausaufgaben gemacht hat. Technische „Hygiene“ der eigenen Domain ist eine Grundvoraussetzung für Crawling und Indexierung. Ein Fokus sollte auch in 2016 beispielsweise auf dem eigenen URL-Handling und Indexierungsmanagement liegen. Als SEO gehört es zum daily business sich mit Fragen zu beschäftigen wie: Welche Inhalte sind erreichbar? Welche Inhalte gehören in den Index? Wie nutze ich das Crawlingbudget von Google & Co. am effizientesten aus?
SEO hat viele Berührungspunkte mit anderen Marketingdisziplinen. Für die Zukunft wird es noch wichtiger werden die Synergien zwischen den verschiedenen Teilbereichen richtig auszuspielen. Ein ganzheitliches Vorgehen wird stets eine positive Bewertung in Googles Rankingfaktoren mit sich bringen.
Thomas Rittsche
![]() |
|
---|---|
Unternehmen | Unitedprint SE |
Position | Head of Online Marketing |
Spezialgebiet | Allrounder |
SEO seit | 2008 |
Website | print24.com |
Thomas Rittsche |
Die Suchmaschinenoptimierung wird auch in den nächsten Jahren nicht an Bedeutung verlieren, wird sich aber immer wieder neuen Anforderungen stellen müssen.
Links haben meiner Meinung nach als Rankingfaktor etwas an Bedeutung verloren, qualitative Inhalte und positive Usersignale sind wichtiger geworden. Diesen Anforderungen gilt es beispielsweise aktuell gerecht zu werden.
Auch als technische Berater sind SEOs zukünftig gefragte Spezialisten. Gerade große Domains mit vielen Seiten und internationaler Ausrichtung haben oft technische Defizite in Hinsicht Crawlability, Indexability und interner Verlinkung, für deren Optimierung es Spezialisten braucht, da das entsprechende Fachwissen in den IT-Abteilungen der Unternehmen selten vorhanden ist.
Stefanie Senn
![]() |
|
---|---|
Unternehmen | Chefkoch GmbH |
Position | Inhouse-SEO |
Spezialgebiet | App SEO und Social SEO |
SEO seit | 2012 |
Website | senn-seo.de |
Stefanie Senn |
In unserer täglichen Arbeit wird es immer schwieriger Entwicklungen, Trends oder Dips auf ein ursächliches Ereignis zurückzuführen, egal ob es ich um die täglichen Core-Updates von Google oder innerbetriebliche Prozesse der verschiedenen Abteilungen handelt. Mit Machine-Learning und RankBrain nimmt die Komplexität weiter zu, während gleichzeitig Google Ranking-Faktoren und deren Wechselwirkung an Bedeutung für die Optimierung von Websites verlieren.
Neben täglichen Real-Time-Algorithmus-Änderungen sind die Anforderungen auch plattformübergreifend gestiegen. So konzentrieren wir uns nicht mehr ausschließlich auf das stationäre Web, sondern zunehmend auch auf das mobile Web und die Apps. Ursache hierfür sind die steigende Nutzung mobiler Devices und die App Store spezifischen Ranking-Faktoren der Apps.
Unabdingbar und immer wichtiger werden das zentral koordinierte und nachgehaltene Tracking und Reporting der getätigten Aufgaben und Optimierungsmaßnahmen – sowohl im stationären Web wie auch auf den mobilen Seiten und in den Apps. Deshalb stehen wir Suchmaschinenoptimierer hier vor einer neuen Herausforderung. Denn geeignete Analysemethoden werden in Zukunft noch wichtiger und komplexer und zählen mehr denn je zu den erforderlichen Skills eines SEOs.
Alle genannten Entwicklungen erschweren die tägliche Arbeit und machen die „klassische“ Suchmaschinenoptimierung im Hinblick auf die Google Ranking-Faktoren zunehmend komplexer. Ein SEO muss auf Entwicklungen und Trends reagieren können und betreibt inzwischen oft mehr eine Art Risikomanagement, anstatt gezielt aufgrund der Ranking-Faktoren zu optimieren. Auf diese entsprechend reagieren zu können, wird aufgrund der genannten Entwicklungen immer schwerer fassbar für uns. Der bedeutendere Part liegt in Folge dessen bei Themen wie Nutzerzufriedenheit, Bedürfnisbefriedigung der User sowie Engagement-Optimierung. Das ist in meinen Augen der wichtigste Aspekt und Kern unserer zukünftigen Arbeit.
Die Meta-Studie
Diese Meta-Studie führt die interessantesten Informationen aus den weltweit besten Ressourcen zum Thema Google-Ranking-Faktoren zusammen.
Für Einsteiger in den Bereich haben wir jeden Faktor um eine subjektive Bewertung und unsere eigenen Erfahrungen in Form von Einschätzungen, Hinweisen und Tipps ergänzt.
Unsere Hauptquellen
GOOGLE-EIS | Googles „Einführung in Suchmaschinenoptimierung“ |
GOOGLE-SQRG | Search Quality Rating Guidelines 2015 |
SISTRIX | Seo Basics: Google Rankingfaktoren 2016 |
MOZ-CORRELATION-2015 | Ranking Correlation Study 2015 - Moz |
MOZ-SURVEY-2015 | Ranking Factors Expert Survey - Moz |
SEARCHMETRICS-2015 | Searchmetrics Ranking-Faktoren-Studie 2015 (PDF gegen Registrierung) |
BACKLINKO-GRF | Google Ranking Factors: The Complete List |
BACKLINKO-MIO | We Analyzed 1 Million Google Search Results. Here’s What We Learned About SEO |
Alle Ergebnisse dieser Studien sind gründlich aufgearbeitet, zusammengefasst und jeweils zitiert. Die gelisteten Faktoren sind, wo angebracht, mit den Hauptquellen abgeglichen. Englische Quellen haben wir meistens frei übersetzt. Zahlen haben wir in Wörter übersetzt, zum Beispiel ist eine hohe Bewertung „wichtig“, falls es eine mittleren Wert geht oder „extrem wichtig“, falls es um einen der höchsten Werte geht. Umgekehrt „schädlich“ bis „extrem schädlich“ bei Negativfaktoren.
Als Basis für die Liste und die Kategorien der Faktoren hat uns in erster Linie BACKLINKO-GRF gedient. Viele der gelisteten Faktoren waren unserer Ansicht nach ein wenig „bei den Haaren herbeigezogen“. Dies ist wahrscheinlich dem Umstand geschuldet, dass der Beitrag versucht unbedingt über 200 Faktoren zu listen. Es ist aber dennoch eine exzellente Liste.
Unser Ziel bei der Auswertung und Zusammenfassung all dieser Quellen ist, ein Dokument zu schaffen, welches je Faktor die jeweils wichtigsten Quellen und Aussagen zusammenfasst, aber dennoch für einen Einsteiger in die wundervolle Welt der Google-Rankings übersichtlich und verständlich bleibt.
Unser Dank geht an alle Bereitsteller dieser Informationen, in die jeweils eine Menge Zeit und Aufwand investiert wurde.
Statistiken, Korrelationen und „Erfahrungswerte“
Nur Google weiß, wie der Algorithmus wirklich funktioniert. Behalten Sie dies immer im Hinterkopf, wenn Sie über Ranking-Faktoren lesen. Es besteht zwar eine gewisse – vielleicht sogar eine gute – Wahrscheinlichkeit, dass viele der gelisteten Faktoren tatsächlich eine Auswirkung haben, nur wirklich wissen tut das niemand.
Gerade wenn es um Korrelationen geht, ist größte Vorsicht geboten. Die meisten Untersuchungen verlassen sich auf diese Korrelationen, um Aussagen über Rankingfaktoren zu machen. Hier ein Beispiel:
Wenn eine Website viele Likes auf Facebook hat, dann korreliert das zu einer gewissen Wahrscheinlichkeit mit besseren Rankings.
Problem: Korrelation beschreibt keine Ursache-Wirkungs-Beziehung, sie ist keine Kausalität. Im Beispiel: Es ist nicht mit Gewissheit bestimmbar, dass tatsächlich die Likes auf Facebook die besseren Rankings verursacht haben. Vielleicht bedeuten viele Fans und Shares auf Facebook, dass es mehr Menschen gibt, die über unsere Website berichten bzw. sie verlinken und das könnte der Grund für die besseren Rankings sein. Oder vielleicht sind die vielen Likes nur ein Nebeneffekt. Vielleicht haben die guten Rankings sogar die vielen Likes bewirkt. Keiner kann es mit Sicherheit sagen. Außer Google natürlich.
Wer schon eine Weile selbst SEO betreibt, der sammelt sie: Erfahrungswerte. Sie runden unser Repertoire ab. Zum Beispiel ist einer der Erfahrungswerte bei seo2b, dass seit 2012 (Pinguin-Update April 2012) wenige Links von hoher Qualität effektiver sind als viele Links von mittlerer oder niedriger Qualität. Gespräche mit Branchenkollegen bestätigen das. Allerdings gibt es immer noch viele Marktbegleiter, die heutzutage im Linkaufbau so arbeiten, als wäre es noch Anfang 2012. Das merken wir vor allem in unseren Kundengesprächen, in denen wir immer noch sehr viel aufklären müssen.
Insgesamt halten wir fest: Es gibt aufgrund Googles Hoheit schlichtweg keine bessere Methoden. Neben den wenigen Hinweisen, die uns Google selbst an die Hand gibt, sind wir auf Statistiken, Korrelationen und „Erfahrungswerte“ als Methoden angewiesen, um wenigstens ein bisschen Licht ins Dunkel zu bringen. Wir zitieren hier den SEO-Experten Hanns Kronenberg bei SISTRIX, der schreibt: „SEO ist keine exakte Wissenschaft“. Also bleiben Sie stets skeptisch und testen Sie immer selbst, was am besten bei Ihnen funktioniert!
Bewertungen
Wir wollten nicht nur eine Liste mit Rankingfaktoren veröffentlichen, sondern diese auch mit einem einfachen und subjektiven Bewertungssystem ergänzen. Die Bedeutung unseres 5-Sterne-Systems ist wie folgt:
Mythos: Hat keinerlei Relevanz für das Ranking. Es kann allerdings trotzdem sinnvoll sein, die Technik zu verwenden, falls Ihre Besucher davon profitieren. | |
Ist nur von sehr geringer Bedeutung. Wer nicht auf diese Faktoren achtet, macht in den meisten Fällen nichts falsch. Ausnahmen können die Regel bestätigen. | |
Leichter Einfluss auf das Ranking. Diese Faktoren scheinen halbwegs plausibel. In vielen Fällen kann man sie aber auch missachten. | |
Mittlerer Einfluss auf das Ranking. Diese Faktoren sollten Sie berücksichtigen. Wer sie in großer Menge ignoriert, könnte Probleme bekommen. | |
Hoher Einfluss auf das Ranking. Diese Faktoren muss die eigene SEO-Strategie unbedingt berücksichtigen. Wer schon einzelne solcher Faktoren nicht berücksichtigt, verbaut sich mit großer Wahrscheinlichkeit langfristig erfolgreiche Rankings. | |
Sehr hoher Einfluss auf das Ranking. Ohne diese Faktoren zu beherzigen, gibt es auch keine guten Rankings. Fertig! |
Mit diesem Bewertungssystem wollen wir Einsteigern dabei helfen, sich auf die – unserer Meinung nach – wichtigen Punkte zu konzentrieren. Es gilt hier zu berücksichtigen, dass jedes Projekt andere Voraussetzungen und Anforderungen für gute Rankings mitbringt. Daher kann es natürlich sein, dass auch wichtige Faktoren an Bedeutung verlieren. Ein Beispiel: Einer renommierten Zeitung mit einer langen Domain-Historie und vielen Links (zum Beispiel spiegel.de) ist der Aufbau von guten Links (5 Sterne) nicht so wichtig, wie für einen gerade neu gestarteten Onlineshop.
Nur weil ein Ranking-Faktor vielleicht eine 1/5 oder 2/5 von uns erhält, heißt das nicht, dass er völlig unwichtig ist. In bestimmten Situation kann er relevant sein. Googles Einführung in der Suchmaschinenoptimierung bringt es schön auf den Punkt:
„Suchmaschinenoptimierung macht es oft notwendig, kleine Änderungen auf Teilen der Website durchzuführen. Wenn man diese Änderungen jeweils für sich allein betrachtet, mögen sie nur wie kleine Verbesserungen wirken, aber wenn sie mit den anderen Optimierungsmaßnahmen kombiniert werden, können sie eine deutliche Wirkung auf Nutzer eurer Site und das Abschneiden in der organischen Suche haben.“
Ranking-Faktoren 2016
Der ehemalige Chef des Web Spam-Teams Matt Cutts, der jahrelang für Webmaster das einzige Sprachrohr Googles war, bringt es in einem seiner vielen Youtube-Videos auf den Punkt:
„The fact is, it’s mostly the quality of your content and the sort of links that you get as a result of the quality of your content that determine how well you’re going to rank in the search engines.“
Auf Deutsch
„Fakt ist, es ist hauptsächlich die Qualität Ihrer Inhalte und die Typen von Links, die Sie als Folge der Qualität Ihrer Inhalte enthalten, die bestimmen wie gut Sie in den Suchmaschinen ranken werden.“
In einem Google-Hangout vom März 2016 (Google Q&A+ #March) bestätigt Andrey Lipattsev, Search Quality Senior Strategist bei Google (Irland), dass die beiden wichtigsten Faktoren zur Berechnung der Rankings, zu gleichen Anteilen Content und Links sind. Danach erst käme das RankBrain. Auf die Frage nach der Reihenfolge, also ob jetzt Content oder Links wichtiger wären, antwortet er, dass es keine Reihenfolge gäbe. Content und Links seien gleich wichtig.
Diese Aussagen vorausgesetzt, sollte klar sein, dass viele der Faktoren aus dieser Meta-Studie, die nichts mit Content und/oder Links zu tun haben, keine sonderlich hohe Relevanz für das Ranking haben. Das muss jedoch auch nicht bedeuten, dass sie nicht trotzdem optimiert werden sollten. Denn grundsätzlich gilt auch: Was für den Nutzer gut ist, dass findet auch Google gut.

Domainfaktoren
In diesem Abschnitt stellen wir Faktoren vor, die sich auf die gesamte Website bzw. Domain auswirken.
Domain-Historie
Je mehr positive Signale eine Domain im Laufe der Zeit sendet, desto besser ist das für ihre Vertrauenswürdigkeit. Die wichtigen Fragen sind hier:
- Wann hat Google die Domain zuerst entdeckt?
- Wann wurde die Domain zuerst in einem Dokument erwähnt oder verlinkt?
- Wie aktiv oder inaktiv ist/war die Domain?
- Wann erreicht die Domain zuerst eine gewisse Anzahl an Seiten?
- Welches Linkwachstum hat in welchem Zeitraum stattgefunden?
Die Faktoren innerhalb der Domain-Historie sind aufgrund der Aussagen Googles und dem zugrunde liegenden Patent sehr wahrscheinlich plausibel. Dabei spielt jeder einzelne Faktor für sich betrachtet eine untergeordnete Rolle. Es kommt auf den richtigen Mix an.
seo2b-Erfahrungen
Insgesamt halten wir die Faktoren der Domain-Historie für herausragend wichtig, denn eine negative Historie kann dazu führen, dass es fast unmöglich wird, eine Domain in den Rankings wiederzubeleben. Google hat ein langes Gedächtnis und riskante Manöver können dazu führen, dass eine Domain völlig unbrauchbar wird.
Umgekehrt belohnt Google einen sauberen und kontinuierlichen Aufbau von Inhalten und Links. Erfahrungswerte zeigen, dass – bei richtiger Pflege – eine Domain im Laufe der Zeit immer stärker wirkt und besser rankt.
Aus Sicht der Informatik lässt sich ebenfalls vermuten, dass jegliche historische Faktoren, die Google über einen Zeitraum aufzeichnet und auswertet, auch in starkem Zusammenhang mit „Rankbrain“ stehen. Rankbrain ist bei Google der Begriff für einen Teil des Algorithmus’, der mittels künstlicher Intelligenz (KI) Ergebnisse sortiert und berechnet. Diese KI wertet gewisse Daten über einen Zeitraum aus und stellt die Ergebnisse für verschiedene Domains in Relation. So kann es zum Beispiel sein, dass eine neuere Seite (B) mit weniger Links besser rankt, als eine ältere Seite (A) mit mehr Links, wenn die Rate der Verlinkung auf der neueren Seite (B) in einem gewissen Zeitraum höher ist, als die von Seite (A).
Lohnt es sich zum Beispiel von einer zwei Jahre alten auf eine zehn Jahre alte Domain umzusteigen? Auch dann, wenn diese zwei Jahre alte Domain aktuell sehr gute Ergebnisse erzielt? Wir raten in den meisten Fällen davon ab. Es ist zu riskant. Handelt es sich um ein ganz neues Projekt? Dann kann es nicht schaden, nach einer älteren Domain Ausschau zu halten. Hier gilt es allerdings zu bedenken, dass ältere Domains in ihrer Historie auch negative Signale enthalten können. Es ist also auch immer zugleich ein Risiko, auf eine ältere Domain zu setzen.
Wir vermuten basierend auf Matt Cutts’ Aussagen, dass es in meisten Fällen ausreicht, eine Domain zwei bis drei Monate lang reifen zu lassen. Danach sollte sie dazu in der Lage sein, auch mit älteren Domains mitzuhalten. Es kommt alles darauf an, was in und nach diesen zwei bis drei Monaten passiert.
Weitere Quellen und Nachweise
- How does Google determine domain age, and is it important for ranking?
- Information retrieval based on historical data
- FAQ: All About The New Google RankBrain Algorithm
- Updating Google’s Historical Data Patent, Part 1 – Freshness
Alter der Domain
Je älter eine Domain, desto besser. So die Theorie. Um das Domainalter zu bestimmen, wird jedoch nur der Registrierungszeitpunkt herangezogen. Googles Matt Cutts sagte bisher dazu: „Der Unterschied zwischen einer Domain, die sechs Monate und einer, die ein Jahr alt ist, ist überhaupt nicht groß.“
MOZ-CORRELATION-2015 | Es gibt eine kleine Korrelation zwischen dem Zeitpunkt der Registrierung und besseren Rankings. | MOZ-SURVEY-2015 | Umfrageteilnehmer halten das Alter der Domains für wichtig. |
seo2b-Erfahrungen
Angenommen Domain A wurde 1995 registriert und Domain B erst 2015. Sollte Domain A den Vorzug erhalten, auch wenn Domain B zum Beispiel ein besserer Name ist? Unserer Meinung nach nur, falls alle anderen Faktoren vergleichbar sind. Beide Domains haben gleich viel Content, Links und eine vergleichbare Historie. Nur wegen des Domainalters zu wechseln, empfehlen wir jedenfalls nicht.
Weitere Quellen und Nachweise
- How does Google determine domain age, and is it important for ranking?
- Patent US 7346839 B2 Information retrieval based on historical data
Keyword in der Domain
Die Erfahrung zeigt, dass das Keyword in der Domain immer noch eine kleine Rolle spielen kann. Bekannte Beispiele für Domains mit extrem guter SEO-Performanz.
- Mit Keyword: notebooksbilliger.de
- Ohne Keyword: amazon.de
Der Onlineshop notebooksbilliger.de ist neben Amazon der größte Onlineshop für Computerware in Deutschland, nicht nur für Notebooks. Er hat allerdings auch Kategorien wie Haushaltswaren, Werkzeug & Garten oder LED-Beleuchtung. Das Beispiel macht deutlich, wie sehr eine Keyworddomain die zukünftige Markenwahrnehmung beeinflussen kann.

Auf der anderen Seite ist es so möglich eine Keyworddomain zum Markennamen zu erheben. Eine solche Assoziation ist mit einer Domain ohne Keywords nicht einfach oder sogar unmöglich. (Wer Gegenbeispiele kennt, kann sich gerne an uns wenden.)
Weiterhin sei es von leichtem Vorteil, falls die Keywords eher vorne als hinten in der Domain stehen.
Insgesamt ist die Verwendung von Keyword-Domains ein absteigender Trend.
SEARCHMETRICS-2015 | „Der Anteil von Keyword-Domains in den Suchergebnissen nimmt weiter kontinuierlich ab.” |
MOZ-SURVEY-2015 | Umfrageteilnehmer halten das Keyword in der Domain immer noch für (EMD) wichtig und weniger wichtig, falls das Keyword nur Teil des Namens ist. |
seo2b-Erfahrungen
Wie wahrscheinlich ist es, dass sich das Geschäftsmodell langfristig ändert und die Assoziation hinderlich wird? Ansonsten kann es nicht schaden, eine Keyworddomain zu betreiben oder beides zu berücksichtigen. Zum Schluss ist dieser Faktor ein schöner Bonus, aber keineswegs unbedingt notwendig, um gute Rankings für die jeweilige Keywordkombination zu erzielen. Da Keyworddomains in aller Regel nur noch mit viel Glück frei registrierbar sind, kommen unter Umständen zusätzliche Anschaffungskosten hinzu. Es ist also genau abzuwägen, ob sich das lohnt. Entscheidend ist es heutzutage nicht mehr.
Weitere Quellen und Nachweise
Keyword in der Subdomain
Sollten Seiten eher in Unterverzeichnissen oder auf Subdomains aufrufbar sein? Eine heiß diskutierte Debatte. Was ist besser?
- Unterverzeichnis: website.xy/keyword oder
- Subdomain: keyword.website.xy
Wenn es einen Rankingboost für das Keyword in der Subdomain geben sollte, dann ist dieser minimal.
SEARCHMETRICS-2015 | hat gemessen, dass es „deutlich mehr Verzeichnisse als Subdomains in den SERPs [gibt].“ |
MOZ-CORRELATION-2015 | Es gibt eine leichte Korrelation mit besseren Rankings, für das Keyword in der Subdomain. |
MOZ-SURVEY-2015 | Umfrageteilnehmer halten dies für wichtig, aber weniger wichtig, als das Keyword in der TLD. |
seo2b-Erfahrungen
Der Effekt von „Keyword in der Subdomain“ ist vergleichbar mit dem Faktor „Keyword in der Domain“. Beispielsweise betreibt Stepstone Subdomains mit Keywords für bestimmte Kategorien und erzielt damit gute Ergebnisse.

Im Beispiel ranken direkt zwei Seiten auf Platz 2 und 3. Vielleicht ist das eine Strategie, die man zum Beispiel an einer einzelnen Seite ausprobieren sollte. Wichtig dabei: Beide Seiten müssen unterschiedliche Inhalte liefern.
In der Praxis ist jedoch zu beachten, dass mehrere Subdomains auch entsprechend verwaltet und aktualisiert werden müssen.
Weitere Quellen und Nachweise
Länge der Domainregistrierung
Google bestätigt, dass es sinnvoll sein kann, die Registrierungsdauer zu berücksichtigen. Domains lassen sich viele Jahre im Voraus sichern. Eine längere Sicherung kann ein Zeichen von höherer Legitimität sein. Ein direktes Zitat aus dem Patent:
„Wertvolle (legitime) Domains werden oft mehrere Jahre im Voraus bezahlt, während Doorway-Domains (illegitime Domains) selten für mehr als ein Jahr gebraucht werden. Daher kann das Auslaufdatum einer Domain als ein Faktor dazu verwendet werden, die Legitimität einer Domain vorherzusagen.“
MOZ-CORRELATION-2015 | Es gibt eine sehr kleine Relation zwischen der verbleibenden Laufzeit der Domain und besseren Rankings. |
MOZ-SURVEY-2015 | Umfrageteilnehmer halten dies für weniger wichtig. |
seo2b-Erfahrungen
Die meisten Domainnamen sind doch recht günstig, was die Verlängerungsoptionen betrifft. Wer nicht gerade Dutzende oder mehr Domains betreibt, sollte schon alleine aus dem Sicherheitsgedanken heraus projektierte Domains für einen längeren Zeitraum registrieren. Schaden kann es jedenfalls nicht.
Weitere Quellen und Nachweise
Exact-Match-Domain
Eine Exact-Match-Domain (EMD) kann einen Vorteil verschaffen, wenn denn auch der Rest dieser Website richtig optimiert ist. Ein Beispiel für eine EMD: hotel.de. Allerdings hat Google in 2012 die Relevanz dieses Faktors für „EMDs von geringer Qualität“ reduziert.

MOZ-CORRELATION-2015 | findet eine leicht erhöhte Korrelation für Exact-Match-Domains, bei denen die Endung ebenfalls .com ist. |
seo2b-Erfahrungen
Wer eine EMD bekommen kann, der sollte sie wahrscheinlich immer noch nehmen. Bei korrekter Projektierung kann eine EMD immer noch gegen ansonsten stärkere Domains gewinnen. Ein Beispiel:

Weitere Quellen und Nachweise
- Systems and methods for detecting commercial queries US 8046350 B1
- Matt Cutts auf Twitter: “Minor weather report: small upcoming Google algo change will reduce low-quality ”exact-match“ domains in search results.”
- Deconstructing The Google EMD Update
Anonymisierte Domain-Registrierung
Wer seine privaten Daten bei der Domainregistrierung – zum Beispiel durch einen Dienst zur anonymen Registrierung – versteckt, könnte Gefahr laufen, dafür abgewertet zu werden. Hier ein Zitat von Googles Matt Cutts von 2006:
[…] Anonyme Registrierungen zu nutzen, ist nicht automatisch schlecht, allerdings könnte das in Verbindung mit anderen Faktoren den Verdacht erwecken, dass es sich hier um einen „anderen Typ“ von Webmaster handelt […]
seo2b-Erfahrungen
Registrieren Sie nur in Ausnahmefällen und mit gutem Grund anonym.
Länderspezifische Top-Level-Domains
Wie wichtig ist es, eine länderspezifische TLD wie zum Beispiel .de, .at oder .ch zu verwenden? Als alleinstehender Faktor ist dies nicht so wichtig. Apple verwendet zum Beispiel nur eine Hauptdomain (apple.com) und legt die jeweiligen Länder und Sprachversionen in Unterverzeichnisse (apple.com/de/ für Deutschland), siehe Choose your country or region - Apple.
SEARCHMETRICS-2015 | „Ein Rankingfaktor sind TLDs generell nicht.“ |
MOZ-CORRELATION-2015 | findet eine leicht erhöhte Korrelation für Exact-Match-Domains, bei denen die Endung ebenfalls .com ist. |
seo2b-Erfahrungen
Im obigen Beispiel würde Apple vielleicht minimal von einem Wechsel auf die .de-Domain profitieren. Dafür würde allerdings das bisher aufgebaute Linkprofil (Links aus Deutschland auf apple.com/de/) nicht mehr die internationale Domain stärken. Wer absehen kann, dass das eigene Angebot ausschließlich auf ein Land beschränkt bleibt und auch keine Vorteile in der Internationalisierung sieht, der kann es mit länderspezifischen Domains probieren. Ansonsten empfehlen wir in den meisten Fällen eine zentrale Domain aufzubauen.
Weitere Quellen und Nachweise

Onpage-Faktoren für die Seite
Onpage-Faktoren für die Seite beziehen sich immer und ausschließlich auf einzelne Seiten. Sie bewerten den Aufbau, den Text und die internen Links der jeweiligen Seite.
Seite von hoher Qualität
Google schreibt in GOOGLE-SQRG, dass eine Seite von hoher Qualität ist, wenn sie diese Kriterien erfüllt (frei übersetzt):
- Eine befriedigende Menge an Hauptinhalt (Main Content) zum angegebenen Thema.
- Die Inhalte sind fundiert, verlässlich und vertrauenswürdig.
- Die Website hat bezogen auf das Thema eine gute Reputation.
- Es gibt eine zufriedenstellende Anzahl von Informationen über den Website-Betreiber, zum Beispiel Über uns, Kontakt, Service-Informationen etc.
- Zusätzlich zu den Hauptinhalten enthält die Website unterstützende Nebeninhalte (Supplementary Content), die das Erlebnis der Besucher bereichern.
- Ein funktionstüchtiges Design, was einen problemlosen Konsum von Haupt- und Nebeninhalten ermöglicht.
- Eine gepflegte Gesamt-Website.
seo2b-Erfahrungen
Bei der Beurteilung einer einzelnen Seite legen Googles Quality-Rater einen unglaublichen hohen Standard an. Sie ziehen zur Qualitätsbeurteilung das Gesamterscheinungsbild heran. Es reicht also nicht nur eine gute Seite zu haben. Die gesamte Website muss passen! Außerdem überprüfen sie, was andere Websites über die vorliegende Seite UND den Anbieter zu sagen haben und nehmen dies mit in ihre Bewertung auf.
Zusatzinhalte, Tools und Multimedia
Google liebt es, wenn Sie Ihren Content um Zusatzinhalte, Tools und Multimedia bereichern. Dies geht klipp und klar aus den GOOGLE-SQRG hervor.
GOOGLE-SQRG | Eine Seite mit zusätzlichen Inhalten (Supplementary-Content) oder ergänzenden Multimedia-Inhalten wird durch Quality-Rater positiv bewertet. |
seo2b-Erfahrungen
Fügen Sie ihren Seiten zusätzliche Inhalte in Form von Vergleichstabellen, Rechnern, interaktiven Multimedia-Elementen etc. hinzu.
Weitere Quellen und Nachweise
Ein nutzerfreundliches Layout
Was genau ein nutzerfreundliches Layout ist, das geht ebenfalls aus GOOGLE-SQRG hervor. Wichtig dabei ist, dass die Hauptinhalte nicht hinter vielen unnützen Elementen, wie zum Beispiel Werbung verschwinden. Ein Nutzer muss schnell an die Hauptinformationen kommen. Auch wenn es vielleicht kein algorithmischer Faktor ist, so spielt er wenigstens für die Quality-Rater eine entscheidende Rolle:
- Der Hauptinhalt muss klar erkennbar sein und im Vordergrund stehen.
- Der Hauptinhalt ist das Erste, was der Besucher sieht.
- Das Design, der Aufbau, die Nutzung von Raum, die Fonts, die Fontgröße, der Hintergrund usw. machen es absolut klar, was der Hauptinhalt ist.
- Werbung und Nebeninhalte sollten nicht vom Hauptinhalt ablenken, aber dennoch gut erreichbar sein.
- Werbung ist klar gekennzeichnet.
seo2b-Erfahrungen
Ein gutes Layout ist Grundvoraussetzung für den optimalen Konsum von Inhalten. Hier lohnt es sich, langfristig zu investieren.
Nützliche Inhalte
Google möchte nützliche Suchergebnisse liefern. Nicht die „besten“. Google zieht also nützliche Inhalte guten Inhalten vor. Gute Inhalte von allumfassender Qualität könnten schlechter verständlich oder unübersichtlicher sein, als nützliche Inhalte. Google könnte diese nützlichen Inhalte auch dann vorziehen, wenn die guten Inhalte mehr Daten & Fakten korrekt und wahrheitsgemäß darstellen, aber nicht so zugänglich sind.

Google definiert in den GOOGLE-SQRG sogar eine Skala der Nützlichkeit für die eigenen Suchergebnisse. Quality-Rater verwenden diese, um eine Gesamtaussage über eine Suchergebnisseite zu machen. Sind die Ergebnisse bei einer bestimmten Suchanfrage nicht gut genug, kann Google entsprechende Seiten abwerten oder den Algorithmus anpassen.
seo2b-Erfahrungen
Sorgen Sie dafür, dass Ihre Inhalte sowohl nützlich als auch qualitativ hochwertig sind. Unter nützlich verstehen wir, dass vor allem komplexe oder sehr lange Inhalte für Leser mit wenig Zeit zusammengefasst werden. Denken Sie bei der Contentproduktion an alle möglichen Besucher, Leser und Lerntypen. Versuchen Sie den Nutzwert Ihrer Seiten zu maximieren. Jeder Besucher muss in der kürzest möglichen Zeit an seine Informationen kommen.
Bewertung
Latente-Semantische-Indexierung (LSI)
Es ist wahrscheinlich, dass Google die Methoden aus der Latenten-Semantischen-Analyse (LSA) oder eine damit vergleichbare Methode verwendet, um die eigenen Suchergebnisse zu optimieren. Die LSA ist eine Methode des Information-Retrievals (die Wissenschaft der Suchmaschinen), die Oberbegriffe bestimmen kann.

Google hat in anderen Dokumenten, in denen die Begriffe „Tier“ und „Miau“ oft vorkamen, mit Hilfe der LSA auch den Begriff „Katze“ oft gefunden. So kann es diese Ergebnisse anzeigen.
seo2b-Erfahrungen
LSI oder LSA sind Methoden, die die Suchmaschine einsetzt. Wie genau diese Methode im Zusammenhang mit der Suchmaschinenoptimierung zu verwenden ist, steht nicht wirklich fest. Es lässt sich aber schon behaupten, dass es hier hauptsächlich weniger um die Verwendung Synonymen von artverwandten, zugehörigen Begriffen geht. Wie lassen sich solche LSI-Keywords finden? Zum Beispiel am Boden der Suchergebnisse:

Der Begriff Felidae (lateinische Bezeichnung für Katze) ist ein Synonym. Aber vielleicht sollte ein Beitrag zum Thema Katze auch über Katzenrassen reden und Youtube-Videos von Katzen zeigen. An diese Begriffe kommt Google, da sie eben auch in anderen Dokumenten zum Thema Katze auftauchen.
Wir haben für diesen Faktor eine relativ hohe Bewertung gegeben. Ob Google LSA verwendet, ist nicht bekannt. Es ist auch egal, wie genau sich die wissenschaftliche Methode nennt. Uns gefällt, dass solche Methoden oder Denkweisen uns dabei helfen, Inhalte mit den unterschiedlichsten Begriffen anzureichern. Und das ist richtig und wichtig.
Weitere Quellen und Nachweise
Keywords
Eine Suche kann ein Wort nur dann in einem Dokument finden, falls es auch darin vorkommt.
SEARCHMETRICS-2015 | „Die Bedeutung des Faktors ,Keyword’ ist in den meisten Bereichen weiter rückläufig. Vielmehr geht es darum, dass Content holistisch auf Topics optimiert wird, also sinnvoll zusammenhängende Keywords, die Entitäten darstellen.“ |
MOZ-CORRELATION-2015 | „We continue to see lower correlations between on-page keyword use and rankings.“ |
seo2b-Erfahrungen
Keywords waren in der Vergangenheit das A und O im SEO. Heutzutage geht es mehr um Themen.
Keyword im Title-Tag
Der <title>
-Title-Tag ist klassischerweise der wichtigste Ort für eine erste Klassifizierung des Themas einer Seite. Nur der eigentliche Inhalt der Seite ist wichtiger. Der Titel erscheint ebenfalls im Suchergebnis an erster Stelle. Für das Ranking spielt der Faktor keine tragende Rolle mehr. Angenommen eine Seite verwendet [Hart-umkämpftes-Keyword] im Title-Tag, dann ist das alleine genommen noch kein ausreichender Grund für ein gutes Ranking für diesen Begriff. Wie bei so vielen anderen Faktoren kommt es immer auf die richtige Kombination mit den anderen Faktoren an.
BACKLINKO-MIO | Ein exaktes Keyword im Titel hat eine geringe Korrelation mit besseren Rankings. |
seo2b-Erfahrungen
Das Keyword im Title-Tag zu verwenden ist definitiv Best Practice. Jede Seite sollte im Titel sowohl die Haupt-Keywords am besten am Anfang enthalten, einzigartig, nicht länger als 55 Zeichen sein und gleichzeitig den Leser zum Klicken motivieren. Ein empfehlenswertes Format: „Erstes Keyword – zweites Keyword | Marke“.
Weitere Quellen und Nachweise
- Title-Tag Optimierung: Wie sieht der optimale Title einer Webseite aus?
- Title Tag
- Should I tweak my titles and descriptions to improve my CTR?
- Is the order of keywords in the title tag important? An SEO experiment.
Keyword in Meta-Description
Der Meta-Description-Tag dient als Zusammenfassung des Inhalts einer Webseite. Er erscheint in den Suchergebnissen direkt unter dem Titel und bietet etwas mehr Platz als der Titel. Für das Ranking spielt die Verwendung der Keywords eine untergeordnete aber nicht zu vernachlässigende Rolle. Der Meta-Description-Tag trägt jedoch zusammen mit dem Titel eine enorme Bedeutung, was das Klickverhalten angeht. Ein Sprichwort besagt: „Es kommt nicht darauf an, wie oft du erscheinst, sondern wie oft du angeklickt wirst.“
seo2b-Erfahrungen
Laut SISTRIX klicken/tappen fast 60 % in den Suchergebnisseiten auf die erste Position. Um auf Position 2 überhaupt noch eine Chance zu haben, muss man sowohl in Title, als auch in die Meta-Description-Tag Arbeit investieren. Ein besserer Handlungsaufruf (Call-to-Action) könnte hier Vorteile verschaffen. Es besteht Konsens, dass der Meta-Description-Tag vornehmlich zum Klicken animieren soll und erst danach zum Zwecke der Suchmaschinenoptimierung dient. Es lässt sich aber auch durchaus beides miteinander vereinen.
Je nach Anzeigemodus kann der Meta-Description-Tag zwischen 139 und 156 Zeichen (inkl. Leerzeichen) enthalten.
Weitere Quellen und Nachweise
- Click probabilities in the Google SERPs
- Wie sieht die optimale Meta-Description aus?
- Should I tweak my titles and descriptions to improve my CTR?
- Google Webmaster-Zentrale Blog: Wie ihr Snippets durch ein Makeover der Meta-Descriptions verbessern könnt
Keyword in H1-H6-Tags
Die erste Überschrift im Dokument, das sogenannte <h1>
-Element, kann ebenfalls dabei helfen, mehr Relevanz zu erzeugen. Das Element ist so etwas wie ein zweites Title-Element.

Diese klein angelegte Studie von Chris Butterworth bestätigt, dass das <h1>
-Element gegenüber einem einfach <p>
-Element klare Rankingvorteile bringen kann. Die Ergebnisse solcher Studien sind allerdings mit Vorsicht zu genießen.
Was für das <h1>
-Element gilt, funktioniert wahrscheinlich auch für die aufsteigenden Elemente <h2>
bis <h6>
. Diese Elemente dienen ursprünglich dazu, ein Dokument hierarchisch zu gliedern.
GOOGLE-EIS | empfiehlt ausdrücklich den strukturierten Einsatz von Überschriften. |
seo2b-Erfahrungen
Die Nutzung von Keywords in H-Elementen ist ebenfalls ein lang gehegter Standard. Wir empfehlen aber nicht nur ein einziges Keyword in allen Überschriften zu wiederholen. Viel besser ist die umschreibende Verwendung multipler Synonyme in den Überschriften. Wichtig ist es, dabei nicht zu übertreiben. Schreiben Sie Überschriften in erster Linie für den Leser.
Weitere Quellen und Nachweise
Keyword in URL
Das Keyword in der URL zu haben, kann einen winzigen Rankingboost liefern.
- Schlecht: onlineshop.xy/123/456.html
- Besser: onlineshop.xy/unterkategorie/produkt.html
- Auch noch OK: onlineshop.xy/kategorie/unterkategorie/produkt.html
Komplizierte URLs schrecken andere eventuell davon ab zu verlinken.
MOZ-CORRELATION-2015 | Sehr geringe positive Korrelation mit besseren Rankings. |
seo2b-Erfahrungen
Selbstsprechende URLs sind immer noch die beste Möglichkeit für Suchmaschinen und Besucher zu signalisieren, was sich hinter einer URL (Adresse) verbirgt. Der Einsatz wird klar empfohlen.
Zu vermeiden sind Großschreibung, zu lange URLs, extreme Verschachtelung von Ordnern oder die übermäßige Anwendung von Parametern. Allgemein: Keine Wörter in der URL verwenden, die nichts mit dem Inhalt dieser Seite zu tun haben.
Länge des Inhalts
Korrelationsstudien bezeugen: Längere Inhalte ranken besser.

Darüber hinaus führen umfangreichere Inhalte im Schnitt sogar indirekt zu mehr Links.

SEARCHMETRICS-2015 | findet ebenfalls eine Korrelation zwischen Länge der Inhalte und den Rankings. Je länger, desto besser. |

BACKLINKO-MIO | „Längere Inhalte tendieren dazu, höher bei Google zu ranken. Die durchschnittlich erstgerankte Seite enthält 1.890 Wörter.“ Außerdem: „[Wir] haben herausgefunden, dass umfassende Inhalte signifikant besser funktionieren als flache Inhalte.“ |
seo2b-Erfahrungen
Wie viele Wörter haben die Beiträge, die jetzt schon für Ihre Suchbegriffe ranken? Zählen Sie einfach mal nach und experimentieren dann einfach mal mit unterschiedlich vielen Wörtern.
Eine Sache finden wir logisch. Je umfangreicher eine Seite ein Thema behandelt, desto mehr inhaltlichen Zusammenhang kann sie liefern. Daher kann die Länge der Inhalte auch die Wahrscheinlichkeit erhöhen, dass diese Seite für ihre Suchbegriffe eine bessere Performanz erzielt.
Es gilt jedoch zu bedenken, dass länger nicht immer nützlicher ist.
Weitere Quellen und Nachweise
- How Important is Content Length? Why Data-Driven SEO Trumps Guru Opinions
- What Kind of Content Gets Links in 2012?
- 5 Things That Will Change Your Mind About Long Form Content Marketing
Keyword-Dichte
Die Keyword-Dichte beschreibt den prozentualen Anteil, den ein Keyword am gesamten Text einer Seite besitzt. Sie ist der wahrscheinlich am einfachsten manipulierbare Faktor. Wer das Keyword am meisten auf der Seite wiederholt, der rankt am besten. Das funktioniert heutzutage allerdings nicht. Dennoch lässt sich feststellen, dass das Keyword eine gewisse Menge an Wiederholungen haben muss, damit es gut rankt. Es gibt nur keine magische Zahl, wie 3 %. Es kommt auch hier auf viele weitere Faktoren an.
seo2b-Erfahrungen
Der Inhalt jeder Seite sollte zuerst auf den Leser abgestimmt sein. Wer seine Keywords zu oft wiederholt, läuft Gefahr, dass der eigene Text unleserlich wird. Sobald der Text optimal auf den Leser zugeschnitten ist, können Sie experimentieren und die Anzahl der Wiederholungen des Keywords leicht erhöhen oder herabsetzen.
Praktisch spielt die Keyword-Dichte nur noch eine untergeordnete Rolle, da es heutzutage mehr auf die Gesamtkomposition der Keywords auf einer Seite ankommt.
Weitere Quellen und Nachweise
Gesamtkomposition der Keywords
Für die textuelle Onpage-Optimierung ist dieser Faktor der Heilige Gral. Unter Gesamtkomposition der Keywords fallen alle Verfahren zur Kombination von Keywords in einem Dokument. Ein populäres Beispiel ist Termgewichtung (WDF * IDF).
SEARCHMETRICS-2015 | „Viel wichtiger als das Keyword sind jedoch verwandte Terme und eine hohe semantische Dichte sowie die Relevanz des Textes zur Suchintention des Nutzers.“ Auch Relevant- und Proof-Terms spielen eine große Rolle. Solche Begriffe gehören in jeden Beitrag zu einem gewissen Thema. |
seo2b-Erfahrungen
Nur wer die richtigen Wörter in der richtigen Kombination auf seine Seite bringt, hat auch eine Chance auf Rankings. Klassische Ansätze wir Keyword-Dichte und die Termgewichtung liefern einen ersten Ansatz. Google ist hier allerdings schon gefühlte 1.000 Schritte weiter.
Wir empfehlen folgendes Vorgehen für eine erste Version eines Dokumentes: Nehmen Sie die Texte der ersten zehn Positionen zu Ihrem Suchbegriff genau unter die Lupe. Wie gewichten diese Seiten als Ganzes das oder die Keyword(s)? Versuchen Sie jetzt die Inhalte und Kombination an Keywords über diese ersten zehn Texte im eigenen Text abzubilden. Natürlich ohne abzuschreiben.
Weitere Quellen und Nachweise
- Using Related Topics and Semantically Connected Keywords in Your SEO - Whiteboard Friday
- Nutzung der Termgewichtung w = WDF * IDF in der Praxis
Reihenfolge von Keywords
Selbstverständlich kann die Reihenfolge von Keywords eine Rolle spielen. Keywords sollten in der Reihenfolge eingesetzt werden, wie sie auch am meisten gesucht werden.
seo2b-Erfahrungen
Die Keywordrecherche entscheidet über die beste Reihenfolge von Keywords. [webdesign trier] ist vermutlich besser als [trier webdesign].
Keyword weiter vorne
Je weiter vorne ein Keyword ist, desto wahrscheinlicher hilft es beim Ranking.
seo2b-Erfahrungen
Achten Sie darauf, die wichtigen Keywords auch in den ersten 50 – 100 Wörtern der Seite einzusetzen.
Grammatik und Rechtschreibung
Laut Google gibt es eine Korrelation zwischen Seiten, die korrekte Grammatik und Rechtschreibung beherrschen und bessere Rankings haben. Allerdings sagte Google 2012 auch, dass Grammatik und Rechtschreibung aktuell keine Rankingfaktoren seien, aber mal werden könnten. Die Sprache, Grammatik und Rechtschreibung in allen Fällen seiten- und/oder paragrafenweise zu erkennen, sei aktuell zu anspruchsvoll.
GOOGLE-EIS | „Vermeidet die Veröffentlichung von schlampig verfasstem Text mit vielen Rechtschreib- und Grammatikfehlern Text in Bildern darzustellen“ |
seo2b-Erfahrungen
Selbstverständlich empfehlen wir korrekte Grammatik und Orthografie. Hier und da können sich immer mal ein paar kleine Fehler einschleichen. Zu einer guten Redaktionsarbeit gehört allerdings auch immer ein Korrektorat.
Weitere Quellen und Nachweise
Leseniveau
Google hatte den Reading-Level (das Leseniveau), wie leicht oder schwer ist ein Text zu lesen, 2010 in den Suchergebnissen eingeführt aber 2015 auch wieder entfernt. Ob Google diesen Faktor weiterhin im Algorithmus auswertet, ist fraglich.
GOOGLE-EIS | „Schreibt Text, der sich gut lesen lässt“. ← Tipp an Google: Diese Schreibweise ist lesbarer – „Schreibe gut lesbaren Text.“ |
seo2b-Erfahrungen
Auch wenn Google das Leseniveau eventuell nicht mehr als Rankingfaktor einsetzt, lohnt es sich klar und deutlich zu formulieren. Verwenden Sie kurze Sätze. Nutzen Sie einfache Wörter. Achten Sie auf leichte Verständlichkeit. Ihre Leser danken es Ihnen.
Weitere Quellen und Nachweise
- Google Removes Reading Level Filter
- Do spelling and grammar matter when evaluating content and site quality?
URL-Länge
Zu lange URLs können einen negativen Einfluss auf das Ranking haben. Ideale Länge sind 3-5 Wörter.
Beispiel: http://domain.xy/drei-tipps-abehmen-karotten-saft/ wobei /drei-tipps-abehmen-karotten-saft/ hier die URL ist.
SEARCHMETRICS-2015 | „Besser rankende URLs sind oft kürzer.“ |
MOZ-CORRELATION-2015 | findet ebenfalls eine leichte negative Korrelation mit schlechteren Rankings, je länger die URL. |
BACKLINKO-MIO | „Kurze URLs tendieren dazu besser zu ranken als lange URLs.“ |
seo2b-Erfahrungen
Bei URLs liegt die Würze In der Kürze. Zu lange URLs können nicht nur leicht abgewertet werden, Besucher klicken Sie einfach auch weniger.
Weitere Quellen und Nachweise
URL-Pfad
Je näher der URL-Pfad zur Startseite liegt, desto besser.
- domain.xy/kategorie/unterkategorie/unterunterkategorie/unterunterunterkategorie/thema.html ist zu lang.
- Besser: domain.xy/unterunterunterkategorie/thema.html
seo2b-Erfahrungen
Bei Websites mit extrem vielen hierarchischen Informationen, müssen diese natürlich auch über Ordner strukturiert werden. Ein paar Ordner im Pfadnamen gehen schon in Ordnung. Wer allerdings mehr als drei bis vier Ordner braucht, der sollte vielleicht ein wenig optimieren. Ein klassisches Beispiel für zu viele Ordner in der URL ist dmoz.org. Hier ein Beispiel:
http://www.dmoz.org/World/Deutsch/Computer/Software/Internet/Webseitenverwaltung/Content_Management/Redaktionssysteme/PHP/Contao/
Weitere Quellen und Nachweise
Bilder
Bilder und deren Metainformationen sind für Google ein Relevanzsignal. Besonders hervorzuheben sind hier der Dateiname und der Alt-Text. Beispiel für ein voll optimiertes Bild:
<figure>
<img src="katze-wollknäuel.jpg" alt="Eine Katze spielt mit einem Wollknäuel">
<figcaption>© Rechteanbieter – Katze mit Wollknäuel.</figcaption>
</figure>
BACKLINKO-MIO | „Content mit wenigstens einem Bild rankt höher als ohne Bild.“ Mehr als ein Bild bringe jedoch keine Vorteile. |
seo2b-Erfahrungen
Wo möglich und relevant lohnt es sich, Bilder voll auszuzeichnen. Es ist ein kleines Signal. Ein Text und ein Bild sind immer noch besser als nur ein Text. Vorausgesetzt beide Texte sind gleichwertig.
Weitere Quellen und Nachweise
Seitenaktualisierungen
Bei bestimmten Themen können aktuellere Informationen besser ranken. Vor allem Dokumente, die immer wieder überarbeitet und aktualisiert werden. Auch ein historischer Faktor kann hier eine Rolle spielen. Also wie oft wurde die Seite im Laufe ihrer Geschichte überarbeitet?

Selbstverständlich macht es auch einen Unterschied, ob nur ein paar Wörter ausgetauscht werden oder sich gesamte Sektionen ändern.
seo2b-Erfahrungen
Denken Sie daran, dass man bestehende Dokumente auch aktualisieren kann. Es müssen nicht immer neue Beiträge sein. Aus SEO-Sicht kann es sich auch lohnen, bestehende Beiträge zu erneuern, zu erweitern oder sogar zu reduzieren, um sie immer besser zu machen. Gerade bei Ressourcensammlungen kann dies von großer Bedeutung sein.
Weitere Quellen und Nachweise
Ausgehende Links
Ausgehende Links von hoher Qualität können das Ranking verbessern. Google dementiert diesen Faktor. Tests zeigen allerdings, dass etwas daran sein könnte. Was ausgehende Links betrifft, so gibt es eine goldene Mitte bezogen auf Anzahl und Qualität. Denn zu viele ausgehende Links (meist Hunderte) können dem Ranking auch schaden.

MOZ-CORRELATION-2015 | findet eine leichte positive Korrelation mit der Anzahl der ausgehenden Links und besseren Rankings. |
seo2b-Erfahrungen
Verlinken Sie nach außen! Dies kann die Relevanz und Glaubwürdigkeit der eigenen Inhalte steigern. Wichtig ist dabei, dass Sie auf thematisch passende und qualitativ hochwertige andere Websites/Webseiten verlinken.
Weitere Quellen und Nachweise
- Reboot: Research Proves Positive Effects Of Outgoing Links
- Google: There Isn’t An SEO Advantage To Linking Externally
- PageRank sculpting → „In the same way that Google trusts sites less when they link to spammy sites or bad neighborhoods, parts of our system encourage links to good sites.“
Interne Links
Anzahl, Qualität und die Linktexte der internen Links verraten Google etwas darüber, zu welchen Keywords die jeweils verlinkte Seite der eigenen Ansicht nach ranken sollte.
MOZ-CORRELATION-2015 | Die absolute Anzahl von Links hat eine moderate Korrelation mit Google-Rankings |
seo2b-Erfahrungen
Die Optimierung der internen Verlinkung ist eine der wichtigsten, komplexesten und aufwändigsten SEO-Maßnahmen schlechthin. Es gilt eine Balance aus der richtigen Verlinkungsmenge und -qualität zu finden.
Wir vergeben die höchste Bewertung. Nicht etwa, weil sich durch die Optimierung der internen Verlinkung anfangs etwas bewegen lässt. Für bestehende Websites mit bestehenden Rankings und vielen Kategorien und Ebenen ist dieser Bereich jedoch einer der wichtigsten Faktoren überhaupt.
Weitere Quellen und Nachweise
PageRank
Der PageRank wird heutzutage von Google nicht mehr nach außen hin angezeigt. Vermutlich weil dieser eine Wert für moderne Darstellungsformen von Rankings zu simplistisch geworden ist. Allgemein kann man immer noch sagen, dass Seiten mit höherem (internen) PageRank auch besser ranken. Der PageRank-Algorithmus ist aber jetzt auch schon sehr alt und intern bei Google bestimmt auch mit einer moderneren Alternative ersetzt oder erweitert worden.
seo2b-Erfahrungen
Heutzutage gibt es dank vieler exzellenter Tools bessere Kennzahlen, die sich heranziehen lassen. Zum Beispiel MOZ PA/DA.
Weitere Quellen und Nachweise
- Google has confirmed it is removing Toolbar PageRank
- What is Domain Authority?
- What is Page Authority?
Priorität in der Sitemap
In einer Sitemap kann eine Seite mit einer höheren Priorität versehen werden. Dies könnte sich positiv auf das Ranking auswirken.
seo2b-Erfahrungen
Wir empfehlen damit sparsam umzugehen. Die Priorität in der Sitemap könnte die interne Verlinkung unterstützen und so in komplexen Fällen die Optimierung vereinfachen. Die Wahrscheinlichkeit, dass dieser Faktor eine große Wirkung entfaltet ist eher gering.
Weitere Quellen und Nachweise
Alter der Seite
Eine oft aktualisierte, alte Seite kann bessere Rankings für einen neuen Begriff hervorbringen als eine neue Seite. Rankt die Seite für viele andere Keywords, so ist wahrscheinlich, dass sie auch für weitere Keywords gut ranken könnte.
seo2b-Erfahrungen
Wer bereits eine gut rankende Webseite hat, der kann es ausprobieren. Es ist manchmal leichter für einen neuen Begriff auf einer alten Seite zu ranken.
Seitengeschwindigkeit
Die Seitengeschwindigkeit ist seit vielen Jahren ein Rankingfaktor. Google rankt eine Seite schlechter als sie es verdient, falls diese zu langsam ist. Google arbeitet selbst seit vielen Jahren daran das Netz zu beschleunigen – ein überaus wichtiges Thema für Google. Vermutung: Schnellere Seiten bringen mehr Umsatz für Google.
SEARCHMETRICS-2015 | „Besser rankende Seiten laden schneller. Seitenladezeit ist ein wichtiger Ranking-Faktor und beeinflusst das Userverhalten.“ |
MOZ-SURVEY-2015 | Umfrageteilnehmer halten die durchschnittliche Ladezeit aller Seiten einer Domain für sehr wichtig. |
BACKLINKO-MIO | „Seiten auf schnell ladenden Websites ranken signifikant höher […]“ |
seo2b-Erfahrungen
Ein guter erster Schritt: Nutzen Sie die PageSpeed Insights, um eine Liste mit Vorschlägen zur Verbesserung der Seitengeschwindigkeit zu erhalten.
Weitere Quellen und Nachweise
Optimiert für Mobilgeräte
Es besteht kein Zweifel daran, dass Google für Mobilgeräte optimierte Seiten bevorzugt. Google bietet selbst Dokumentation hierzu an.
Zur Optimierungsstrategie gehört zum Beispiel auch die Verwendung der seit Ende 2015 neuen AMPs (Accelerated-Mobile-Pages).
MOZ-SURVEY-2015 | Umfrageteilnehmer halten den Einsatz von responsiven Technologien für sehr wichtig. |
seo2b-Erfahrungen
Falls Ihre Zielgruppe mit dem Handy unterwegs ist, sollten Sie unbedingt in mobile Optimierung investieren. Laut Google suchen mittlerweile mehr Menschen mit dem Handy als mit dem Desktop. In Bereichen, in denen viele Besucher Handys nutzen, ist der Faktor extrem wichtig. In anderen vielleicht nicht.
Weitere Quellen und Nachweise
- Inside AdWords: Building for the next moment
- Official Google Webmaster Central Blog: Helping users find mobile-friendly pages
- SEO für Mobilgeräte
- Google belohnt AMP-Websites in der Suche | heise online
- Official Google Blog: Introducing the Accelerated Mobile Pages Project, for a faster, open mobile web
- Official Google Blog: AMPing up in mobile Search
- Unterstützung bei der Suche nach Websites für Mobilgeräte
Videos
Wer ein Video auf YouTube lädt, hat gute Chancen für bestimmte Begriffe zu ranken. In abgeschwächtem Maße gilt dies auch für weitere Videodienste, wie DailyMotion, Vimeo etc. Youtube dominiert allerdings die Video-Suchergebnisse.
seo2b-Erfahrungen
Erstellen Sie Videos für Begriffe, für die es ansonsten schwer ist, zu ranken. Ergänzen Sie Ihre Inhalte mit diesen Videos. In manchen Fällen besteht die Chance, dass Sie in die Top-10 aufsteigen können. Ansonsten gibt es auch immer die Möglichkeit in oder mit der zweitgrößten Suchmaschine der Welt zu ranken: YouTube.

Weitere Quellen und Nachweise
- YouTube Ranking Factors: Getting Ranked In The Second Largest Search Engine
- Where Did My Video Snippets Go?
Mikroformate
Der Einsatz von Mikroformaten kann dabei helfen, das Ranking zu verbessern.

Hier zum Beispiel eine Sternebewertung.
BACKLINKO-MIO | findet keine Korrelation zwischen dem Gebrauch von Mikroformaten und besseren Rankings. |
seo2b-Erfahrungen
Unabhängig vom Potenzial einer Rankingverbesserung ist der Einsatz solcher Mikroformate natürlich schon aus Gründen der Steigerung der Durchklickrate interessant. Wer Mikroformate nutzen kann, sollte dies alleine schon deswegen in Betracht ziehen.
Weitere Quellen und Nachweise

Onpage-Faktoren für die Domain
Unter Onpage-Faktoren für die Domain fallen alle OnPage-Signale, die die gesamte Website umfassen oder als Vertrauenssignal für die Website fungieren.
Wertvolle und einzigartige Inhalte
Google wünscht sich Websites, die im Gesamten wertvolle und einzigartige Inhalte anbieten – im Gegensatz zu Websites, die nur durch SEO-Tricksereien versuchen einen schnellen Euro zu generieren.
GOOGLE-EIS | „Erzeugt Content hauptsächlich für eure Nutzer, nicht für Suchmaschinen“ |
MOZ-SURVEY-2015 | Umfrageteilnehmer halten die Einzigartigkeit der Inhalte auf der gesamten Domain für extrem wichtig. |
SEARCHMETRICS-2015 | spricht in diesem Fall durchgehend von „holistischem“ Content. |
seo2b-Erfahrungen
Wertvolle und einzigartige Inhalte zu erstellen, ist eine Wissenschaft für sich. Suchen Sie sich ein besonderes Thema. Produzieren Sie Inhalte, die Sie in dieser Form noch nie irgendwo gesehen haben. Google belohnt dies – langfristig. Beispiel: Diese Meta-Studie der Rankingfaktoren. Es gibt schon viele unterschiedliche Beiträge zu diesem Thema. Allerdings hat bisher keine von ihnen diesen Umfang erreicht und/oder sich an einem vergleichbaren Format versucht. Wir hoffen, dass dies für Leser sehr nützlich ist.
Das Besondere an solchen Inhalten? Sie lassen sich vielfältig einsetzen. Sei es im SEO, im Linkaufbau, im Social-Web, bei der Leadgenerierung, in Vorträgen, im E-Mail-Marketing, im Affiliate-Marketing etc. Der Nutzen solcher Inhalte ist sowohl für den Besucher wie auch für das eigene Unternehmen enorm. Ein Investment in außerordentliche Inhalte lohnt sich fast immer.
In der Branche haben sich in den letzten Jahren für diese Inhalte neue Namen gebildet.
- Rand Fishkin nennt sie „10x-Content“. Zehnmal so gute Inhalte, wie alles, was bisher da gewesen ist.
- Brian Dean verwendet einen ähnlichen Ansatz im Linkbuilding mit der sogenannten „Skyscraper-Technique“. Ein Wolkenkratzer ist ein extrem hohes Hochhaus. Es ist viel höher als andere Häuser. Der Content im SEO und im Linkbuilding muss einfach viel umfangreicher, besser, größer, höher sein als alles, was bis dahin da gewesen ist.
Weitere Quellen und Nachweise
- Link Building Case Study: How I Increased My Search Traffic by 110% in 14 Days
- Why Good Unique Content Needs to Die - Whiteboard Friday
- What is 10x Content and Why Does it Matter? | ThoughtWorks
- 10X Content - Google Docs
Aktualisierungen der Website
Wie oft wird die gesamte Website aktualisiert? Wie oft kommen neue Inhalte dazu? Wie hoch ist der Aktionsgrad der Gesamtwebsite von Tag zu Tag, Woche zu Woche und Monat zu Monat?
GOOGLE-EIS | Neuer Content bringt neue und wiederkehrende Besucher. Man solle Content nicht wieder aufwärmen. |
MOZ-SURVEY-2015 | Umfrageteilnehmer halten die Frische der Inhalte für sehr wichtig. |
seo2b-Erfahrungen
Regelmäßiges Publizieren ist eine der absoluten Grundvoraussetzungen für vielfältige Rankings.
Anzahl der Seiten
Die Anzahl der Beiträge einer Website kann ebenfalls eine Rolle spielen. Aber nur wenn diese Seiten auch differenzierte Inhalte bieten. Es sind also keine Websites mit Millionen von Unterseiten ohne einzigartige Inhalte gemeint. Solche Verzeichnisse hat Google in den letzten Jahren mehr und mehr den Garaus gemacht.
seo2b-Erfahrungen
Publiziere viel guten Content ist die erste Grundregel im SEO. Auch wenn nicht klar ist, ob die Anzahl der Seiten wirklich einen Faktor darstellen, so lässt sich dennoch behaupten: Je mehr Content auf der Domain, desto höher die Chance für vielfältige Rankings.
Website-Struktur
Eine Gliederung der Inhalte in sogenannte Silos kann den Seiten in diesen Silos dabei helfen, besser zu ranken. Ein Silo ist wie eine streng begrenzte Kategorie. Der Begriff Silo rührt daher, dass siloisierte Kategorien sich nicht untereinander kennen/verlinken. Sie sind thematisch abgekapselt. Dies ist nur notwendig, falls eine Website sehr viele verschiedene Themen und Kategorien beherbergt.
Google empfiehlt in GOOGLE-EIS beispielsweise sowohl eine Sitemap für Bots als auch eine Sitemap für Besucher anzubieten.
Die interne Verlinkung soll eine „nachvollziehbare Hierarchie“ abbilden. Jede Seite sollte mit den wenigsten möglichen Klicks erreichbar sein. Zu vermeiden: „Verlinkungen von jeder einzelnen Seite auf jede andere“.
Implizit ist das eine Empfehlung für das Siloing.
seo2b-Erfahrungen
Siloing kann sich lohnen, vor allem im Zusammenhang mit der internen Verlinkung. Falls Ihre Website mehr als zwei bis drei große Kategorien besitzt, dann sollten zum Beispiel Unterseiten aus Kategorie A nicht auf Unterseiten aus Kategorie B verlinken.
Weitere Quellen und Nachweise
Website-Uptime
Wenn der Server ausfällt, dann läuten die Alarmglocken. Wer die Situation nicht in wenigen Tagen wieder in den Griff bekommt, den bestraft Google unter Umständen mit einer permanenten Degradierung.
seo2b-Erfahrungen
Die Erreichbarkeit der Website sicherstellen und immer schnell reagieren. Idealerweise gibt es ein Spiegel-System, auf welches die Website ausgelagert werden kann. Zum Beispiel auch im Falle eines Angriffs (DDOS).
Server-Standort
Eine Website für den deutschsprachigen Markt rankt für geospezifische Suchanfragen unter Umständen schlechter, falls der Server im Ausland steht.
seo2b-Erfahrungen
Falls die eigene Website hauptsächlich sprach- oder ländergebundene Informationen bietet, empfiehlt sich auch ein Hosting im eigenen Land. Google bietet über die Search-Console die Möglichkeit, Sprache und Region für eine bestimmte Domain einzustellen. Daher gehen wir davon aus, dass dieser Faktor nur wenig Berücksichtigung findet.
Weitere Quellen und Nachweise
HTTPS
Die Verwendung von HTTPS ist ein von Google offiziell bestätigtes Rankingsignal.
SEARCHMETRICS-2015 | „HTTPS wird relevanter, ist aber nicht für jede Seite nötig. Wichtig ist eine Verschlüsselung z.B. für Websites mit Kaufprozessen und/oder sensiblen Kundendaten, um Vertrauen und Conversions zu erhöhen.“ |
MOZ-CORRELATION-2015 | Die Nutzung von HTTPS hat eine sehr geringe positive Korrelation mit besseren Rankings |
BACKLINKO-MIO | HTTPS hat eine moderate Korrelation mit besseren Rankings. |
seo2b-Erfahrungen
Verwenden Sie SSL falls möglich und angebracht.
Weitere Quellen und Nachweise
AGB, Datenschutz, Impressum
Seriöse Websites haben Seiten für AGB, Datenschutz, Impressum und Kontakt. Google kann diese als Vertrauenssignal interpretieren.
MOZ-SURVEY-2015 | Umfrageteilnehmer halten Firmeninformationsseiten und Kontaktseiten für sehr wichtig. |
seo2b-Erfahrungen
Vertrauenswürdige Quellen nachzuahmen, ist grundsätzlich keine schlechte Sache. Es stärkt das Vertrauen der eigenen Besucher und eventuell auch das Vertrauen von Google.
Brotkrumen-Navigation
Eine Brotkrumen-Navigation hilft als Usability-Feature bei der Navigation der Website. Hier ein Beispiel von Amazon.de:

Was dem User hilft, könnte auch gut für das Ranking sein.
seo2b-Erfahrungen
Wir sind für den Einsatz von jeglichen Maßnahmen, die die Usability verbessern und einem Quality-Rater dabei helfen, eine Website positiv zu bewerten. Ob der Einsatz ein direkter Rankingfaktor ist, wagen wir jedoch zu bezweifeln. Jedoch lassen sich natürlich Keywords und Links in solchen Elementen unterbringen. Daher haben sie für das Ranking wahrscheinlich schon einen Nutzen.
Weitere Quellen und Nachweise
- Breadcrumbs: Everything About Breadcrumbs & SEO
- Breadcrumb Navigation Links as an On-Page Optimization Factor
- 11 Regeln für eine SEO-freundliche Breadcrumb
Sitemap.xml
Besitzt die Website eine Sitemap.xml? Dann könnte diese dabei helfen, bessere Rankings zu erzielen.
seo2b-Erfahrungen
Der Einsatz einer Sitemap kann eine gute Idee sein, falls es ansonsten aufgrund der Anzahl der Seiten und Kategorien schwierig ist, allein über die interne Verlinkung eines ausreichenden Indexierungsgrad zu erreichen. Wer mehr Seiten in den Index bekommt, steigert auch die Sichtbarkeit der Website und verbessert so auch die Rankings. Die bloße Existenz halten wir jedoch nicht für einen direkten Rankingfaktor.
Weitere Quellen und Nachweise

Offpage-Faktoren
Sämtliche Linkfaktoren entfalten laut allen Analysen/Quellen die größte Wirkung unter allen Rankingfaktoren. Links sind immer noch das A und O bei der Suchmaschinenoptimierung und selbst Google empfiehlt den „Backlinkaufbau“.
GOOGLE-EIS | „Das Promoten eurer Website und qualitativ hochwertige Links können die Reputation eurer Website verbessern.“ Google weist außerdem darauf hin, auf Social-Media-Sites zu promoten und seine Inhalte in passenden Communities bekannt zu machen – ohne diese „zuzuspammen“. |
SISTRIX | Ein Link ist umso wertvoller, je häufiger er von echten Besuchern tatsächlich geklickt wird. |
Anzahl der externen Links
Links spielen nach wie vor eine entscheidende Rolle für das Ranking. Die meisten Untersuchungen zeigen zum Teil, dass die Relevanz minimal abnimmt, Links aber immer noch der Faktor Nummer 1 sind. Die reine Anzahl der externen Links ist dabei allerdings nicht so entscheidend. Denn hierunter fallen zum Beispiel auch Szenarien, wie 100 Links von 2 Domains. Selbstverständlich sind 100 Links von 100 verschiedenen Domains deutlich wertvoller.
SEARCHMETRICS-2015 | „Backlinks sind – statistisch gesehen noch immer – ein Faktor, der einen Zusammenhang mit guten Rankings aufweist. Die Korrelationen der jeweiligen einzelnen Link-Ranking-Faktoren sind hoch, nehmen jedoch kontinuierlich ab.“ |
MOZ-CORRELATION-2015 | „[…] die Daten zeigen immer noch höchste Korrelationen zwischen den Google-Rankings und der Anzahl an Links, die eine Seite hat.“ |
BACKLINKO-MIO | „Mehr absolute Backlinks = höhere Rankings“ |
seo2b-Erfahrungen
Ob die Bedeutung von Links für die organische Suche in Zukunft weiter sinken wird, bleibt stark zu bezweifeln. Es müsste als Ersatz für den Link eine ganz neue Faktorengruppe her. Niemand darf vergessen, dass das WWW hauptsächlich aus diesen zwei Komponenten besteht: Texten und Links. Interaktions-Faktoren und Markensignale spielen in Zukunft bestimmt eine größere Rolle. Nur bedrohen Sie den Kaiser Link unserer Meinung nach nicht wirklich. Und daran wird sich auch so schnell nichts ändern.
Domainpopularität verlinkende Seite
Anzahl der verlinkenden Domains oder auch Domainpopularität (DP) ist in allen Untersuchungen einer der wichtigsten Faktoren schlechthin.

BACKLINKO-MIO | Die Anzahl der verlinkenden Domains auf eine Seite ist mit Abstand der wichtigste Faktor. |
MOZ-CORRELATION-2015 | findet eine hohe Korrelation zwischen Google-Rankings und der Anzahl der verlinkenden Domains („# of root domains with any pages linking to the URL“) |
MOZ-SURVEY-2015 | Umfrageteilnehmer halten diesen Faktor für wichtig. |
seo2b-Erfahrungen
Mindestens einen Link von so vielen Domains wie möglich. Das war früher die Devise. Heutzutage ist das deutlich differenzierter zu sehen. Aber der Grundgedanke bleibt. Insgesamt sollte des Verlinkungsgrad von unterschiedlichen Domains eher hoch sein. Zwei nicht zu empfehlende Extrembeispiele:
1. Alle Links kommen von sehr wenigen oder einer einzelnen Domain.
2. Viele Domains verlinken, aber keine mehr als ein mal.
Domainpopularität verlinkende Domain
Die allgemeine Domainpopularität spielt ebenfalls eine wichtige Rolle. Für einzelne Rankings ist sie nicht so wichtig wie für das allgemeine Rankingverhalten einer Domain. Websites mit einer hohen DP ranken oft sehr schnell für ihre neuen Seiten.
MOZ-CORRELATION-2015 | findet eine recht hohe Korrelation – allerdings etwas geringer als auf dem Seitenlevel – zwischen Google-Rankings und der Anzahl der verlinkenden Domains auf die gesamte Domain („# of root domains with any pages linking to the root domain of the URL“) |
MOZ-SURVEY-2015 | Umfrageteilnehmer halten diesen Faktor für den wichtigsten Faktor überhaupt. |
seo2b-Erfahrungen
Viele großartige Domains verlinken auf Ihre Website. Das ist heutzutage fast schon ein Garant für gute Rankings.
TrustRank der Linkquelle
Der TrustRank der linkgebenden Website, also die Vertrauenswürdigkeit, hat eine Auswirkung auf das Ranking.
Laut ursprünglichem Patent ist der TrustRank ein Algorithmus, der dabei helfen soll, vertrauenswürdige Websites zu entdecken und nicht vertrauenswürdige Websites zu erkennen. Dabei wird eine bestimmte Anzahl an höchst-vertrauenswürdigen Website zugrunde gelegt (Ebene 0). Der Algorithmus prüft nun, wohin diese Websites verlinken und klassifiziert diese als Ebene 1. Ebene 1 erhält weniger Trust als Ebene 0. Jetzt untersucht der Algorithmus, welche Websites Ebene 1 verlinkt. Das sind dann die Websites auf Ebene 2.
- Ebene 0 = 100 % Trust
- Ebene 1 = 90 % Trust
- Ebene 2 = 80 % Trust
- …
- Ebene n = 0 % Trust
Der TrustRank ist unabhängig vom PageRank. Er wird den Ergebnissen des PageRanks sozusagen hinzugerechnet, um das „Unkraut“ auszujäten.
MOZ-SURVEY-2015 | Umfrageteilnehmer halten es den TrustRank einer Domain für extrem wichtig. Außerdem ist wichtig, dass die Domain selbst Trust-Signal-Pages hat. |
seo2b-Erfahrungen
Wer auf TrustRank optimiert, also Vertrauen gewinnen möchte, der braucht Links von sehr vertrauenswürdigen Websites.
Weitere Quellen und Nachweise
- Google Trust Rank Patent Granted - SEO by the Sea
- TrustRank – Wikipedia
- TrustRank – Was ist das eigentlich? - SEO-united.de Blog
- What is TrustRank? - YouTube
Anzahl der verlinkenden Seiten
Mehr als ein Link von einer Domain ist ein viel zitierter Rankingfaktor.
seo2b-Erfahrungen
Versuchen Sie immer mehr als einen Link von einer Domain zu erhalten. Von besonders starken Seiten sollten Sie sogar viele Links haben. Stellen Sie sich das so vor: Angenommen spiegel.de verlinkt Ihre Website einmal oder zehnmal. Was ist besser? Zehnmal natürlich. Am besten sogar in unregelmäßigen Zeitabständen. Wir halten das für extrem wichtig!
Linkposition auf der Seite
Links aus dem Inhalt einer Seite, die mitten aus dem Text (Paragrafen, Liste, Überschrift etc.) kommen, wirken besser. Im Gegensatz dazu wirken Links schlechter, wenn sie aus einer Seitenleiste oder dem Fußbereich kommen.
MOZ-SURVEY-2015 | Umfrageteilnehmer halten dies für wichtig. |
seo2b-Erfahrungen
Gute Links kommen aus dem Text, aus einer kontextuellen Umgebung.
Redaktionelle Links
Redaktionelle Links oder auch natürliche Links bilden eine Brücke zwischen Inhalten nicht-kommerzieller Natur. Informationsbeitrag auf Informationsbeitrag und aus dem Kontext heraus. Daher bezeichnen viele diese Links auch als kontextuelle Links. Auf der anderen Seite der Links wird nichts verkauft, sondern informiert.
Google möchte vor allem diese Links dazu nutzen, um Rankings zu errechnen. Googles ursprüngliche Idee für den PageRank war das Zitat innerhalb von wissenschaftlichen Arbeiten – die Zitationsanalyse. Die meistzitierten wissenschaftlichen Arbeiten sind die besten. Dieses Prinzip hat Larry Page auf den PageRank übertragen. Ein Zitat innerhalb einer wissenschaftlichen Arbeit zeigt in aller Regel nicht auf eine Produktseite eines Onlineshops.
seo2b-Erfahrungen
Vorsicht ist geboten. Verlinken Sie niemals oder nur sehr selten direkt auf ein kommerzielles Angebot. Ein Link aus einem informativen Beitrag sollte nicht auf eine Produktseite eines Onlineshops verweisen, außer es gibt einen aus Redaktionssicht sehr guten Grund dafür.
Weitere Quellen und Nachweise
PageRank der Domain
Der PageRank oder die Autorität der verlinkenden Website (auch der PageRank der Startseite) ist ein sehr wichtiger Rankingfaktor. Dieser wird meist am PageRank der Startseite festgemacht.
Leider zeigt Google seit 2016 den PageRank nicht mehr in der Toolbar an.
MOZ-SURVEY-2015 | Umfrageteilnehmer halten dies für extrem wichtig. |
seo2b-Erfahrungen
Zuverlässige Werte für den PageRank waren oft kaum zu ermitteln, weil gerade für neue Seiten noch kein PageRank verfügbar war. Alternative Bewertungssysteme bieten sich hier an. Beispielsweise die DomainAuthority von MOZ.
Jedoch konnte eine Page-Rank-Abstufung einen Hinweis darauf geben, ob die Domain manuell zurückgestuft wurde. Dies ließ sich häufig bei Page-Rank-Abstufungen >= 2 beobachten.
Wir halten die allgemeine Autorität einer Domain für einen der ausschlaggebenden Rankingfaktoren schlechthin.
Weitere Quellen und Nachweise
PageRank der verlinkenden Seite
Der PageRank oder die Autorität der verlinkenden Seite ist ein sehr wichtiger Rankingfaktor. Nicht der Toolbar-PageRank.
MOZ-SURVEY-2015 | Umfrageteilnehmer halten dies für wichtig. |
seo2b-Erfahrungen
Zuverlässige Werte für den PageRank sind mittlerweile nicht mehr zu ermitteln. Auch zu Zeiten der Google-Toolbar waren die Werte alles andere als zuverlässige Indikatoren. Alternative Bewertungssysteme bieten sich hier an. Beispielsweise die PageAuthority von MOZ.
Weitere Quellen und Nachweise
Link von Autoritäts-Website
Ein Link von einer als Autorität eingestuften Website vererbt mehr Rankingkraft.
MOZ-SURVEY-2015 | Umfrageteilnehmer halten diesen Faktor für wichtig. |
BACKLINKO-MIO | „[Es] ist typischerweise besser einen einzigen Link von einer Website mit hoher Autorität zu erhalten als 100 Links von 100 Seiten von geringer Qualität.“ |
seo2b-Erfahrungen
Das Problem mit dem Begriff Autorität ist, dass jeder seine eigene Definition dafür hat. Eine Person ist eine Autorität, wenn sie über einen langen Zeitraum Expertenstatus beweist. Im Web bedeutet das: Über einen langen Zeitraum publizieren und die Anerkennung dafür in Form von Berichten und Links von vielen anderen Websites zur erhalten. Wer über einen langen Zeitraum alles richtig macht, dem wird eine hohe Autorität zugerechnet.
Manche Websites sind allerdings auch einfach nur populär und das kann manchmal auch reichen. Dennoch volle Punktzahl.
Natürliches Linkprofil
Ein „natürliches Linkprofil“ enthält keine auffälligen Verlinkungsmuster. Um zu erkennen, ob ein Linkprofil unnatürlich – also von Menschenhand manipuliert – ist, kommen mehrere Faktoren in Spiel. Zum Beispiel die Verteilung der Linktexte, das Deeplink—Ratio, das Nofollow-Ratio etc.
MOZ-SURVEY-2015 | Umfrageteilnehmer halten eine Vielfalt (diversity) von verschiedenen Links für sehr wichtig. Außerdem ist ein hohes prozentuales Vorkommen von Markentext als Linktext sehr wichtig. |
seo2b-Erfahrungen
Natürliche Linkprofile bestehen hauptsächlich aus Links zur eigenen Marke, Domain und neutralen Begriffen wie „hier“. Sie verzichten auf sogenannte „Money-Keywords“, wie „Tennisschläger kaufen“.
Weitere Quellen und Nachweise
Alter des Links
Links reifen wie Wein. Mit der Zeit werden sie immer besser. Diese These wird auch durch ein Google-Patent bestätigt. Ein guter Link wird laut Google auch dann nicht aktualisiert, falls die umgebende Seite ein Update erfährt.
SEARCHMETRICS-2015 | „Seiten, die für die Top10-Suchergebnispositionen ranken, haben ältere Backlinks als URLs auf den unteren SERPs.“ |
seo2b-Erfahrungen
Das Alter eines Links lässt sich nicht manipulieren. Da lässt sich nur raten: Fangen Sie so früh wie möglich mit dem Linkaufbau an. Dann kommen Sie auch schneller in den Genuss von guten, gereiften Links.
Weitere Quellen und Nachweise
- Patent US7346839 - Information retrieval based on historical data - Google Patente
- Is Backlink Age an Important SEO Factor? - Search Engine Journal
Verlinkungsgeschwindigkeit
Erhält eine Seite/Website im zeitlichen Verlauf eine stetig steigende Anzahl von Links, dann ist das ein Zeichen für steigende Popularität. Diese kann zu einem Bonus führen. Jedoch ist das Gegenteil ebenso der Fall. Dieser Faktor steht im Zusammenhang mit der Domain-Historie.
MOZ-SURVEY-2015 | Umfrageteilnehmer halten dies für wichtig bis sehr wichtig. |
seo2b-Erfahrungen
Regelmäßig Links aufbauen, darauf kommt es an.
Externer Linktext
Der Linktext oder Ankertext ist ein starkes Signal, beschreibt er doch oft das Linkziel. Das Problem ist, dass der Linktext auch als Webspam-Signal fungiert, weil es zu viel Missbrauch dieses Faktors gegeben hat. Beispiele für unterschiedliche Linktexte:
Natürlich auftauchende Linktexte:
- Neutral: Klicken Sie hier
- Brand: Mustermann GmbH
- Redaktionell: 10 Tipps für ein gesundes Leben
Unnatürlich wirkende Linktexte:
- Keyword: Private Krankenversicherung
- URL: www.mustermann.xy
- Mischung: Mustermann Private Krankenversicherung
GOOGLE-EIS | „Der Ankertext sollte zumindest eine grundlegende Vorstellung vermitteln, wovon die verlinkte Seite handelt.“ Dabei soll er generischen Ankertext vermeiden, zum Beispiel „Seite”, „Artikel” oder „klicken Sie hier”. Dabei sollen mehrere Wörter aber keine langen Sätze, Absätze oder URLs verwendet werden. |
SEARCHMETRICS-2015 | „Der Anteil von Links mit Keyword im Ankertext nimmt weiter ab.“ |
MOZ-CORRELATION-2015 | findet bei allen Variationen von Linktexten mit Keyword eine höhere Korrelation mit guten Rankings. |
MOZ-SURVEY-2015 | Umfrageteilnehmer halten den Einsatz von Keywords in Linktexten für wichtig. |
BACKLINKO-MIO | „Exact-Match-Linktext korreliert signifikant mit besseren Rankings“ |
seo2b-Erfahrungen
Wie stark der Einfluss des Keywords auf das Ranking sein kann, erkennt man bei der Suchanfrage [hier].

Abermillionen von Websites verlinken mit dem Wort „hier“ auf den Acrobat Reader, Apples Quicktime und die Java-Software. „Um den Acrobat Reader herunterzuladen, klicken Sie bitte hier.“
Grundsätzlich ist es demnach schon ein sehr wichtiger Rankingfaktor. Dabei gilt: Je mehr Vertrauen eine Website hat, desto mehr exakte Keywordlinks sind möglich. In neuen oder noch schwach verlinkten Projekten ist höchste Vorsicht geboten.
Vermeiden Sie unsichere Linktexte von externen Websites.
Interner Linktext
Die Linktexte auf den eigenen Seiten teilen Google mit, für welche Keywords Google die jeweiligen Seiten der eigenen Meinung nach ranken soll.
seo2b-Erfahrungen
Bei internen Linktexten ist im Vergleich zu externen Linktexten so ziemlich alles erlaubt. Verwenden Sie ruhig aggressive Linktexte mit Keywords. Dennoch möchten Sie bestimmt einen Kompromiss finden, der auch gut für Ihre Besucher ist. Seiten mit extrem vielen Keywordlinks sind oft nicht gerade nutzerfreundlich.
Alter Linkquelle Domain
Je älter die verlinkende Domain, desto mehr Kraft könnte von ihr ausgehen.
seo2b-Erfahrungen
Das reine Alter einer Domain halten wir für nicht so wichtig. Viel wichtiger ist die Frage, ob diese Domain selbst auch wieder von vielen anderen Domains verlinkt wurde und wird. Je mehr das der Fall ist, desto besser.
Anzahl Links unterschiedlichen IP-C-Netzklassen
IP-Adressen werden oft blockweise in der gleichen C-Netzklasse vergeben, zum Beispiel
192.100.1.1 | 192.100.1.2 | 192.100.1.3 |
192.100.1.1 | 192.150.1.2 | 192.200.1.3 |
Nebeneinander liegenden Adressen könnten einem einzelnen Unternehmen gehören. Um diese Wahrscheinlichkeit zu reduzieren, könnte Google die Links aus unterschiedlichen C-Klassen betrachten, um so mehr Spam zu entfernen.
seo2b-Erfahrungen
Wir halten dies nicht wichtig genug, um gesondert darauf zu optimieren. Wer regelmäßig Linkaufbau von echten Websites betreibt, für den ergeben sich automatisch die richtigen Muster bezogen auf die Verteilung der IP-Adressen. Wenn die eigenen Links maßgeblich nur von wenigen IP-Adressen kommen, da kann das schon ein Alarmsignal sein. Prüfen Sie es einfach mal nach.
Alt-Text für Bilderlinks
Der Alt-Text ist der Ersatz für den Linktext/Ankertext. Beispiel:
<img="bild.png" alt="Hier steht der Alt-Text mit Keyword">
seo2b-Erfahrungen
Das ist eine schöne Alternative für zwischendurch. Verlinken Sie ruhig mal mit einem Bild.
Nofollow-Links
Gerüchteweise vermuten viele Branchenteilnehmer, dass Nofollow-Links trotz Googles Aussage, dass sie keinerlei Rolle spielen, es dennoch tun. Ein bestimmter Prozentsatz an Nofollow-Links könnte Aufschluss darüber geben, ob ein Linkprofil (un)natürlich ist.
seo2b-Erfahrungen
Investieren Sie Ihre Zeit lieber in Follow-Links. Unserer Meinung nach lohnt es sich nur Nofollow-Links zu akquirieren, falls diese Links zielgerichteten Traffic liefern. Beispielsweise wirklich verdiente Links aus der Wikipedia.
Weitere Quellen und Nachweise
Vielfalt der Linktypen
Die Vielfalt verschiedener Linktypen ist ein Zeichen für ein natürliches Linkprofil. Links aus nur einer Quelle, zum Beispiel nur Links aus Foren, könnten auf Webspam hinweisen.
seo2b-Erfahrungen
Versuchen Sie immer viele verschiedene Links aus ganz unterschiedlicher Herkunft zu erhalten. Foren, Blogs, Magazine, Universitäten etc. Theoretisch gilt: Je unterschiedlicher, desto besser. In der Realität schafft das aber auch so gut wie niemand. Unser Tipp: Konzentrieren Sie sich auf Links von Websites, die auch echten Traffic haben.
Umgebungstext Link
Der Umgebungstext eines Links kann eine Rolle spielen, da der Linktext selbst oft auch eine handlungsweisende Rolle erfüllt. Klicken Sie bitte „hier“. Theoretisch könnte sich Google die Wörter vor und nach dem Link anschauen, um darauf Rückschlüsse über den Link zu gewinnen und diese zu verwerten.
- Beispiel 1: „Um mehr Informationen zum Thema private Krankenversicherung zu erhalten, klicken Sie bitte hier.“ (hier ist Linktext, aber das Thema private Krankenversicherung wird vorher genannt.)
- Beispiel 2: „Klicken Sie hier, um mehr Informationen zum Thema private Krankenversicherung zu erhalten.“ (hier ist Linktext, aber das Thema private Krankenversicherung wird nachher genannt.)
seo2b-Erfahrungen
Zugehörige Wörter vor und nach dem Link zu platzieren, ist völlig natürliches Linkverhalten. Wer dies von sich aus steuern kann, hat hier also eine weitere, weniger aufdringliche Art „weichen“ Linktext unterzubringen.
Weitere Quellen und Nachweise
Link von länderspezifischen Domain
Ein Link von einer länderspezifischen Domain hilft mehr im Ranking als eine „ausländische“ Domain. Beispiel: Ein Link von einer .de-Domain hilft einer .de-Domain mehr.
seo2b-Erfahrungen
Das halten wir für einen Mythos. Wer eine lokale oder regionale Domain betreibt möchte wahrscheinlich auch Links von Domains haben, die „von außen“ über diese Region berichten.
Spätestens seit der Einführung der neuen Top-Level-Domains, zum Beispiel .blog, .web, .shop, .adac, .bosch, .berlin etc. dürfte dieser Faktor immer mehr an Relevanz verlieren.
Wichtiger ist da die IP-Location der linkgebenden Seite.
Linkposition oben
Links am Anfang der Seite sind minimal besser, als Links am Ende der Seite. Was oben steht, ist wichtiger.
MOZ-SURVEY-2015 | Umfrageteilnehmer halten dies für wichtig. |
seo2b-Erfahrungen
Auch in diesem Dokument sind die wichtigsten Links oben. Der Faktor ist aber nicht wichtig genug, dass Sie jetzt immer auf Links oben im Dokument bestehen sollten. Wenn’s klappt, dann gut, wenn nicht, dann auch.
Relevante Links
Links von relevanten und themennahen Seiten/Domains, zum Beispiel aus der gleichen Branche oder zum gleichen Thema, funktionieren besser. Relevante Seiten sind oft dadurch zu erkennen, dass sie einen Hub (Nabe, Knotenpunkt) darstellen. Das sind die Seiten, auf die alle innerhalb eines Themengebietes verlinken.
MOZ-SURVEY-2015 | Umfrageteilnehmer halten Links von themenrelevanten Seiten für sehr wichtig. Darüber hinaus halten sie die Themenrelevanz für der linkgebenden Domain für extrem wichtig. |
seo2b-Erfahrungen
Dies können wir so nicht bestätigen. Links aus themenfremden Portalen können ganz genauso gut funktionieren und vielleicht sogar noch besser. Wichtig ist natürlich, dass der Link legitim ist. Das ist der Fall, wenn es aus redaktioneller Sicht einen einleuchtenden Grund für ihn gibt.
Themenrelevanz kann vielleicht einen winzigen Vorteil verschaffen (vergleiche: Hilltop-Algorithmus). Allerdings ist es für Außenstehende schwierig zu bestimmen, wann eine Gruppe von Websites tatsächlich zu einem themenrelevanten Pool von Websites/Webseiten gehört.
Links von themenrelevanten Websites sind gut und wichtig. Links von themenfremden Websites sind aber unserer Meinung nach genauso wichtig und manchmal sogar wichtiger – stärken sie doch in fast allen Fällen wenigstens die Reputation einer Website.
Weitere Quellen und Nachweise
Keyword aus dem Title als Linktext
Befinden sich im Linktext Wörter aus dem Titel der Seite könnte das einen Bonus verschaffen.
Beispiel: Eine Seite hat den Titel „Mit diesen 10 Tipps nehmen Sie in 10 Tagen 10 Kilo ab“
Jetzt könnte der Link den Titel auch als Linktext übernehmen:
Lesen Sie im Diätblog jetzt den Beitrag „<a href="…">Mit diesen 10 Tipps nehmen Sie in 10 Tagen 10 Kilo ab</a>“
seo2b-Erfahrungen
Den Titel oder Auszüge daraus als Linktext zu verwenden, ist eine gute Idee. In diesem Dokument finden Sie dafür zahlreiche Beispiele. Dies macht aber auch nur dann Sinn, falls es sich um redaktionelle Inhalte handelt.
Wikipedia-Link
Ein Wikipedia-Link wird immer noch als heiße SEO-Ware gehandelt, obwohl ausgehende Links auf Wikipedia grundsätzlich auf NoFollow stehen.
PageRank wird nicht vererbt. Die Vermutung besteht, dass Wikipedia-Links trotzdem Autorität und Trust vererben.
seo2b-Erfahrungen
Ein Wikipedia-Link ist für uns vor allem wegen seiner potenziellen Trafficleistung interessant. Grundsätzlich halten wir ihn nicht für einen gesonderten Rankingfaktor.
Links aus nutzergenerierten Inhalten
Google erkennt Links von Seiten, die aus von Nutzern erstellten Inhalten (UGC, user generated content) stammen. Zum Beispiel Blogkommentare, Forenbeiträge, Freeblogs, Gästebücher, Linkverzeichnisse etc. und wertet diese nicht so hoch.
seo2b-Erfahrungen
Eine Teilnahme an solchen Websites kann sinnvoll sein. Aber nur falls auch eine echte Community hinter diesen Websites steht. Aus SEO-Sicht ist es jedoch immer besser, Links von Seiten aufzubauen, hinter denen auch echte Redaktionen stehen. Google möchte, dass jemand anderes Ihre Website empfiehlt. Nicht Sie selbst.
Übermäßige Anwendung von 301-Umleitungen
Laut Aussagen von Google ist eine Reihenschaltung von mehr als vier bis fünf 301-Weiterleitungen unter Umständen gefährlich. Rankingpower könnte dabei verloren gehen.
seo2b-Erfahrungen
Versuchen Sie alte Links, die unter Umständen schon mehrfach per 301 weitergeleitet sind, an der Quelle zu ändern. Je weniger Weiterleitungen, desto besser.
Weitere Quellen und Nachweise
- Is there a limit to how many 301 (Permanent) redirects I can do on a site?
- What percentage of PageRank is lost through a 301 redirect? - YouTube
Anzahl der Links auf der linkgebenden Seite
Die Anzahl der Links auf der linkgebenden Seite hat laut PageRank-Theorie eine Bedeutung für die vererbte Rankingpower (Juice). Je mehr Links auf dieser Seite, desto schlechter.
seo2b-Erfahrungen
Es sieht eventuell nicht besonders gut aus, falls im Linkprofil eine hohe Anzahl an Seiten mit einem einzelnen Link zu Ihrer Website zu finden sind. Gute Seiten verlinken oft mehrfach und somit ist es auch völlig in Ordnung sich mit anderen Links den Linkjuice zu teilen.
Anzahl der Wörter auf der linkgebenden Seite
Ein Link von einer Seite mit 1.000 Wörtern bringt mehr als ein Link von einer Seite mit 100 Wörtern.
seo2b-Erfahrungen
Wir halten dies nicht in jedem Fall für akkurat. Dennoch haben Seiten mit mehr Wörtern deutlich mehr Kontext, in den sie einen Link einbetten können. Da Google diesen Kontext wahrscheinlich auswertet, dürfte es hier auch eine Art Zusammenhang geben. Vor allem, weil Links ja ohnehin idealerweise aus dem Text kommen sollten.
Nur viel Text alleine genommen, ist uns aber dennoch keine sehr hohe Bewertung wert.
Qualität Text Linkquelle
Automatisch erstellte Kauderwelsch-Texte können zu Abwertungen auch für die Links führen. Links aus spammigen Inhalten sollten auch nicht wirklich zählen. Dafür sind Links aus qualitativ hochwertigen Inhalten mehr wert.
seo2b-Erfahrungen
Wir glauben, dass sich das von selbst erklärt. Wobei man natürlich auf die Qualität der linkgebenden Seite selten Einfluss hat. Theoretisch wäre es denkbar, bereits auf uns verlinkenden Websites dabei zu helfen, ihren Content zu verbessern. So könnten wir Fehler eliminieren und Inhalte mit Updates versehen. Als Dankeschön für eine Verlinkung sozusagen. Wenn wir die Seiten unserer Linkgeber verbessern, dann werden auch die darauf erhaltenen Links stärker. Macht das schon jemand? Uns ist das nicht bekannt.

Interaktions-Faktoren
Wer irgendwo klickt, der agiert und erzeugt ein Signal. Viele dieser Klicks könnte Google als Rankingsignal nutzen.
Google Chrome
Ehemalige Google-Mitarbeiter bestätigen, dass Google „definitiv“ Nutzerdaten aus Chrome für das Ranking verwendet. Google Chrome sendet eine ganze Reihe an Daten an Google. Darunter Suchanfragen und alles, was Sie in die Omnibox tippen. Eine vollständige Liste veröffentlicht Google in den Datenschutzhinweisen zu Google Chrome.

Auch die Google-Toolbar übermittelt Daten an Google, die für das Ranking genutzt werden/wurden.
seo2b-Erfahrungen
Jetzt wissen wir auch, warum eine Suchmaschine wie Google einen eigenen Browser hat. Wir vergeben keine Höchstwertung, weil wir denken, dass externe Signale immer noch größer sind als diejenigen, die Chrome jemals an Google liefern kann. Nicht jeder verwendet Chrome!
Wer nicht möchte, dass seine Nutzerdaten an Google gesendet werden, der sollte in Chrome den Inkognito-Modus verwenden.
Weitere Quellen und Nachweise
- Google Chrome – Datenschutzhinweise
- Ask the Ex-Googlers Anything Panel: BrightonSEO 2013
- What Data of Mine Does Chrome Send to Google?
- Google Finally Admits Toolbar Data is a Ranking Signal
Durchklickrate für ein Keyword
Die Durchklickrate in der organischen Suchergebnisliste wirkt sich auf das Ranking aus.
Angenommen bei einer Suche zum Begriff [Abenteuerreise] befindet sich WebsiteA auf Platz 1 und WebsiteB auf Platz 2. Falls WebsiteB die größte Anzahl an Klicks erhält, kann Google sie auf Platz 1 befördern, obwohl alle anderen Faktoren sagen, dass sie eigentlich auf Platz 2 ranken sollte.

seo2b-Erfahrungen
Hier bekommen der Titel, die Meta-Description (enthält sie eine gute Handlungsaufforderung?) und die URL eine ganz neue Bedeutung. Diese Faktoren haben die Kraft Rankings zu beeinflussen. Nutzen Sie diese!
Weitere Quellen und Nachweise
- Yes, The Click-Through Rate Is A Ranking Signal, But…
- How Google Works: A Ranking Engineer's Perspective By Paul Haahr
Durchklickrate für alle Keywords
Google kann eine durchschnittliche Durchklickrate für eine Domain ermitteln und diese ebenfalls bei der Berechnung berücksichtigen.
MOZ-SURVEY-2015 | Umfrageteilnehmer halten diesen Faktor für sehr wichtig. |
seo2b-Erfahrungen
Siehe oben.
Bouncerate/Verweildauer
Ein Besucher klickt auf ein Suchergebnis und sofort wieder auf „Zurück“. Das Suchergebnis hat dann wohl nicht die Erwartung erfüllt. Passiert dies immer wieder bei einer Seite, dann könnte Google diese Seite abwerten. Umgekehrt erhöht es die Verweildauer auf der Seite, was ein positives Signal sein kann.
MOZ-SURVEY-2015 | Umfrageteilnehmer halten die Verweildauer bezogen auf die gesamte Domain für sehr wichtig. |
BACKLINKO-MIO | Niedrige Bouncerates haben eine starke Korrelation mit höheren Rankings. |
seo2b-Erfahrungen
Die Bouncerate korrespondiert mit der Verweildauer auf der eigenen Website. Wer die Verweildauer optimiert, der hat auch eine bessere Bouncerate. Eine geringere Bouncerate steigert in der Regel auch die Verweildauer und damit die Konversionsrate. Sie zu optimieren, lohnt sich also in jedem Fall. Wir bezweifeln jedoch, dass Google diese Faktoren als direkte Rankingsignale einsetzt. Und wenn doch, dann spielen sie nur eine sehr untergeordnete Rolle.
Bilder und Videos helfen dabei, die Verweildauer zu verbessern.
Weitere Quellen und Nachweise
- If you were an SEO of a large company, what would you include in your 2011 strategy?
- Matt Cutts: Google Doesn’t Use Bounce Rate
Wiederkehrende Besucher
Hat eine Website stetig über Google wiederkehrende Besucher, dann kann sie dafür einen Bonus erhalten.
seo2b-Erfahrungen
Wiederkehrende Besucher möchte wohl jeder Website-Betreiber haben. Am besten ist es, falls Ihre Besucher direkt Ihre Domain eingeben. Aus Sicht dieses Faktors hilft das jedoch nicht, außer vielleicht, wenn diese Besucher Google Chrome verwenden. Um diesen Faktor vollends auszunutzen, müssten Sie Ihren Besuchern mitteilen, dass diese immer über Google gehen sollten, um auf Ihre Website zu kommen. Das wäre theoretisch machbar, wir empfehlen es aber nicht. Die Abhängigkeit zu Google würde dadurch zu groß.
Nutzer-Interaktionen
Kommentare, Bewertungen und Nutzer-Interaktionen auf der eigenen Website können für Google ein Signal darstellen. Voraussetzung ist eine hohe Qualität der Signale bzw. deren Authentizität.
seo2b-Erfahrungen
Ermöglichen Sie Nutzer-Interaktionen auf Ihrer Website, aber auch anderen Bewertungsportalen.

Markensignale
Seit den berühmten Worten von Googles Ex-CEO Eric Schmidt legt Google verstärkt Wert auf Marken.
„Marken sind die Lösung, nicht das Problem. Marken räumen mit dem Spam auf.“
– Frei übersetzt nach Eric Schmidt
Im Laufe der Zeit haben sich so mögliche Faktoren herauskristallisiert. Diese drehen sich ausschließlich um die Marke als Rankingfaktor.
SEARCHMETRICS-2015 | stellt fest: „Offenbar ranken in den Top30 nun insgesamt noch mehr Domains, die bereits Brand-Charakter besitzen“. |
Vertrauenswürdige Marke
Wer das Vertrauen von Google gewinnen möchte, muss viele kleinere Signale in einer „Marke“ (Brand) bündeln. Dazu gehören u. a.:
- Die Verlinkung von anderen Autoritäts-Websites: Hochgradige Links von reputablen Personen, Unternehmen, Institutionen und den Medien.
- Ein Impressum und eine Datenschutz-Seite.
- Eine niedrige Bounce-Rate. Google kann diese vermutlich über Chrome messen.
- Eine ausführliche Über-uns-Seite.
- Aktive Social-Media-Accounts.
- Für einen langen Zeitraum registrierte Domains.
- Richtiges Zitieren.
Es geht darum, sich so zu verhalten, wie es eine renommierte Marke (Brand) tun würde.
seo2b-Erfahrungen
Eine Website mit einem hohen Vertrauen kann neue Seiten und Keywords ohne Verzögerung ranken und ist auch gegen Attacken besser geschützt (negatives SEO). Es ist ein langer Weg bis zur vertrauensvollen Marke, aber er lohnt sich ungemein.
Weitere Quellen und Nachweise
Reputation
Google spricht in seinen Guidelines für Quality-Rater vermehrt über die „Reputation“ von Websites. Was andere über einen sagen, sei viel wichtiger als das, was man selbst über sich sagt. Hierbei empfiehlt Google seinen Ratern auf vielerlei Quellen zurückzugreifen.
GOOGLE-SQRG | „Suche nach Informationen, die von einer Person stammen und nicht von aus Statistiken und maschinell erstellten Daten herrühren. News, Wikipedia-Artikel, Blogbeiträge, Magazinartikel, Forendiskussionen und Bewertungen von unabhängigen Organisationen können alle reputable Informationsquellen sein.“ |
Google macht die Recherche von Reputationsinformationen für alle Quality-Rater und für alle Bewertungsaufgaben zur Pflicht. („Reputation research is required for all PQ rating tasks“) Es wird also keine Seite bewertet, bevor nicht überprüft wurde, was andere Websites über diese Seite schreiben.
seo2b-Erfahrungen
Egal wer was über Sie sagt, es könnte Ihr Ranking beeinflussen. Versuchen Sie schlechte Rezensionen zu vermeiden oder zu entfernen. Ermuntern Sie zufriedene Kunden auf Ihren eigenen Websites oder in anderen Portalen über Sie zu schreiben. Pflegen Sie Ihre Reputation!
News-Themen
Eine Nennung des Markennamens in den Medien oder konstante Verlinkungen aus den Medien können dabei helfen, das Markensignal zu verstärken. Bekannte Marken finden täglich Erwähnung in den Medien. Google bietet für bestimmte Suchanfragen sogar einen eigenen Newsfeed. Wer sich so einen Newsfeed verdient, den könnte Google auch in den organischen Ergebnissen begünstigen.

seo2b-Erfahrungen
Konstante Pressearbeit kann sich lohnen. Auch wenn dies eher für die größeren Marken interessant ist. Was aber genau der Punkt ist!
Linktext mit Markennennung
Der Ankertext kann ein Markensignal sein, falls er aus dem Namen einer Marke besteht oder ihn enthält.
Brand: Googles Rankingfaktoren bei <a href="/google-ranking-faktoren/">seo2b</a>
Kombiniert: <a href="/google-ranking-faktoren/">Googles Rankingfaktoren bei seo2b</a>
seo2b-Erfahrungen
Verlinken Sie extern und intern öfters mit Ihrem (Marken-)Namen. Das ist wichtig.
Nennungen (ohne Link)
Marken werden sehr oft ohne Link genannt. Das kann Google als Markensignal interpretieren.
SEARCHMETRICS-2015 | „,Mentions’ – also die Nennung einer Domain oder einer Brand ohne Verlinkung – spielt zunehmend ebenfalls eine Rolle – insbesondere auf Domains mit thematischer Nähe.“ |
MOZ-CORRELATION-2015 | findet eine recht hohe Korrelation zwischen Nennungen der Domain und besseren Rankings. |
MOZ-SURVEY-2015 | Umfrageteilnehmer halten dies für sehr wichtig. |
seo2b-Erfahrungen
Links aufzubauen ist immer noch der entscheidende Faktor schlechthin. Manchmal reicht aber auch schon eine Nennung. Eine Nennung ist besser als nichts. Und ein Link ist besser als eine Nennung.
Markensuchen 
Wenn mehr Menschen direkt bei Google nach einer Marke suchen, dann rankt diese insgesamt höher.

MOZ-SURVEY-2015 | Umfrageteilnehmer halten ein hohes Suchvolumen für die Brand/Domain für sehr wichtig. |
seo2b-Erfahrungen
Wir empfehlen nicht zu versuchen, diesen Faktor händisch zu manipulieren. Den Status als „Brand“ muss sich jeder hart erarbeiten. Wir fragen uns jedoch bei aller Diskussion rund um Brands, ob es hier nicht einfach nur darum geht, Autoritätssignale aufzubauen.
Offizielle Seite bei LinkedIn und Xing
Offizielle Unternehmensseiten bei Xing und LinkedIn könnten Google Aufschluss darüber liefern, ob es bei diesem Unternehmen, um eine größere Marke handelt. Dabei könnte es zusätzlich helfen, falls Mitarbeiter sich auf diesen Seiten registrieren.
seo2b-Erfahrungen
Entsprechende Seiten einzurichten, könnte sich lohnen. Wir halten dies selbst nicht für einen Faktor, es spricht aber auch nichts dagegen, die eigenen Profile entsprechend anzupassen.
Lokales Listing bei Google+
Ein lokales Listing kann Aufschluss darüber geben, ob das Unternehmen Filialen/Standorte hat und somit ein „echtes“ Unternehmen im klassischen Sinne ist.
seo2b-Erfahrungen
Es schadet sicher nicht, so eine Seite anzulegen und zu pflegen.
Soziale Signale
Ob Google tatsächlich soziale Signale für das Ranking verwendet, ist hoch umstritten. Sehr wahrscheinlich ist, dass sie es versuchen. Google hat bereits mehrfach gesagt, dass soziale Signale keine Beachtung finden.
- Matt Cutts: Facebook, Twitter Social Signals Not Part of Google Search Ranking Algorithms
- Does Social Media Affect SEO? Matt Cutts Answers
Auch Googles eigener Dienst Google+ stelle keine ausreichende Datenquelle dar, da Google+ im Vergleich zu Facebook und Twitter nicht groß genug ist.
Korrelationsanalysen stellen immer wieder fest, dass hohe Rankings mit einer hohen Anzahl an sozialen Signalen einhergehen. Wir haben die großen sozialen Netzwerke aus diesem Dokument bewusst ausgelassen. Ausnahme ist Google+. Wir denken zwar auch, dass Google+ keine direkten Rankingsignale liefert, allerdings werden Posts aus dem Google+-Netzwerk in die Suchergebnisse eingeflochten. Google+ hat also unumstritten eine gewisse Relevanz für das Ranking. Auch wenn diese nur in für personalisierte Ergebnissen relevant ist.
SEARCHMETRICS-2015 | „Wir erkennen, dass höher gerankte Seiten auch mehr Likes & Shares, Tweets oder +1 aufweisen. Jedoch hat Google stets betont, dass Social Signals kein direktes Ranking-Signal darstellen.“ |
Autorität der Google+-Konten
Google wertet die +1en eventuell höher, falls sie von einem Konto kommen, welches selbst hohe Autoritäts-Signale sendet. Beispielsweise eine hohe Anzahl an Followern, eine hohe Interaktionsrate, eine hohe Publikationsfrequenz etc.
seo2b-Erfahrungen
Je nach Umfeld kann es sich lohnen, auf Google+ zu publizieren und zu interagieren. Kontakte bekommen so immer wieder Ihr Gesicht/Ihre Marke eingeblendet und gelangen auch über die Suchergebnisse auf Ihre Website.
Anzahl der Google+1
Die Anzahl der +1 bestimmt, wie hoch ein Post gerankt wird.
seo2b-Erfahrungen
Es ist wahrscheinlich weniger die Anzahl der +1 als eine Kombination von Shares, Anzahl und Qualität der Klicks und der Umstand, dass ein Share auch einen Link erzeugt. Leider ist dieser Link seit 2014 auf NoFollow.
Weitere Quellen und Nachweise
Negativfaktoren Onpage oder Onsite
Es gibt viele Negativfaktoren, die Google heranziehen kann, um Spam zu bekämpfen. Wer in einen solchen „Spam-Filter“ gerät, den kann Google ganz aus den Suchergebnissen herausschmeißen. Vorsicht ist geboten. Von den folgenden Faktoren sollten Sie nicht zu viel machen.
Die Bewertungen beziehen sich darauf, wie sehr sie diese Strategien meiden sollten. Eine hohe Bewertung bedeutet: Machen Sie das bloß nicht!
Die folgenden Faktoren beziehen sich auf OnPage-Signale, entweder auf der einzelnen Seite oder der gesamten Domain.
Panda-Penalty
Google hat Anfang 2011 (Panda-Update) verstärkt damit begonnen, ganze Websites dafür zu devaluieren, wenn diese hauptsächlich knappe und flache Informationen ohne jeglichen Tiefgang veröffentlichen. Wer mit einer solchen Penalty belegt wird, der muss viele unterschiedliche Maßnahmen ergreifen, um ihr wieder zu entkommen.
Laut Google ist Panda kein inkrementelles Update mehr. Panda ist jetzt voll in den Kernalgorithmus integriert.
seo2b-Erfahrungen
SISTRIX hat eine schöne Übersicht über Panda und was für Betroffene zu tun ist. Insgesamt lässt sich feststellen, dass es seit dem Panda-Update unmöglich geworden ist, mit „schlechten“ Inhalten gute Ergebnisse zu erzielen.
Weitere Quellen und Nachweise
Duplizierte Inhalte
Falls ein und der gleiche Inhalt (gilt auch für Meta-Informationen) mehrfach auf einer Website vorkommt, können darunter die Rankings leiden. Beispiel: Seite A ist sowohl unter website.xy/seite-a.html als auch unter website.xy/archiv/seite-a.html zu finden. Die Inhalte sind identisch. Nur die URLs unterscheiden sich.
seo2b-Erfahrungen
Google wird immer besser darin Duplicate-Content (DC) zu erkennen und selbst zu entfernen. Dennoch lohnt sich eine Prüfung der Website. Was im Falle von DC zu unternehmen ist, hat Google auf einer speziellen Seite (s. u.) zusammengefasst.
Weitere Quellen und Nachweise
Crawlingfehler
Wenn der Google-Bot viele Crawlingfehler ertragen muss, dann ist dies wahrscheinlich kein gutes Signal für Google.
MOZ-SURVEY-2015 | Umfrageteilnehmer halten viele Crawlingfehler und 404-Seiten für schädlich. |
seo2b-Erfahrungen
Prüfen Sie Ihre Website, zum Beispiel in der Search-Console auf Crawlingfehler und beseitigen diese schnellstmöglich.
Page-Assets blocked durch robots.txt
Wenn der Google-Bot keine CSS- und JS-Dateien laden darf, dann kann er nicht erkennen, wie ein Besucher die Seite sieht. Er denkt vielleicht: „Was möchte diese Website vor mir verstecken?“
MOZ-SURVEY-2015 | Umfrageteilnehmer halten geblockte Asset-Dateien für schädlich. |
seo2b-Erfahrungen
Entblocken Sie Ihre Asset-Dateien.
Cloaking
Cloaking oder das absichtliche Verstecken von Inhalten (zum Beispiel mit Sneaky-Redirects), die nur für die Suchmaschine bestimmt sind, können zum kompletten Ausschluss aus den Suchergebnissen führen.
seo2b-Erfahrungen
Dies ist eine Black-Hat-Strategie. Finger weg.
Weitere Quellen und Nachweise
Kaputte Links
Viele kaputte Links deuten auf eine ungepflegte Website hin.
seo2b-Erfahrungen
Pflegen Sie regelmäßig Ihre Links.
Links in schlechte Nachbarschaft
Wer auf „verdächtige“ (zum Beispiel Adult oder typische Spamthemen) Seiten verlinkt, den kann Google dafür abwerten.
MOZ-SURVEY-2015 | Umfrageteilnehmer halten Links zu anderen Spamseiten für sehr schädlich. |
seo2b-Erfahrungen
Prüfen Sie regelmäßig Ihre Links. Verlinkungen auf verdächtige Seiten passieren in der Regel, weil alte Domains auslaufen, von Spammern übernommen werden, die dort dann fragwürdige Inhalte platzieren. So verlinken Sie plötzlich auf fragwürdige Inhalte, ohne es zu wissen.
Störende Werbung
GOOGLE-SQRG | Eine manuelle Prüfung durch einen Quality-Rater kann ergeben, dass Ihre Website zu viele Popups oder irreführende Werbeflächen enthält. |
Eine Degradierung kann die Folge sein. Ein Beispiel ist Googles Page-Layout-Update.
MOZ-CORRELATION-2015 | findet eine hohe Korrelation zwischen der Anzahl an Werbeblöcken und schlechteren Rankings. |
MOZ-SURVEY-2015 | Umfrageteilnehmer halten zu viel Werbung für sehr schädlich. |
seo2b-Erfahrungen
Übertreiben Sie es nicht mit der Werbung. Ihre Besucher sollten immer zuerst den Inhalt einer Seite sehen und nicht die Werbung.
Weitere Quellen und Nachweise
Automatisch erstellte Inhalte
Automatisch erstellte Inhalte sind Google schon lange ein Dorn im Auge.
GOOGLE-SQRG | „Bewerte Seiten oder Websites, die aus automatisch erstellten Inhalten bestehen, ohne Überarbeitung und ohne manuelle Zusammenstellungsleistung, ohne originelle Inhalte und ohne Mehrwert, mit der geringsten Bewertung.“ |
seo2b-Erfahrungen
Es geht nichts über echte, von Menschen erstellte Inhalte.
Weitere Quellen und Nachweise
Übermäßige Optimierung
Wer zu viel SEO macht, den bestraft Google. Beispielsweise eine übermäßige Verwendung von Keywords (Keyword-Stuffing) in Titel, Meta-Description, Überschriften, Text, exzessives PageRank-Sculpting etc.
MOZ-CORRELATION-2015 | Nur eine kleine Anzahl an externen Links enthält den Markennamen korreliert mit schlechteren Rankings. |
MOZ-SURVEY-2015 | Umfrageteilnehmer halten überoptimierte Ankertexte und Keyword-Stuffing für sehr schädlich. |
seo2b-Erfahrungen
Der Grat ist schmal zwischen der perfekten Optimierung und der Überoptimierung. Google erkennt, wie viel SEO Sie machen. Wer es damit übertreibt, läuft Gefahr. Auch wenn es schwierig zu erkennen ist: Manchmal ist es ratsam, etwas weniger SEO zu machen.
Affiliate Sites
Google ist kein Fan von Affiliates.
seo2b-Erfahrungen
Wer ein Affiliate-Projekt betreibt, der sollte besonders vorbildlich agieren.
Weitere Quellen und Nachweise
Negativfaktoren Offpage
Die folgenden Faktoren beziehen sich auf OffPage-Signale (Link/Nennung), entweder auf einzelne Links bezogen oder aber auf das gesamte Linkprofil.
Penguin-Penalty
In einem historischen Update am 24.04.2012 hat Google damit begonnen, Seiten und gesamte Websites für minderwertige externe Links abzuwerten. Seitdem sind Website-Betreiber nicht mehr nur für die Inhalte auf der eigenen Website verantwortlich, sondern auch für Links, die andere Menschen auf ihre Seiten setzen.
Pinguin greift ein, falls eine Website eine prozentual hohe Anzahl von Links aus minderwertigen Quellen vorweist, beispielsweise aus Blogkommentaren, Forenprofilen, Gästebüchern etc., die darauf hinweisen, dass der Website-Betreiber offensichtlich versucht, Google zu manipulieren.
Ähnlich wie beim Panda-Update ist Pinguin ursprünglich ein inkrementelles Update. Google plant jedoch für 2016, Pinguin ebenfalls in den Kernalgorithmus zu integrieren.
seo2b-Erfahrungen
Wer einmal vom Pinguin erwischt wird, der kommt nur sehr langwierig und mit extremem Aufwand wieder raus. Es lohnt sich vor vornherein in qualitativ hochwertigen Linkaufbau zu investieren. Seit Pinguin kommt es weniger darauf, an „gute Links“ denn „qualitativ hochwertige Links“ aufzubauen, die zum Beispiel auch einer Prüfung durch Quality-Rater standhalten.
Weitere Quellen und Nachweise
Verlinkungs-Schemata
Google führt eine ganze Reihe an für das Ranking schädlichen Linktaktiken auf. Die Anwendung dieser Taktiken kann sich negativ auf die eigenen Rankings auswirken. Hierunter fallen (auszugsweise):
- Kauf oder Verkauf von Links
- Exzessiver Linktausch
- Artikel-Marketing
- Gastbeiträge mit Ankertextlinks, die viele Keywords enthalten
- Automatisiertes Erstellen von Links zur eigenen Website
- und viele mehr
SISTRIX | „[W]as sind Spamlinks noch wert, wenn Google die tatsächlichen Besucherströme über den Google Chrome Browser messen kann?“ |
MOZ-SURVEY-2015 | Umfrageteilnehmer halten eine hohe Anzahl an unnatürlichen Links für ultimativ schädlich. Nichts ist schädlicher. |
seo2b-Erfahrungen
Google gibt auch gleich einen Tipp mit, was zu tun ist, wenn man nicht von Google abgestraft werden möchte:
„Die beste Methode, Webmaster anderer Websites dazu zu bewegen, über hochqualitative Links auf Ihre Website zu verweisen, sind individuelle und relevante Inhalte, die sich ohne Manipulation großer Beliebtheit bei der Internet-Community erfreuen. Das Erstellen guter Inhalte zahlt sich aus: Links sind meist redaktionelle Bewertungen, die freiwillig abgegeben werden, und je nützlicher Ihre Inhalte sind, desto höher sind die Chancen, dass jemand anderes diese Inhalte als wertvoll für seine Leser erachtet und auf Ihre Seite verlinkt.“
Weitere Quellen und Nachweise
Links aus schlechter Nachbarschaft
Die Vermutung liegt nahe. Wer Links von Seiten bezieht, die selbst offensichtlich zu einer schlechten Nachbarschaft gehören, spielt mit dem Feuer. Offensichtliche Linknetzwerke gehören ohne Zweifel zu dieser schlechten Nachbarschaft. Google kann diese Netzwerke aufdecken, was Google auch weltweit schon mehrfach getan hat.
seo2b-Erfahrungen
Analysieren Sie Ihr Linkportfolio und schauen Sie sich auch das Linkumfeld verdächtiger Links an. Könnten diese Teil eines Netzwerkes aus minderwertigen Publishern sein? Dann räumen Sie auf und fügen diese Links proaktiv Ihrer Disavow-Liste hinzu. Ein Disavow ist ein für ungültig erklärter Link.
Weitere Quellen und Nachweise
- Vorsicht, Linknetzwerk! – Google bestraft deutsche SEO-Agentur und ihre Kunden
- Backlinks für ungültig erklären - Search Console-Hilfe
Offensichtlich Links verkaufen
Links verkaufen und diese auch noch als Kauflinks auszuzeichnen, zum Beispiel mit Begriffen wie Partner oder Sponsored by etc. kann zu einer Abwertung führen.
seo2b-Erfahrungen
Tun Sie es lieber nicht.
Linkspam-Welle
Rasantes Linkwachstum kann ein Warnsignal sein. Oft handelt es sich hier um Spamlinks.
seo2b-Erfahrungen
Keine Sorge vor vielen Links, falls diese alle qualitativ hochwertig sind. Bitte prüfen Sie solche Vorkommnisse. Kommen die Links aus einer sauberen Aktion? Ansonsten könnte es ich auch um einen Linkspam-Angriff handeln. In diesem Fall sollten Sie reagieren und versuchen, diese Links zu entwerten.
Linkwarnung
Wer einen „Blauen Brief“ von Google erhalten hat, der muss umgehend darauf reagieren, um eine Chance darauf zu haben, die vorherige Sichtbarkeit zurück zu gewinnen.
So eine Benachrichtigung von Google deutet explizit darauf hin, dass Google Links gefunden hat, die gegen die Webmaster-Richtlinien verstoßen.
seo2b-Erfahrungen
Jetzt ist Handeln angesagt. Google listet selbst auf, welche Schritte notwendig sind.
Weitere Quellen und Nachweise
Unnatürliche Links zu Ihrer Website
Disavowed
Google könnte die Disavows (für ungültig erklärte Links) anderer Webmaster dazu benutzen, auf die Qualität von Seiten und Domains zu schließen.
MOZ-SURVEY-2015 | Umfrageteilnehmer halten die Anzahl der Disavows für schädlich. |
seo2b-Erfahrungen
Dagegen kann man nicht wirklich etwas tun. Ziemlich schlau dieses Google.
Manuelle Bestrafung
Google ist bekannt dafür, auch mal öffentlich eine manuelle Strafe auszuhändigen. Sogar sich selbst hat Google schon mehrfach abgestraft.
seo2b-Erfahrungen
Wer gegen die Richtlinien verstößt, muss jederzeit damit rechnen. Aus so einer Penalty herauszukommen, ist dann nicht immer möglich.
Weitere Quellen und Nachweise
- 5 Times Google Penalized Itself For Breaking Its Own SEO Rules
- 10 Big Brands That Were Penalized By Google, From Rap Genius To The BBC
Negative Bewertungen
Negative Bewertungen auf Nutzerportalen wie zum Beispiel Yelp könnten Rankings beeinflussen.
Erstaunlicherweise hat sich Google sehr umfangreich zu diesem Faktor geäußert, da einige Anbieter davon ausgegangen sind, dass negative Bewertungen und die daraus entstehenden Links zu positiven Rankingeffekten führen können. In diesem Zusammenhang hat Google sogar bestätigt, dass sie seit mindestens 2007 über ein „Weltklasse-Tool zur Sentimentanalyse“ verfügen. Mit so einem Tool lässt sich bestimmen, ob jemand für oder gegen einen bestimmten Sachverhalt ist. Sie schildern sogar, dass sie die Stimmungsanalyse für den Einsatz als Rankingfaktor getestet haben. Leider ohne Erfolg. In Zukunft könnte dieser Faktor allerdings noch eine Rolle spielen.
seo2b-Erfahrungen
Schreiben Sie bloß keine negativen Kommentare über sich selbst!
Bewertung
- Official Google Blog: Being bad to your customers is bad for business
- Large-Scale Sentiment Analysis for News and Blogs
Gastbeiträge
Links aus Gastbeiträgen und hier speziell Links aus der Autorenbox könnten von Google als negativ eingestuft werden.
seo2b-Erfahrungen
Falls Sie Gastbeiträge schreiben, dann verlinken Sie nach Möglichkeit auch innerhalb des Textes auf weiterführende Inhalte der eigenen Website. Nicht nur aus der Autorenbox. Selbstverständlich brauchen Sie dazu auch passende, hochwertige Inhalte auf der eigenen Website.
Weitere Quellen und Nachweise
Giftige Linktexte
Wenn giftige Linktexte auf die eigene Website zeigen, dann kann dies zu einer Penalty führen. Giftige Linktexte kommen meist aus spamaffinen Branchen, zum Beispiel „Kaufe Potenzmittel hier“.
seo2b-Erfahrungen
Achten Sie auf solche Linktexte und versuchen Sie, sie zu entfernen. Wenn das nicht klappt, dann bleibt immer noch das Disavow-Tool.
Fazit
Diese Meta-Studie beleuchtet insgesamt weit über 100 Faktoren. Warum sind es nicht mehr, da ja beispielsweise BACKLINKO-GRF über 200 Faktoren listet? Das liegt einfach an der Art, wie diese Faktoren von den jeweiligen Quellen zusammengefasst werden. Viele Faktoren sind im Prinzip Duplikate oder aber manchmal auch einfach unbrauchbar. Wir haben so gut wie möglich zusammengefasst, aber auch viele Faktoren gestrichen.
Was gibt es Neues in der Welt der Rankingfaktoren? Leider nicht viel. Google schützt den Algorithmus so gut wie Coca Cola die Rezeptur ihrer weltberühmten Zuckerbrause. Allerdings veröffentlicht Google selbst immer mehr sehr interessante Informationen.
Neu ist, dass Google die seit vielen Jahren immer wieder „geleakten“ Search Quality Rating Guidelines jetzt auch offiziell herausgibt. Diese Ressource wird von Jahr zu Jahr umfangreicher und besser. Für alle SEOs, die strategisch und langfristig denken, liefert sie – unter allen hier verglichenen Quellen – sicher die wertvollsten Informationen. (Hier eine Zusammenfassung: 30+ Important Takeaways from Google's Search Quality Rater's Guidelines).
Für Anfänger und Profis zugleich, bleibt eine simplistische – von Google immer wiederholte – Formel weiterhin der Maßstab aller Dinge: Kreieren Sie gute Inhalte für Ihre Leser! Denn was für den Leser gut ist, gerade das möchte Google anzeigen. Zu Zeiten von Google Chrome bekommt diese Aussage eine ganz neue Gewichtung, denn Google weiß unter Umständen sehr genau, wie der Besucher auf Suchergebnisse und Ihre Websites reagiert. Das ist für uns Grund genug auch in Zukunft immer mehr über den Tellerrand zu schauen und Faktoren aus Usability- und Konversions-Optimierung zu berücksichtigen.
Viel Erfolg bei der Suchmaschinenoptimierung wünscht Ihnen
das SEO-Team bei seo2b
Newsletter abonnieren und Meta-Studie als PDF erhalten
Newsletter
- Lassen Sie sich regelmäßig über die wichtigsten Neuigkeiten informieren
- Erfahren Sie als Erster von besonderen seo2b Aktionen
- Exklusive Informationen für Abonnenten
- Absolut unverbindlich. Jederzeit abmeldbar
Kommentar schreiben
Kommentar von Frank |
Hut ab! Das ist wirklich ein ausführlicher und detaillierter Artikel zum Thema Rankingfaktoren. Tolle Infos und sehr schön aufbereitet! Auch mit vielen Jahren SEO-Erfahrung schön zu lesen ;-)
Herzlichen Dank dafür!
Kommentar von Rolf-W. Antweiler |
Wenn der direkte Download nur über Newsletterabonnement läuft, wie erhalten die alten Newsletterabonnenten den Download? Eine Anforderung unter bestehender E-Mail ist nicht möglich, aber ohne Registrierung keine Pdf-Download. Selbige müssten das Pdf entweder als Dateianhang oder über Codeeingabe einen Sonder-download erhalten.
M.f.G.
Rolf-W. Antweiler
P.s.: Bin mal gespannt was jetzt kommt oder ob ich den NL abbestellen muss.
Kommentar von Christian Weber [seo2b GmbH] |
Guten Tag Herr Antweiler.
Die PDF-Datei kann über die Newsletter-Anmeldung angefordert werden, auch wenn der Newsletter bereits abonniert wurde. Die Datei wird Ihnen auch bei bestehendem Abonnement per Email zugestellt.
Wenn Sie die erneute Eingabe Ihrer Daten in das Formular auf dieser Seite schon durchgeführt haben, sollte die PDF-Datei also bereits in Ihrem Postfach angekommen sein.
Die Seite, auf die bestehende Abonnenten umgeleitet werden, wurde inzwischen angepasst, um weitere Unklarkeiten auszuräumen.
Mit freundlichen Grüßen
Christian Weber
Kommentar von Stefan |
Dies ist die umfassendste Analyse die ich je zu diesem Thema gesehen habe.
Kompliment!
Kommentar von Christoph Decker |
Sehr interessante Zusammenfassung von Rankingfaktoren.
Anmerkung zum Punkt: "Aktualisierung der Website" ist sehr wichtig.
Wenn es sich um zusätzliche Seiten dreht, ist die Aktualisierung sicher ein guter Rat.
Wenn man allerdings einzelne HTML-Seiten mit Top-10-Rankings hat, sollte man sehr vorsichtig mit Aktualisierungen dieser Seiten sein, denn sonst kann es schnell passieren, dass das Top-10-Ranking in Eimer ist. Es gibt viele einzelne Webseiten, die seit Jahren - fast unverändert - Top-Rankings haben.
Kommentar von Christoph Szepanski |
Das ist sehr interessant. An manchen Stellen sicherlich noch ausbaufähig, aber ich freue mich sehr, dass auch für mich ein paar Dinge dabei sind, die ich richtig spannend finde.
Es ist eh immer so, dass ich mir alles Mögliche durchlese und selbst Anfänger-Guides von "Experten" konsumiere. Dabei kommen, zumindest mir, so oft neue Ideen und Ansätze ... einfach herrlich. So auch hier, obwohl das alles andere als Anfängerkost ist. Herzlichen Dank.
Kommentar von Salih Daglar |
Wow,
Das sind so viele eindrücke.
Nützlichste Informationen sehr gut zusammengestellt und detailliert beschrieben.
DANKE FÜR DIE MÜHE
Kommentar von Dirk |
Ein sehr gut recherchierter Beitrag. Gefällt mir und trifft den Zahn der Zeit.
Kommentar von Mark |
Sehr schöne Idee mit dieser Zusammenfassung!
Kommentar von Udo |
Das nenne ich jetzt mal eine wirklich allumfassende Zusammenfassung zum Thema Seo. War sehr schön das Thema als ganzes nochmal in sich aufzusaugen
Kommentar von Nico Schubert |
Krasser Beitrag! Da habt ihr euch echt Mühe gegeben und dieser bietet wirklich einen Mehrwert. Ich glaube dieser wird viel Aufmerksamkeit auf sich ziehen. Macht weiter so.
Kommentar von Niklas |
Ganz vielen Dank für die umfassend aufgelistete Studie! Gerade für noch unerfahrene SEOs eine Art Handbuch, mit dem man drauf los optimieren kann. :) Sehr übersichtlich, gefällt mir! :)
Kommentar von Annette |
Ich würde auch gerne in den Genuss dieser sicherlich sehr interessanten Studie kommen. Daher habe ich mich für den Newsletter angemeldet. Die Anmeldebestätigung ist auch gekommen. Die Frage ist nur - wie komme ich jetzt an die pdf? Ich werde jedes Mal nur zu dem Anmeldeformular geführt. Es wäre sehr nett, wenn Sie mir die Studie an meine o.g. eMail Adresse schicken würden. Vielen Dank :-).
Kommentar von SEO Agnes |
Wow. Mein Respekt. Das ist wirklich mal eine vollständige - ok...NAHEZU vollständige Liste.
Vor allem für Neulinge ist das mal ein toller Überblick.
Wirklich toll. Lieben Gruss,
Agnes
Kommentar von Gray SEO Global |
Great article! Thanks for this.
Kommentar von Rainer Reitz |
Toll gemacht, vielen Dank! Eine sehr umfassende, schön aufbereitete Darstellung.
Kommentar von Daniel |
Ein wirklich sehr guter Artikel. Ich habe mir mal die Zeit genommen und den ganzen Artikel gelesen und viel neues gelernt. Mal sehen wie hoch ich mit meiner neuen Webseite ranken werde.
Beste Grüße
Daniel
Kommentar von 10 seos |
This is the most awesome post. That's why I love to land on this page directly. Great work to motivate and get started for the betterment
Kommentar von Daniel |
Eine wirklich tolle und ausführliche Zusammenfassung der wirklich relevanten Themenbereiche!
Vielen Dank für die Mühe und Veröffentlichung.
LG
Daniel
Kommentar von William |
Vielen Dank für die guten Tipps. Hat mir wieder ein paar Anregungen gegeben, wie man seinen Webdesign-Kunden das Thema SEO ans Herz legen und die Notwendigkeit besser erläutern kann.
Kommentar von Mark Kirk |
Thanks for the article - I found no 27 of particular interest with the shorter the url path the better. Never thought about it that way before.
Kommentar von Abrar Patel |
Thanks for such a detailed write up. I completely agree with what you said about page rank and how to gauge it these days without having the exact data.
Kommentar von Adelaide |
Great article! Thanks! :)
Kommentar von auto-export-hamm |
thanks your is very god
Kommentar von Marie M |
Danke für die ausführliche Aufzählung und die damit verbundene Mühe!
Ich konnte sehr viel neues erfahren und versuche nun dies umzusetzen.
Kommentar von Mia |
Hallo und vielen lieben Dank für diesen informativen Beitrag, ich muss sagen das ich hierdurch vieles neues lernen konnte.