Google Panda 4.0 – Das sollten Sie wissen

von Timo Abid

Am 21. Mai war es soweit: Matt Cutts kündigte den anlaufenden Rollout des Panda-Updates 4.0 offiziell an. Die Versionsnummer ließ auf ein größeres Update schließen, das laut Matt Cutts noch nicht einmal 10 Tage benötigte, um weltweit aktiv zu sein. Wie nicht anders zu erwarten bei solchen Neuerungen: Viele Domains reagierten prompt auf die neuen algorithmischen Bewertungen – mit zum Teil drastischen Sichtbarkeitsveränderungen. Welche ersten Erkenntnisse sind aus den jüngsten Ereignissen zu ziehen? Worauf sollten Sie zukünftig achten?

Mit dem ersten Panda Update im Sommer 2011 hatte Google den Grundstein für den Kampf gegen Webseiten mit qualitativ minderwertigen Inhalten gesetzt. Dies war auch zwingend erforderlich, da immer mehr nicht lesenswerter Content manuell oder gar maschinell erstellt und ins Internet „gepumpt“ wurde. Da es eine der Hauptbestrebungen seitens Google war und ist, dem Nutzer der Suchmaschine bestmögliche und zufriedenstellende Ergebnisse zu liefern, musste reagiert und die Flut an schlechten Inhalten und Spam eingedämmt werden.

Prügel- oder Streicheleinheit: die zwei Gesichter des Pandas

Das neueste Update hatte für viele Seiten vehemente Sichtbarkeitseinbußen zur Folge. Andere wiederum konnten ordentlich zulegen, so auch Seiten, die in der Vergangenheit dem Panda „zum Opfer fielen“. Insofern hat hier Google scheinbar einige Fesseln gelockert. Auf die Bildersuche und die Universal-Search-Integrationen in der regulären Google-Suche hatte das Update jedoch keinen ersichtlichen Einfluss.

Verlierer

Zu den bekanntesten aktuellen Verlierern zählen z.B. ebay.de, softonic.de und idealo.de. Alle drei Seiten haben gemeinsam, dass sie durch aggregierten, nicht selber erstellten Content, Thin Content oder ähnlichen minderwertigen Content auffallen.

 

Fall 1: Ebay.de

Die Pranke des Panda traf hier das Verzeichnis /bhp/ der Domain ebay.de. Alleine dieses Verzeichnis mit den dazugehörigen Unterverzeichnissen wies ein mehr als imposantes Wachstum auf: von 0 auf ungefähr 1.500.000 Sichtbarkeitspunkte innerhalb von nur 14 Monaten (April 2013 – Mai 2014). Jetzt liegt die Sichtbarkeit wiederum bei annähernd 0: 8 Punkte (~100% Verlust, Stand 29.06.2014).

Bild 1: Visibility-Entwicklung und Reaktion des Unterverzeichnisses ebay.de/bhp/ auf Google Panda 4.0

Bei der Ergründung der Ursache wird schnell klar, dass Ebay offensichtlich seit April 2013 spezielle Landingpages zu (intern) stark gesuchten Keywords aufbaute und diese parallel zu den eigentlichen Kategorien ins Rennen schickte. Durch eine geschickte interne Verlinkung von allen herkömmlichen Kategorien innerhalb der regulären Navigationsstruktur und einer Art Sitemap unter der URL ebay.de/bhp/ gewannen die Landingpages auch an genügend Power, um gute Rankings einzufahren.

Bild 2: Zentrale „Verteilerseite“ unter www.ebay.de/bhp/

Da diese Seiten jedoch wie suchmaschinenoptimierte Parallelversionen der regulären Ebay-Kategorien wirken und letztlich nichts anderes als filterbare Suchergebnisseiten zu bestimmten trafficstarken Begriffen darstellen (Bild 3, links, URL des Beispiels: http://www.ebay.de/bhp/felgen), stufte Google diese „speziellen“ Seiten hochgradig als Thin Content (mit dem Beigeschmack von doppeltem Content) ein. Warum sollten die gleichen Angebote der Ebay-Seiten nochmals unter anderen URLs dargeboten werden, wenn dann doch letztlich wieder auf die Artikelseiten verwiesen wird (Bild 3), die über den bekannten Navigationspfad (Bild 3, rechts, URL des Beispiels:http://www.ebay.de/sch/Felgen-/9888/i.html?_nkw=felgen) erreichbar sind? Beide URLs der Beispielseiten sind für die Indexierung freigegeben.

Bild 3: Zwei Filter-/Suchergebnisseiten mit identischen Inseraten (sichtbar übereinstimmendes Inserat rot markiert)

 

Fall 2: Softonic

Auch hier schielte der Panda auf ein Unterverzeichnis der Domain, womit klar ist, dass Google nicht nur vollständige Domains, sondern gezielt Verzeichnisse oder gar einzelne URLs abstrafen kann und dies auch tut. In diesem Fall ist insbesondere das Verzeichnis /s/ drastisch vom Update betroffen (Bild 4). Der Verlust: ca. 60% (von 473.182 auf 191.271, Stand 29.06.2014).

Bild 4: Sichtbarkeitsverlust der Suchergebnisseiten der softsonic.de infolge Google Panda 4.0 Update

Die Ursache ist schnell gefunden: Unter dem Verzeichnis /s/ werden Suchergebnisse abgebildet. Eine Indexierung wird u.a. durch Verteilerseiten ermöglicht, die unter dem Deckmantel „Aktuelle Suchen“, „ Weitere Suchanfragen“ und „Beliebte Suchbegriffe“ auftreten und massenhaft Suchbegriffe enthalten, welche auf unzählige Blätterseiten verteilt sind (Bild 5). Diese extreme Art der internen Verlinkung von Ergebnisseiten führte zur drastischen Indexierung und Anreicherung der Google Suchergebnisse mit sehr dünnem Content zu stark gefragten Themen innerhalb, aber auch außerhalb softonic.de.

Bild 5: Verteilerseite mit massiver interner Verlinkung mittels „beliebter Suchbegriffe“

 

Fall 3: idealo.de

Das für Preisvergleiche bekannte Portal kam beim ersten Panda-Update 2011 noch mit einem blauen Auge davon. Jetzt aber folgte die Retourkutsche, indem Google das wichtigste Verzeichnis /preisvergleich/ entwertete: ca. 21,00% Verlust (von 1.402.848 auf 1.103.430, Stand 29.06.2014).

Bild 6: Sichtbarkeitsverlust der idealo.de  infolge Google Panda 4.0 Update

Bei Idealo.de handelt es sich um eine Preissuchmaschine, die sich durch eine extrem hohe Anzahl an Preisübersichten, mit über 150 Mio. Angeboten aus über 36.500 Online-Shops, auszeichnet. Bedingt durch den Umfang der gelisteten Produkte kann hier nur mit aggregierten Daten gearbeitet werden (abgesehen von einigen SEO-Kategorietexten und Nutzer-Meinungen), die hier zumeist aus standardisierten (technischen) Produktbeschreibungstexten bestehen und aufgrund der Verwendung auf anderen externen Webseiten zu einer Duplicate Content-Problematik führen. Von informativem Mehrwert durch eigenständige Inhalte kann bei Idealo also keine Rede sein. Zusätzlich wird durch die Verwendung sehr ähnlicher Beschreibungstexte (z.B. bei technischen Geräten mit nur geringen Ausstattungsabweichungen) interner Duplicate und Thin Content erzeugt –  Dinge, die der Panda gar nicht mag.

Bild 7: Beispiel eines aggregierten Produktbeschreibungstextes (hier technische Angaben)

Gewinner

Auf der anderen Seite zauberte das Update strahlendes Lächeln in die Gesichter vieler Website-Betreiber, hatte dieses doch mitunter sehr positive Entwicklungen der Internetsichtbarkeit zur Folge. Bei den Gewinnern ließ sich erkennen, dass hier zumeist Websites mit umfangreicheren Content-Stücken aus redaktioneller und eigener Feder vorliegen (z.B. lifeline.de, Fall 1), aber auch Kandidaten, bei denen eher ein kritisches Ende zu erwarten gewesen wäre, wie z.B. ladenzeile.de (siehe Fall 2) und billiger.de (siehe Fall 3), profitierten.

 

Fall 1: lifeline.de

Auch knapp vier Wochen nach dem Update zeigt die Domain einen starken Anstieg der Internetsichtbarkeit. Von ehemals 3.453 Punkten ging es bis zum 29.06.2014 auf stolze 25.128 Punkte nach oben, was einem prozentualen Zuwachs von ca. 627% entspricht.

Bild 8: Mehr als beachtlicher Zuwachs der Internetsichtbarkeit der lifeline.de, dem Panda 4.0 sei Dank

Das Portal ist ein umfangreiches Informationsportal mit nutzerorientierten Artikeln rund um das komplexe Thema Gesundheit und Familie. Die Navigationsstruktur ist als sehr gut zu bewerten und die Artikelseiten weisen eine sinnvolle Verlinkung zu weiterführenden Informationen zum gleichen Themenbereich oder verwandten Themen auf (Bild 9). Ebenso wird die aktive Community mit integriert, die diskutiert, nützliche Informationen beisteuert und zum regelmäßigen Wiederkehren animiert. Insofern ist die Website in vielerlei Hinsicht mit Mehrwert ausgestattet.

Bild 9: Beispiel der lifeline.de

 

Fall 2: ladenzeile.de

Obwohl es sich um ein Preisvergleichsportal handelt, konnte die Website gute Zuwächse verbuchen. Von 212.634 Punkten ging es aktuell (29.06.2014) auf 487.882 Punkte hinauf, was einem Zuwachs von ca. 129% entspricht.

Bild 10: Klarer Aufwärtstrend der Internetsichtbarkeit der ladenzeile.de nach dem Update

Als einen besonderen Grund für den positiven Verlauf kann hier die Verfahrensweise der Produktpräsentation herangezogen werden. Zum einen wirkt die Seite weitaus offener und übersichtlicher als z.B. idealo.de, was insbesondere an der deutlich abweichenden Herangehensweise bei der Auflistung der Produkte und Shops liegt. Zum anderen – und dies ist unserer Auffassung nach ein wichtiger Faktor – werden die genutzten Standart-Produktbeschreibungstexte auf separaten Seiten aufgeführt, deren Indexierung durch die Meta-Robots-Anweisung NOINDEX verhindert wird. Dadurch hat ladenzeile.de nicht mit externen Content-Duplikaten zu kämpfen und nimmt somit Abstand zur Einstufung als stupiden Content-Aggregator.

 

Fall 3: billiger.de

Während das Wachstum der Internetsichtbarkeit in den letzten Jahren stetig abnahm und in den vergangenen Monaten vor sich her „dümpelte“, schoss sie im Mai, durch den Panda beflügelt, von 113.103 Punkten auf 258.043 Punkten, also um ca. 128% in die Höhe.

Bild 11: Guter Anstieg der Internetsichtbarkeit der ladenzeile.de nach dem Update, aktuell am stagnieren

Obwohl billiger.de vom Ablauf der Artikel-/Anbieterpräsentation und Navigation stärker zum Verlierer idealo.de tendiert, liegen doch einige Unterschiede vor, die unserer Einschätzung nach das Zünglein an der Waage  sein könnten. Von der deutlich übersichtlicheren Navigation und der gelungenen Produktlistung abgesehen, ist festzustellen, dass zu einigen der stichprobenartig geprüften Produkte einzigartige Fließtexte als Beschreibungen, also keine aggregierten Standartinformationen, verwendet werden. Einen klaren Mehrwert bieten die Übersichten vorhandener Produkttests externer Seiten, deren Ergebnisse häufig durch ein billiger.de-Fazit inkl. Vorteile-Nachteile-Gegenüberstellung kurz zusammengefasst werden, und dem Besucher mitunter den Aufruf des Gesamttests ersparen können. Neben den klassischen Kommentaren und Produktbewertungen besteht zudem die Möglichkeit für die Besucher, Vor- und Nachteile des jeweiligen Artikels anzugeben, die dann in einer Pro-/Kontra-Gegenüberstellung schnell erfassbar sind.  Im Unterschied zu idealo.de erhalten Nutzer bei billiger.de demnach einen größeren Mehrwert, aufgrund der zusätzlich geschaffenen Transparenz zu den Produkten und ihrer Qualität.

Zu Gast im Mai und Juni : Payday Loan 2.0 & 3.0

Am Wochenende, dass dem Panda Update vorausging (17. / 18. Mai) sowie kurz vor Fertigstellung dieses Beitrages, hatte Google eine neue Iteration des sogenannten Payday Loan Update auf die Webseiten losgelassen, das erstmals im Juni 2013 in Erscheinung trat. Dieses Update zielt vor allem auf sehr spammige Suchanfragen und Webspam, wobei hier die besonders gewinnträchtigen Money-Keywords im Fokus stehen. Ebenso verbesserte Google den Algorithmus zur Erkennung höchst fraglicher SEO-Techniken, die massiv gegen die Google Richtlinien für Webmaster verstoßen, um manipulativ die Suchergebnisse zu ihren Gunsten zu beeinflussen. Als konkretes Beispiel sind künstlich erzeugte Links zu nennen, die auf gehackten und mit Malware infizierten Websites implementiert wurden (zumeist ohne Wissen der Betreiber). Genaue Erkenntnisse zu den Auswirkungen in Deutschland stehen noch aus, bekannt ist zumindest, dass von den englischsprachigen Suchanfragen ca. 0,2% betroffen waren.  

Fazit

Sicherlich zeigen die vorausgegangenen Beispiele nicht alle in Frage kommenden Faktoren, die zu einer positiven oder negativen Einstufung seitens Google führten. Dies ist aufgrund der Komplexität der Webseiten sowie der recht jungen Beobachtungsphase und den damit verbundenen Erfahrungsschätzen seit Erscheinen des Updates nicht möglich. Aber eines ist als klarer O-Ton vernehmbar: Google liebt Seiten mit gutem Content. Ausführliche textliche Informationen mit passendem Bild- und Videomaterial, welche im optimalen Fall ein Alleinstellungsmerkmal aufweisen, verleiten die Besucher dazu, sich intensiver mit dem gebotenen Thema zu beschäftigen. Für Google ist der Besucher einer der wichtigsten Indikatoren in Sachen Qualität, denn längere Aufenthaltszeiten und geringe Absprungraten implizieren in den meisten Fällen lohnens- und beachtenswerten Content.

Achten Sie daher darauf, dass die von Ihnen publizierten Texte auch wirklich für den Leser interessant sind. (Ver-)Meiden Sie:

- Texte, die klar nach Suchmaschinenoptimierung aussehen (u.a. hohe Keyword-Dichten)

- Seiten mit nur geringfügigem und schlechtem Content (bzgl. inhaltlicher Tiefe und Rechtschreibung)

- Texte ohne Strukturierung (Überschritten, Fettschrift, Listen usw.)

- Textduplikate auf verschiedenen Seiten

- Standardisierte Beschreibungstexte, wie sie andere Webseiten auch nutzen

Wichtige Erkenntnisse über die Akzeptanz kann ein Blick in Google Analytics oder eine andere Web-Analytics-Software liefern. Gute Inhalte zeichnen sich aber auch dadurch aus, dass begeisterte Besucher und Leser freiwillig auf Ihre Seiten verlinken.

Zurück

© 2019 seo2b.de. All Rights Reserved. — Designed by seo2b - Onlinemarketing Agentur im Raum Trier, Luxemburg und Saarbrücken