Eigentlich zwei ganz liebe Tiere…

Eigentlich…

Wer beim Pinguin und beim Panda direkt an Webseiten denkt, steckt schon voll in der Materie „Suchmaschinenoptimierung“ drin.
Was für Viele nur zwei eigentlich ganz liebe Tiere sind, gehört bei der Suchmaschinenoptimierung zu zwei der bekanntesten und größten Updates der letzten Jahre. Die Rede ist vom Google-Penguin-Update und dem Google-Panda-Update.

Doch was sind das für Updates, von denen viele SEOs sprechen?

 

Panda – Update

Im August 2011 ist das Panda Update weltweit veröffentlicht worden. Vorher wurden schon einige Tests im englisch-sprachigen Raum durchgeführt, das US-Panda-Update ist beispielsweise schon im Februar online gegangen.

Mit dem Panda-Update wurde ein umfangreicher Filter von Google aktiviert, der sich auf das komplette Ranking – also die Positionierungen in den Suchmaschinen – auswirkt. Laut Google sollen ca. 12% der englischsprachigen Abfragen bzw. 6-9% der übrigen Sprachen beeinflussen (Quelle: Sistrix), was zu einem erheblichen Effekt bei den Rankings führte.
Panda

 

fleißige Bienchen werden belohnt – Faule abgestraft

Das Update hat Webseiten mit geringem Inhalt abgestraft und in den Rankings nach hinten verschoben. Teilweise habe Webseiten, die zum Großteil nur aus wenig Inhalt bestanden haben, alle ihre Rankings und damit die Sichtbarkeit in den Suchmaschinen komplett verloren.

Ein Screenshot der Sistrix Toolbox zeigt ein Beispiel des plötzlichen Verlusts der Sichtbarkeit (Quelle: Sistrix):
google-panda-update

Massive Veränderungen, die höchstwahrscheinlich mit einem Algorithmus-Update zu tun haben, werden bei Sistrix mit einem Marker versehen. So sind die starken Änderungen direkt einem Update zuzuordnen.

 

Was ist geringer oder wenig Inhalt?

Geringer oder wenig Inhalt ist nur ein möglicher Indikator. Google gibt dort auch keine Werte vor á la „Webseiten über 1.000 Wörter pro Seite sind gut“ oder dergleichen.

Wer viel unique content (einzigartiger Inhalt, welcher nicht auf anderen Webseiten erscheint) auf seinen Webseiten hat, ist nicht automatisch gleich auf der „sicheren Seite“.

Zu massive Werbung oder Inhalte die automatisiert anzeigt werden (z.B. gescrapter Content anderer Webseiten) werden ebenfalls mit dem Panda-Filter erfasst.

Der Filter des Panda Upates soll auch die Qualität der Webseite erfassen. Neben dem unique content und deren Gewichtung zum duplicate content (Inhalt, der in gleicher Form auf verschiedenen Webseiten vorkommt), zählen auch weitere Faktoren für die qualitative Bewertung einer Webseite:

  • wenige oder qualitativ „schlechte“ Backlinks
  • bounce rate (Absprungrate der Webseite) & average length of stay (Verweildauer auf der Webseite)
  • boilerplate (Wikipedia, wiederkehrende Texte oder Links auf allen/vielen Unterseiten)
  • zu hohe Keyword-Dichte
  • falsche Meta-Tags

Da viele sicherlich wissen, was „schlechte“ Backlinks sind, überspringe ich das und komme gleich zu den weiteren Punkten.

 

bounce rate und average length of stay

Die Absprungrate einer Webseite, sowie die durchschnittliche Verweildauer kann von Google überwacht werden, auch wenn du Deinen Traffic nicht mit Google-Analytics überwachst. Wie?

Ganz einfach: Indem überwacht wird, ob der Besucher auf den „Zurück“-Button seines Browsers drückt (oder das Keyword erneut bei Google eingibt) und dann auf ein anderes Suchergebnis klickt:
bouncerate-verweildauer

So weiß Google nicht nur, dass der Besucher von Ihrer Webseite „abgesprungen“ ist, sondern kann auch darauf Rückschlüsse ziehen, wie lange sich der Besucher auf Ihrer Webseite aufgehalten hat.

 

boilderplate

boilderplate oder auch backgrounder genannt, kommt aus der Medienbranche / PR-Branche und wird auch Abbinder genannt. Wichtige , aber auch allgemeine Informationen zu einem Pressetext werden dort untergebracht.

Zum Beispiel Unternehmensinfos, Mitarbeiter, Umsatz, genaue Firmierung, Geschäftsführer, etc.. Bei der Suchmaschinenoptimierung oder im Bereich von Webseiten werden damit größere Text-Blöcke / Link-Blöcke gemeint, die sich nicht ändern und auf vielen Unterseiten vorhanden sind.

Dabei ist es egal, ob das unique content oder duplicate content ist. Große Text- und Link-Blöcke sollte man daher tunlichst nicht im Header, Footer oder in der Sidebar platzieren, dass diesse komplett sitewide auf der Webseite erscheint.

Nicht falsch verstehen: Hierbei ist jetzt keine Blogroll mit 5 Links oder eine kurze Autoren-Beschreibung (die auf jeder Seite erscheint) gemeint, sondern größere Text-/Link-Blöcke, die suggerieren sollen, dass sich diese Webseite mit einem bestimmten Keyword genau befasst durch die hohe Keyword-Dichte, welche entsteht, wenn man diese Passagen überall einblendet.

 

Keyword-Dichte

Keyword-Spamming wurde ja bereits in früheren Google-Updates erfolgreich bekämpft. Die Keyword-Dichte wurde dabei immer häufiger von SEOs heruntergeschraubt. 15%, 10%, 7%.. manche gehen sogar runter bis auf 0,5 – 1,0 % Keyword-Density.

Die Keyword-Dichte beschreibt die prozentuelle Anzahl der Nennung des Keywords im Vergleich zum restlichen Text:keyword-dichte

Den „Herren“ wirst du sicherlich kennen?! 🙂 Bart hat also 61 Wörter an die Tafel geschrieben, darunter 1 x MÖP. Möchten wir nun die Keyword-Dichte für MÖP ermitteln, machen wir das wie folgt:100% : 61 (alle Wörter) * 1 (Keyword) = 1,639%.

Ich möchte hier keine prozentuale Empfehlung geben und das Thema auch nicht zu stark ausbreiten, da sich hier die Geister scheiden.

Wenn man seine Texte auf der Webseite für den Leser auslegt und nicht für eine Suchmaschine, dazu noch qualitativen Mehrwert bietet, ist es glaube ich nahezu unrelevant ob man nun 0,5% oder 3% Keyword-Dichte in seinen Texten hat.

Man darf nicht vergessen, das die Keyword-Dichte nur ein Faktor und nicht DER Faktor für eine gute Platzierung in den Suchmaschinen ist.

Wer sich damit nochmal genau befassen möchte, dem rate ich, sich mal die Ausarbeitung von Karl Kratz (WDF * IDF) dazu durchzulesen.

 

falsche Meta-Tags

Stimmt der Meta-Title-Tag und/oder der Seiteninhalt nicht mit der Suchanfrage überein, greift hier ebenfalls der Panda-Filter. Baut man also Keyword-Backlinks auf, ohne im Seiteninhalt auf die Problemstellung einzugehen, kann die Webseite ebenfalls in den Rankings nach hinten fallen.

Normalerweise ist eine derartige Vorgehensweise eigentlich sowieso nicht sonderlich erfolgreich, dennoch wurden hier weitere Filterkriterien hinzugefügt.

 

Fazit

Ist deine Webseite vom Google-Panda-Update betroffen, kontrolliere die genannten Faktoren, um deine Rankings wieder zu verbessern. Falls deine ganze Webseite davon betroffen ist, solltest du unbedingt die Struktur genauer prüfen, ob keine boilderplate vorhanden ist. Sind nur Teilbereiche betroffen, z.B. eine Webseiten-Suche, welche häufig den gleichen Inhalt darstellt, probiere die Filterkriterien der Suche zu verfeinern, um möglichst nur sehr targetierte Suchergebnisse anzuzeigen.

Die Erhöhung der Mindest-Wort-Eingabe in der Suche mit Verbindung auf Prüfung ob *alle* Wörter im Ergebnis vorkommen, zeigt weniger Suchergebnisse, als wenn man zum Beispiel erlaubt, nach „der“, „die“, „das“ oder schlimmer noch: „a“, „e“, „i“, „o“, „u“ in der Webseite-internen Suche zu suchen.

Generell sollte die Webseite eher in Richtung Usability und Nutzerfreundlichkeit optimiert werden und qualitativ hochwertigen Mehrwert für den User bieten!

 

Das andere Tierchen: Penguin Update

Google Pinguin Update Knapp 8 Monate nach dem Panda-Update kam im April 2012 das Google Penguin Update. Im Gegensatz zum Panda-Update wurde dieses weitreichende Update von Google global und gleichzeitig in allen Sprachen ausgerollt. Etwas über ein Jahr später, im Mai des Jahres 2013 wurde dann das Penguin Update 2.0 global eingeführt.

Laut Google soll dieses Update nur in knapp 3% der Suchergebnisse für Veränderungen gesorgt haben, Pinguin 2.0 ca. 2,3% der US-Suchanfragen (Quelle: Sistrix).

Bei dem Pinguin-Update wird der Bezug eher zur Offpage-Optimierung hergestellt, während das Panda Update eher die Onpage-Optimierung ansprach.

 

Natürlichkeit!

Das wichtigste Offpage-Kriterum – die Backlinks – wurden hier in die Mangel genommen. Webseiten mit einem unnatürlichen Linkprofil wurden abgestraft und haben Ihre Rankings verloren.

Webseiten, welche eine unnatürlich hohe Anzahl an Keyword-Backlinks haben und nur einen geringen Umfang an „natürlichen“ Ankertexten, wie:

  • URL (www.domain.de, domain.de, http://www.domain.de)
  • Brand (domain.de, domain)
  • Bilder (Banner oder Screenshots)
  • verschiedene Ankertexte (hier, hier klicken, finden Sie hier)
  • verschiedene Keyword-Phrasen (Longtail-Keyword-Kombinationen: „weitere Informationen zu Schuhen bei domain.de)

hatten, sind dem Penguin-Update zum Opfer gefallen.

Google Penguinupdate
Sichtbarkeitsverlust des Sichbarkeits-Index von geschenke.com (Quelle: Sistrix).

Die Domain Geschenke.com hat sich (laut dem Screenshot) zwar wieder vom ersten Update des Penguin erholt, jedoch trotzdem wieder Sichtbarkeit verloren.

 

Penguin 2.0

Mit dem Penguin 2.0 Update (Mai 2013) wurden die Filter-Kriterien etwas angepasst. Matt Cutts schreibt darüber in seinem Blog, dass es jedoch noch weitere Pinguin-Anpassungen geben wird: Matt Cutts Blogeintrag.

Für Petzfreudige, gibt es nun extra ein dafür eingerichtetes Formular, um Webseiten zu melden, die offensichtlich noch nicht abgestraft wurden, aber gegen die Richtlinien des Pinguin-Updates verstoßen: Ich bin eine Petze

 

Fazit

Ist deine Webseite vom Pinguin-Update betroffen, probiere die schadhaften Links entfernen oder den Keyword-Ankertext durch deine URL oder Brand ersetzen zu lassen. Fossierter Backlinkaufbau mit Domain, URL oder Brand helfen, das natürliche Gleichgewicht wiederherzustellen.

Unbedingt Links aufbauen mit „hier klicken“, „hier“, „zur Webseite“, „klick“ und ähnlichen Ankertexten, um möglichst ein natürliches Linkprofil zu erzeugen.

Wenn das Linkprofil zu stark ramponiert ist, durch Billig-Anbieter oder falsche Vorgehensweisen, sollte man vielleicht in Betracht ziehen, neu zu starten. Sollte in dem Projekt zu viel Arbeit und Linkbuilding stecken, möglichst Stück für Stück probieren das Linkprofil wieder in ein natürliches Gleichgewicht zu bringen.
Wenn du möchtest, kann ich mit http://www.sistrix.de mal prüfen, ob du von einem der angegebenen Updates betroffen bist.
Wenn dir der Artikel gefallen hat, würde ich mich über eine Bewertung, Kommentar oder Erwähnung bei Facebook, Twitter & Co. freuen.

 
Möchtest du mehr über Suchmaschinenoptimierung erfahren, schau dir unser Ultimate SEO Coaching an:

About admin
Christian befasst sich seit dem Jahre 2005 mit Suchmaschinenoptimierung.Um marktverändernde Produkte zu entwickeln reichte bloßes HTML nicht aus, so hat er sich autodidaktisch im Jahre 2008 PHP in Kombination mit (My)SQL beigebracht.Endlich konnten umfangreiche Projekte realisiert werden, um neue Märkte zu erschließen. Neben einer erfolgreichen Preissuchmaschine, zahlreichen Urlaubsportalen und einer Verwaltungssoftware für Ferienwohnungen und Ferienhäuser, vermietet Christian Eckardt 4 Ferienwohnungen und 3 Ferienhäuser (neugebaute Holz-Blockhäuser) im Harz und betreibt außerdem diesen Blog, um jedem Menschen, der im Internet Geld verdienen möchte, zu unterstützen und hilfreiche Tipps zu geben.Jeder kann erfolgreich im Internet Geld verdienen!

Veröffentlicht von

admin

Christian befasst sich seit dem Jahre 2005 mit Suchmaschinenoptimierung.Um marktverändernde Produkte zu entwickeln reichte bloßes HTML nicht aus, so hat er sich autodidaktisch im Jahre 2008 PHP in Kombination mit (My)SQL beigebracht.Endlich konnten umfangreiche Projekte realisiert werden, um neue Märkte zu erschließen. Neben einer erfolgreichen Preissuchmaschine, zahlreichen Urlaubsportalen und einer Verwaltungssoftware für Ferienwohnungen und Ferienhäuser, vermietet Christian Eckardt 4 Ferienwohnungen und 3 Ferienhäuser (neugebaute Holz-Blockhäuser) im Harz und betreibt außerdem diesen Blog, um jedem Menschen, der im Internet Geld verdienen möchte, zu unterstützen und hilfreiche Tipps zu geben.Jeder kann erfolgreich im Internet Geld verdienen!