Im Mai 2013 hat Google das bereits angekündigte Penguin Update 2.0 weltweit ausgerollt. Die Algorithmen wurden hinsichtlich der Backlinkprofile von Websites verschärft. Seiten, die unnatürlich viele oder künstlich wirkende Verlinkungen von anderen Seiten aufweisen, geraten in den Fokus der Suchmaschine. Steigen die Zahlen der Backlinks ungewöhnlich schnell oder stammen sie von Content-fremden Seiten, wird die Website in erster Konsequenz in den Suchergebnissen nach hinten geschoben. Häufen sich die Fehltritte gegen die Google-Regeln, wird die Seite komplett aus der Suche entfernt. Bereits vor einem Jahr verschärfte Google die Regeln hinsichtlich des Linkaufbaus. Mit dem 2.0-Update graben die Roboter jedoch noch tiefer und bewerten nun neben der Domain-Startseite ebenfalls alle Unterseiten.
Was tun, wenn die eigene Seite betroffen ist?
Tipps, eine Strafe durch das Pengiun Update 2.0 zu vermeiden, gibt es viele, doch was kann man machen, wenn die eigene Website bereits ins Visier des Google-Roboters geraten ist und nun deutliche Rankingverluste aufweist?
Als ersten Schritt raten Experten, herauszufinden, ob die Rankingverluste wirklich auf das Penguin Update zurückzuführen sind, denn laut Google sind nur circa 3% aller Suchabfragen überhaupt betroffen. Hierbei helfen Tools wie zum Beipsiel sistrix.de.
Sollte man tatsächlich dem Pinguin zum Opfer gefallen sein, ist in zwei verschiedene Fälle zu unterscheiden: 1. Ist die Seite überhaupt noch in den Suchergebnissen gelistet oder ist sie 2. nur nach hinten gerückt? Wurde die Seite komplett aus dem Suchindex entfernt, hilft meist nur der Neustart mit einer anderen Domain. Im zweiten Fall hat der Seitenbetreiber mit viel Glück noch die Chance, das sinkende Schiff zu retten, denn die Seite wurde noch nicht als „Web-Spam“ aussortiert sondern steht lediglich im Verdacht ein solcher zu sein.
Die Google-Robots scannen regelmäßig alle indexierten Seiten und bewerten diese. Um also zu beweisen, dass es sich bei der eigenen Seite keinesfalls um eine Spam-Seite handelt, sollten die kritischen Stellen, in diesem Fall die eingehenden Backlinks, optimiert werden.
Hierfür nimmt man am besten alle Links genau unter die Lupe. Tools wie alexa.com stellen Listen dieser Backlinks zur Verfügung. Alle Verlinkungen, die gekauft wirken/sind, von Seiten kommen, die sich keinem eindeutigen Thema verschreiben oder die auf überdurchschnittlich viele Fremdseiten verlinken, sollten abgebaut werden. Meist reicht eine Nachricht an den Webmaster der entsprechenden Seite. Ist man sich nicht sicher, ob ein Link als wertvoll oder schädlich einzustufen ist, kann die entsprechende Seite ebenfalls bei Alexa oder mit ähnlichen Tools überprüft werden.
Doch auch beim Linkabbau muss man sich vor den Google-Robotern in Acht nehmen. Denn das übermäßige Löschen von Links kann ebenfalls als unnatürlich bewertet werden und bestätigt so unter Umständen den Verdacht der Suchmaschine auf Ranking-Manipulation. Wie immer bei der Suchmaschinenoptimierung, sollte man also Geduld mitbringen und keine schnellen Ergebnisse erwarten.
Um der Suchmaschine zu gefallen, ist es empfehlenswert, zusätzlich zum Linkabbau natürliche, „saubere“ Links aufzubauen. Dies sind Links, die von Content-ähnlichen Seiten kommen, nicht gekauft wirken und echten Traffic bringen. Je beliebter die verlinkende Seite selbst bei Google ist, desto wertvoller ist auch der Backlink. Denn der Marktführer unter den Suchmaschinen liebt die Interaktion zwischen verschiedenen Websites und belohnt diese in der Regel mit guten Ratings.
Studien haben jedoch ergeben, dass eine wirkliche Erholung der Seite, nachdem diese bei Google abgestraft wurde, nur äußerst selten gelingt.