Hält man sich als Websitebetreiber bei der OnPage- und OffPage-Optimierung, nicht an die Vorgaben der Suchmaschinen, die zumeist in einem umfangreichen Regelwerk niedergeschrieben sind, wird eine Missachtung der Spielregeln schnell sanktioniert. Da die Suchmaschinenbetreiber gesetzlich nicht zu einer Listung bestimmter Internetseiten verpflichtet sind, gehen sie bei Verstößen oder beim Verdacht solcher, meist wenig zimperlich vor. Die Sanktionen sind unterschiedlich, haben aber meist einen teilweisen oder kompletten Ausschluss der betroffen Domain aus den Suchergebnissen zur Folge. Insbesondere Google ist für seinen relativ gnadenlosen Umgang mit „Manipulatoren“ bekannt.

Eine dieser Strafen ist die so genannte „Seite 3 Flag“. Eine intern von Google verhängte Sperre verhindert dabei, dass eine „geflaggte“ Domain über die dritte Trefferseite hinaus in den Suchergebnissen erscheint. Die Sperre wird automatisch verhängt und macht einen Aufstieg über Seite 3 hinaus, egal welche Optimierungen durchgeführt werden, unmöglich.[1]

Daneben gibt es noch die so genannte „Google Sandbox“, die Spekulationen zu Folge das erste Mal Anfang 2005 für Aufmerksamkeit sorgte.[2] Der Sandbox-Effekt zeigt sich dadurch, dass „[…] meist neu eingetragene Seiten angeblich verschwinden, wenn sie innerhalb kürzester Zeit auffällig viele Backlinks generieren oder anderweitig in den Verdacht geraten, mit Hilfe unerlaubter Methoden ihr Google-Ranking extrem schnell  zu verbessern.“[3]

Es handelt sich also um einen Filter, der verhindern soll, dass insbesondere neue Websites mit einem als unnatürlich empfundenen Linkwachstum den älteren und bereits etablierten Internetseiten den Rang ablaufen.[4] Wo die Grenze zwischen „natürlich“ und „unnatürlich“ verläuft, erklärt Google in seinem US-Patent vom März 2005, mit dem Namen „Information Retrieval Based on Historical Data“[5]

Zusammengefasst beschreibt das Patent wie man mit Hilfe der über die Jahre gesammelten Daten bezüglich der Entwicklung von Tausenden Internetseiten eine Abschätzung anstellen kann, die die aktuelle Entwicklung einzelner Websites betrifft. „Erfolgt die Bewertung einer aktuellen Website nach differenzierten Kriterien, beispielsweise nach der Art und Bedeutung der Stichwörter oder dem öffentlichen Interesse eines Themenkomplexes, kann eine heutige Website in ihren Entwicklungsphasen in einer Skala von „unterdurchschnittlich“, „durchschnittlich“, „überdurchschnittlich“ bis hin zu „ungewöhnlich“ im Sinne von „unnatürlich“ eingestuft werden.“[6]

Darüber hinaus können „unnatürlich gewachsene“ Internetseiten auch von Menschen bewertet werden. „Seiten, die aufgrund ihres ungewöhnlichen Wachstums auffallen, werden so von einem Menschen auf einer Skala bewertet, wonach der Algorithmus entscheidet, wie mit der Website weiter zu verfahren ist. Bei dieser Bewertung zählen vor allem der visuelle Eindruck, Usability-Kriterien sowie die inhaltliche Qualität.“[7]

Anwendung findet der Sanbox-Effekt ausschließlich bei privaten oder kommerziellen Websites, Domains mit den Endungen .gov, .mil, und .edu sind davon ausgeschlossen. Weiterhin bekannt ist, dass der Effekt immer komplette Domains und nicht etwa nur einzelne Seiten oder Verzeichnisse einer Internetseite betrifft. Tendenziell sind eher „frisch“ registrierte Domains vom Sandbox-Effekt betroffen, als bereits länger existierende.[8]

Weil Google Registrar ist, hat das Unternehmen Zugang zu den Daten aller weltweit registrierten Domains und kann somit unter anderem deren Erstanmeldedatum einsehen. Fischer stellt zum Sandbox-Effekt folgende Vermutung auf: „Mir erscheint jedoch wahrscheinlicher, dass vor allem der Zeitpunkt, an dem erste Inhalte auf einer Domain erscheinen, die Sanduhr frisch umdreht. Und während der Sand nun ein halbes bis zu einem Jahr lang von oben nach unten rieselt, wundern Sie sich, warum Sie trotz aller Arbeit keine nennenswerten Positionen erreichen.“[9]

Quellen: [1] Vgl.: Fischer, 2009, S. 354f;  [2] Vgl.: Fischer, 2009, S. 364; [3] Chung/Klünder, 2007, S. 29; [4] Vgl.: Erlhofer, 2008, S. 407;  [5] http://www.google.com (B); [6] Erlhofer, 2008, S. 409f;  [7] Erlhofer, 2008, S. 410; [8] Vgl.: Erlhofer, 2008, S. 408; [9] Fischer, 2009, S. 364

Wichtige Information: Die in diesem Artikel veröffentlichten Angaben sind Auszüge aus meiner am 15. Juli 2013 vorgelegten Master Thesis zum Thema: “Experiment zur Untersuchung des Zusammenspiels zwischen White-Hat- und Black-Hat-Methoden bei der Suchmaschinenoptimierung“. In einem sich extrem schnell wandelnden Bereich wie dem Online Marketing könnten einige der gemachten Angaben mittlerweile “outdated” sein!

Author: Mark Etting

Mark Etting studierte Dialogmarketing und Kommunikationsmanagement, arbeitete als SEO Consultant in verschiedenen Online Marketing Agenturen und als Inhouse SEO. Seit 2015 arbeitet er als SEO Freelancer für nationale und internationale Kunden.