Mrz 30, 2015
Während es im ersten Teil der Serie OnPage-Black-Hat-Techniken im SEO um Text Spinning, Doorway Pages und Cloaking ging, sollen nachfolgend weitere Ansätze aus dem Bereich des Black-Hat-SEOs vorgestellt werden.
Eine der einfachsten und am häufigsten eingesetzten Methoden, um von den Suchmaschinen eine hohe Relevanz zugerechnet zu bekommen, lag besonders in den Anfängen der Suchmaschinen-Optimierung, im übermäßigen Einsatz von Keywords. Spätestens mit der Einführung der Keyworddichte-Berechnung mussten die Suchmaschinen-Optimierer allerdings darauf achten, ihre Seiten nicht mit Keywords zu überschwemmen. „Eine Manipulation der Keyword-Dichte gehört zu den am einfachsten umzusetzenden Verfahren und wird daher besonders oft von unerfahrenen Webautoren angewandt.“[1]
„Neben Titel, Überschriften und Meta-Angaben werden auch im Text bestimmte Keywords immer wieder verwendet, unterstrichen oder fett hervorgehoben. Dokumente und Bilder werden mit dem Keyword im Dateinamen versehen, Pfade aus den Keywords gebildet, und selbst die Alternativtexte (alt=“…“) der Bilder oder Kommentare werden mit Keywords bestückt.“[2]
Diese Aufzählungen an Optimierungsansätzen spiegelt die in Gliederungspunkt 4.2 angeführten OnPage-Optimierungen fast 1 zu 1 wieder, weshalb an dieser Stelle darauf hingewiesen werden muss, dass bei der OnPage-Optimierung ein sehr schmaler Grat zwischen Spam und Nicht-Spam besteht. Beispielsweise sollte dringend darauf geachtet werden, die in Gliederungspunkt 4.2.1.1 aufgeführten Keyworddichte-Empfehlungen nicht zu übertreiben, da dies mit hoher Wahrscheinlichkeit als Keyword Spam erkannt und entsprechend abgestraft werden würde.
Greifeneder weist zudem darauf hin, dass Texte nicht nur auf ihre relative Worthäufigkeit, sondern auch auf ihre Semantik geprüft werden können. So würden die Spamfilter der Suchmaschinen u.U. auch dann aktiv, wenn zwar keine unnatürliche Worthäufigkeit in einem Text entdeckt wird, der Text aber dafür nur aus Substantiven besteht.[3]
Auch diese Technik stammt aus den Anfängen der Suchmaschinenoptimierung und ist gemeinhin als „Text-Hiding“ bekannt. Keywords werden dabei unsichtbar oder nur schwer erkennbar für den menschlichen Besucher auf der Website platziert. Eine oft genutzte Methode war zum Beispiel der Einsatz von Text, der die gleiche Farbe wie der Hintergrund hatte oder die Verwendung von Text mit einer möglichst kleinen Schriftgröße. Moderne Suchmaschinen können diese Betrugsversuche heute relativ gut erkennen, wodurch dieser Ansatz seine Wirkung verloren hat.[4]
Aber nicht nur Text, sondern auch Links zu anderen Seiten können versteckt werden. Solche Links sind i.d.R. für menschliche Besucher nicht sichtbar, da sie z.B. als einfacher Punkt am Ende eines Satzes eingesetzt werden. Suchmaschinen erkennen und interpretieren solche Links und bewerten sie entsprechend. Der Grund für den Einsatz von versteckten Links bestand oft darin, dass der Websitebetreiber zusätzliche Verweise zur Exploration seiner Internetseite für die Suchmaschinen-Robots schaffen wollte. Außerdem wurde mit dieser Methode häufig versucht, die Link-Popularity positiv zu manipulieren.[5]
Als bekannt wurde, dass die frühen Suchmaschinen den Meta-Tags einer Website einen besonders hohen Wert beimessen, verbreitete sich die Meta-Spam Methode schnell im Internet. Dabei wurde vor allem das Keywords-Tag und das Description-Tag genutzt, um Begriffe unterzubringen, die oftmals überhaupt nichts mit dem eigentlichen Seiteninhalt zu tun hatten.
So war es zeitweise keine Seltenheit, dass man auf der Suche nach dem Keywords „Sex“, Ergebnistreffer hatte, die rein gar nichts mit dem Thema zu tun hatten. Erlhofer weist darauf hin, dass selbst seriöse Unternehmen nicht davor zurück schreckten, eben dieses Keyword in ihre Meta-Tags zu integrieren.[6]
In Gliederungspunkt 4.2.1.3 wurde bereits erwähnt, dass es eine Zeitlang in Mode war, Texte von anderen Internetseiten zu kopieren und diese schlicht auf der eigenen Website zu veröffentlichen. Dieser Diebstahl von geistigem Eigentum hat zeitweise zu relativ guten Ergebnissen für die eigenen Suchmaschinenrankings geführt.
Spätestens seit der Einführung von Duplicate Content Filtern ist diese Vorgehensweise allerdings mit wenig bis keinem Erfolg mehr gekrönt. Da Google den gefundenen Content Stück für Stück einliest und über jedes dieser Textstücke einen Hash-Code bildet, würde es zudem keinen Sinn machen einfach am Anfang und am Ende eines kopierten Textes einen Satz „anzukleben“, in der Hoffnung man könne die Suchmaschinen somit austricksen.[7]
Als Internetseitenbetreiber oder Suchmaschinenoptimierer ist man deshalb gezwungen eigenen, qualitativ möglichst hochwertigen Content für seine Besucher und vor allem auch für die Roboter der Suchmaschinen bereit zu halten. Um sicher zu gehen, dass ein Text wirklich einzigartig ist, kann dieser bei Plagiats-Prüfdiensten wie z.B. copyscape.com eingeschickt werden. Innerhalb weniger Sekunden wird dann angezeigt, welche Textstellen auch auf anderen Internetseiten zu finden sind. Darüber hinaus wird anhand einer Prozentzahl angezeigt, wie einzigartig der Text ist.
Suchmaschinen bewerten Websites unter anderem anhand der Anzahl an Klicks, welche sie durch das Auftauchen in den Suchergebnissen generieren. Dabei gilt aus Sicht der Suchmaschinen, dass je häufiger ein Treffer innerhalb einer Gruppe von Ergebnissen angeklickt wird, umso höher ist auch die Wahrscheinlichkeit, dass das Ergebnis für das jeweilige Keyword relevant ist.
„Um diesen Effekt auszunutzen, verwenden einige Webseitenbetreiber spezielle Robots, die keine andere Aufgabe haben, als eine Suche durchzuführen und die eigene Website in den Trefferlisten anzuklicken. So soll bewirkt werden, dass die Suchmaschine diese Seite für besonders wichtig erachtet und schneller nach oben führt.“[8]
Auch dieses Vorgehen findet in der Praxis heute nur noch selten Anwendung, da diese Manipulation technisch nur schwer umsetzbar ist. Neben einer speziellen Software, die die Vorgänge automatisiert, werden eine Vielzahl unterschiedlicher Browserkennungen und ProxyServer benötigt.
Der Bait and Switch Ansatz sieht den kompletten Austausch einer Seite, zu einem strategisch günstigen Zeitpunkt vor. Dafür wird zunächst eine gut optimierte Seite erstellt und bei den Suchmaschinen angemeldet. Nachdem die Seite erfolgreich in den Index der Suchmaschinen aufgenommen wurde, wird eine zweite, oftmals nicht optimierte und mit völlig anderen Inhalten versehene Seite unter der indexierten URL veröffentlicht.[9]
„Meist wird Bait-And-Switch eingesetzt, um Flash-Seiten oder ähnliche Medientypen zu verwenden, die normalerweise kein vergleichbar hohes Ranking erzielen würden wie eine rein textbasierte Website. Diese Methode eignet sich vorwiegend nur bei solchen Suchmaschinen, die eine niedrige Wiederbesuchsfrequenz besitzen. […] Aus diesem Grund wird diese Methode nicht oft benutzt.“[10]
Quellen: [1] Greifeneder, 2006, S. 65; [2] Winkler, 2008, S. 267; [3] Vgl.: Greifeneder, 2006, S. 65f; [4] Vgl.: Erlhofer, 2008, S. 322ff; [5] Vgl.: Erlhofer, 2008, S. 328; [6] Vgl.: Erlhofer, 2008, S. 329; [7] Vgl.: Fischer, 2009, S. 317ff; [8] Winkler, 2008, S. 271f; [9] Vgl.: Erlhofer, 2008, S. 337f; [10] Erlhofer, 2008, S. 337f
Wichtige Information: Die in diesem Artikel veröffentlichten Angaben sind Auszüge aus meiner am 15. Juli 2013 vorgelegten Master Thesis zum Thema: „Experiment zur Untersuchung des Zusammenspiels zwischen White-Hat- und Black-Hat-Methoden bei der Suchmaschinenoptimierung„. In einem sich extrem schnell wandelnden Bereich wie dem Online Marketing könnten einige der gemachten Angaben mittlerweile „outdated“ sein!
Mark Etting studierte Dialogmarketing und Kommunikationsmanagement, arbeitete als SEO Consultant in verschiedenen Online Marketing Agenturen und als Inhouse SEO. Seit 2015 arbeitet er als SEO Freelancer für nationale und internationale Kunden.
Telefon:
E-Mail:
kontakt*at*mark-etting.de