„Als Offsite-Optimierung werden Maßnahmen bezeichnet, die nicht auf der eigenen, sondern auf dritten Websites durchgeführt oder initiiert werden. […] Die Suchmaschinen unterstellen […] bei einer häufig verlinkten Website eine hohe Relevanz. Wird dann im Link-Text auch noch häufig das gleiche Keyword verwandt, so steigen die Chancen auf eine gute Position auf den Ergebnisseiten deutlich.“[1]

Sämtliche OffPage-Maßnahmen haben zum Ziel, die Link-Popularität zu erhöhen, damit die zu optimierende Website in den Augen der Suchmaschinen als besonders relevant empfunden wird. Bevor auf die dafür zur Verfügung stehenden Maßnahmen eingegangen werden kann, soll zunächst einmal auf die wichtigsten OffPage-Rankingfaktoren eingegangen werden.

OffPage-Rankingfaktoren

Spätestens seit Googles „Penguin-Update“ aus dem Jahr 2012, ist BackLinkbuilding nicht mehr das, was es zuvor einmal war. Zumindest ist dies die Auffassung vieler Suchmaschinenoptimierer, die in einschlägigen Foren und Blogs über die Auswirkungen eines der bislang umfangreichsten Google-Updates diskutieren.

Eine der wichtigsten Neuerungen die das Update mit sich gebracht hat, ist die Gewichtung und Kategorisierung von externen Verlinkungen. Als Reaktion auf das Penguine-Update hat das Unternehmen Noble Samurai, Backlinks in 3 unterschiedliche Typen gegliedert, die nachfolgend beschrieben werden sollen:

Brand Links

Diese bestehen entweder aus:

  • der Website-URL (Anchor-Text ist gleich der Website-URL)
  • einem Link, der als Anchor-Text einen Produktnamen aufweist
  • einem Link, dessen Anchor-Text gleich dem Firmennamen ist

Target-Links

Diese Links zeichnen sich durch einen Anchor-Text aus, der aus einem bestimmten Keyword besteht, mit dem man bei den Suchmaschinen gefunden werden möchte. Umgangssprachlich wird diese Kategorie von Backlinks auch als Keyword-Links bezeichnet. Zu beachten ist hierbei, dass dieser Linktyp vor Googles Penguin-Update in hohem Maße zu einem besseren Ranking innerhalb der Google-Suchergebnisse beitragen konnte. Mit der Einführung des Updates können sich zu viele Target-Links allerdings negativ auswirken.

Generic-Links

Diese Links enthalten „zufällig ausgewählte“ Wörter oder Wortkombinationen als Anchor-Texte, die i.d.R. nichts oder nur wenig mit dem Unternehmen, Produkten oder Keywords, für die gerankt werden soll, zu tun haben. Diese können zum Beispiel sein: „hier klicken“, „besuchen Sie diese Website“ oder „besuchen Sie diesen Link“.

Noble Samurai weist darauf hin, dass der wohl ausschlaggebendste Faktor, der zu einer Aktivierung der Penguin-Penalty führen kann, das Verhältnis der Gewichtung zwischen den 3 beschriebenen Linktypen ist. So wird vermutet, dass bei einem Anteil von mehr als 50% Target-Links, die Chancen sehr hoch sind, von der Penguin-Penalty getroffen zu werden. Ein Anteil von 30% Target-Links gilt laut Noble Samurai (bisher) als ungefährlich.[2]

Auch Scott Polk, Vice President of Internet Marketing der Firma Obsidian Edge Marketing, äußerte sich zu diesem Thema und ist folgender Meinung: „Ich würde sagen, dass die größten Änderungen die Google im Jahr 2012 durchgeführt hat die Bewertung von Links betraf. Dabei sind anchor texts der Gegenstand der für mich hervorsticht. In 2011 hat sich der Trend weg von „exact match anchor texts“ hin zu Marken und „call to action anchor texts“ entwickelt. […] Es gibt immer noch zu viele Suchmaschinenoptimierer, die nicht von der Idee abrücken können, dass „click here“ oder „more info“ mehr Link-Qualität liefern können, als „exact match anchor texts“. […] Damit möchte ich nicht sagen, dass „exact match anchor texts“ tot sind, aber sie befinden sich bereits auf ihrem Sterbebett.“[3]

In diesem Zusammenhang sei erwähnt, dass unbedingt darauf verzichtet werden sollte, immer wieder den exakt gleichen Anchor-Text für alle Target-Links zu verwenden. Auch hier werden von den Suchmaschinen Berechnungen durchgeführt, die ab einem bestimmten Wert deren Alarmglocken läuten lassen.[4]

Ein weiteres Unterscheidungsmerkmal von Backlinks sind die so genannten DoFollow- und NoFollow-Links. Die Möglichkeit von der eigenen Website abgehende Links mit dem NoFollow-Tag zu markieren, soll dazu dienen, den abfließenden Link-Juice zu begrenzen und somit auch den Link-Spam zu bekämpfen. „Bereits im Jahr 2005 haben Google, Microsoft (MSN) und Yahoo! Gegenmaßnahmen eingeleitet, damit die innerhalb von Web 2.0-Anwendungen leicht zu setzenden Verweise nicht zu stark die Offpage-Ranking-Kriterien beeinflussen.“[5]

Bei NoFollow-Links verfolgen die Crawler der Suchmaschinen den Verweis zwar, indexieren die Zielseite aber nicht. Auch für die PageRank-Berechnung werden solche Links nicht berücksichtigt. Vor allem Wikipedia, wie auch viele bekannte Social Bookmarking-Portale markieren ihre externe Verlinkungen heute mit dem NoFollow-Tag.[6]

Auch wenn das Ziel der NoFollow-Tags bekannt ist und sich die Suchmaschinen-Robots mit hoher Wahrscheinlichkeit daran orientieren, weist Erlhofer darauf hin, dass Verweise von Seiten mit einem hohen Trust-Wert, wie bspw. Wikipedia, womöglich trotz NoFollow-Tag in die OffPage-Ranking-Berechnung mit einbezogen werden könnten: „Geht man also davon aus, dass bei Wikipedia und Co. die Spam-Versuche gegen null tendieren, sind die übriggebliebenen Links inhaltlich sehr wertvoll und bergen meist thematisch relevante Inhalte. Eigentlich genau das, was eine Suchmaschine sucht oder durch ein höheres Ranking begünstigen will. Und eben hier schließt sich die NoFollow-These. Nämlich dass Google NoFollow-Links auf bestimmten Webpräsenzen wie beispielsweise Wikipedia trotz des Attributs mit in die Berechnung einbezieht […]. Natürlich würden die Suchmaschinen-Betreiber ein solches Vorgehen nie zugeben, sodass dieser Sachverhalt lediglich eine These oder Vermutung sein kann.“[7] Auch Broschart vertritt diese Meinung und verweist zudem darauf, dass trotz der mit NoFollow getagten Links ein positiver Einfluss auf den Trust der Zielseite zu entstehen scheint.[8]

Winkler weist allerdings darauf hin, dass dieser Effekt bisher weder bestätigt noch widerlegt werden konnte.[9] „Ebenso wirken Links von Domains viel stärker, die eine von Google manuell vermessene „Trust“-Flag (eine interne Bezeichnung) haben. Keiner weiß genau, welche Domains das im Einzelnen sind. Aber man kann davon ausgehen, dass die eher bekannten und seriösen Domains ein solches Kennzeichen besitzen wie zum Beispiel Wikipedia, DMOZ, CNN […].“[10]

An dieser Stelle erwähnenswert ist auch, dass Links von unterschiedlichen Quellen auch unterschiedlich stark gewichtet werden. So hat ein Link, der aus einem Forum oder aus einem Blog-Kommentar hervorgeht weniger Relevanz als jene, die aus einer Pressemitteilung oder von einer Authority-Seite stammen.[11]

Quellen: [1] Lammenett, 2006, S. 167; [2] Vgl.: http://www.youtube.com (B); [3] http://edgyseo.com; [4] Vgl.: Winkler, 2008, S. 251; Chung/Klünder, 2007, S. 123; [5] Erlhofer, 2008, S. 311; [6] Vgl.: Erlhofer, 2008, S. 311ff; [7] Erlhofer, 2008, S. 313; [8] Vgl.: Broschart, 2010, S. 265; [9] Vgl.: Winkler, 2008, S. 248; [10] Fischer, 2009, S. 337; [11] Vgl.: Winkler, 2008, S. 246

Wichtige Information: Die in diesem Artikel veröffentlichten Angaben sind Auszüge aus meiner am 15. Juli 2013 vorgelegten Master Thesis zum Thema: “Experiment zur Untersuchung des Zusammenspiels zwischen White-Hat- und Black-Hat-Methoden bei der Suchmaschinenoptimierung“. In einem sich extrem schnell wandelnden Bereich wie dem Online Marketing könnten einige der gemachten Angaben mittlerweile “outdated” sein!

Author: Mark Etting

Mark Etting studierte Dialogmarketing und Kommunikationsmanagement, arbeitete als SEO Consultant in verschiedenen Online Marketing Agenturen und als Inhouse SEO. Seit 2015 arbeitet er als SEO Freelancer für nationale und internationale Kunden.