Um Websites zu bewerten und ihnen daraufhin Positionen in den Suchergebnissen zuweisen zu können, werden eine Vielzahl von Berechnungen angestellt. „Die Anzahl und Gewichtung der für das Ranking berücksichtigten Merkmale variiert von Suchmaschine zu Suchmaschine. Beim Marktführer Google wird die Reihenfolge der Suchergebnisse beispielsweise von mehr als 100 unterschiedlichen Kriterien bestimmt. Betreiber von Suchmaschinen hüten Informationen über Rankingalgorithmen äußerst sorgsam und ändern ihre Auswertungsmethoden immer wieder, so dass Aussagen über die Wirksamkeit einzelner Faktoren nur bedingt getroffen werden können.“[1] Fischer weist darauf hin, dass es sich bei den Bewertungskriterien laut Experteneinschätzungen sogar um bis zu 150 verschiedene handeln könnte.[2]

„Google hüllt sich selbstverständlich in Schweigen. Was bleibt, sind Gerüchte, vermischt mit einer Portion harter Fakten, spärlichen Äußerungen von Google-Mitarbeitern und zahlreichen Beobachtungen von Nutzern und noch zahlreicheren Vermutungen von Suchmaschinen-Optimierern. Es wäre famos, aus diesem Dschungel von vermeidlichen Tatsachen immer definitive Aussagen über die eine oder andere Funktionsweise von Google treffen zu können […].“[3]„Durch Beobachtung, Zusammentragen von Wissen, Recherchen und durch gesunden Menschenverstand sind allerdings doch einige Elemente bekannt, auf die man besonderes Augenmerk legen sollte.“[4]

Die in Abbildung 2 dargestellten Ergebnisse, zeigen eine Auswahl an heute besonders wichtigen Rankingfaktoren. Klar ersichtlich ist die Korrelation zwischen einer hohen Positionierung bei den Suchmaschinen und der Anzahl an Social Signals wie Facebook-Shares, -Likes, -Comments und Twitter Tweets.

ranking-faktoren-google-deutschland Googles Bewertungsalgorithmen

Abb. 2: Spearman-Korrelation aller Rankingfaktoren für Google Deutschland 2012

Quelle: Searchmetrics GmbH, 2012, S. 4

Anmerkung: Die aktuelle Searchmetrics Ranking Faktoren Studie finden Sie hier

In Gliederungspunkt 5.1 soll noch einmal detailliert auf die in Abbildung 2, sowie weitere wichtige OffPage-Rankingfaktoren eingegangen werden. Der Gliederungspunkt 4.1 befasst sich zudem mit den in der Grafik dargestellten, sowie weiteren OnPage-Rankingfaktoren.

Google setzt für die Aktualisierungen seiner Suchergebnisse zwei unterschiedliche Crawler ein. Dabei endet der täglich durchgeführte Fresh-Crawl (nicht alle Websites werden täglich von einem Crawler besucht) unmittelbar im öffentlichen Index der Suchmaschinen. Während des Fresh-Crawls findet keine vollständige Erfassung der Websites statt. Das zweite von Google eingesetzte Verfahren ist der Deep-Crawl, der je nach Größe einer Website bis zu mehrere Stunden dauern und mitunter zur Entlastung des Servers auf mehrere Tage aufgeteilt sein kann.[5]

Die Tiefe des Crawls hängt bei den meisten Suchmaschinen von der Linkpopularität ab.[6] Anders als es in der Vergangenheit der Fall war, können die meisten Crawler heute nicht mehr mittels Meta-Tag angewiesen werden, in definierten Abständen zur Website zurück zu kehren, um diese zu crawlen. Die modernen Crawler entscheiden autonom, meist anhand von Vergleichsalgorithmen, wie oft sich ein Recrawl der betreffenden Internetseite lohnt. Stellt der Crawler fest, dass sich seit dem letzten Besuch nichts auf der Website verändert hat, wird der Zyklus verlängert, wenn es viele Aktualisierungen gibt, entsprechend verkürzt.[7]

Google lässt die Suchergebnisse aber nicht nur automatisch und nach Algorithmen berechnen, sondern auch von Menschen. Der GoogleMitarbeiter Matt Cutts bestätigte im Jahr 2005, dass ein so genanntes „Rater Hub“ existiere, in dem vor allem Studenten mit der manuellen Sichtung von Suchergebnissen beschäftigt werden.[8] Insbesondere Google hat hier eine Reihe von Logarithmen im Einsatz, von denen nachfolgend einige der bekanntesten und vermutlich auch wichtigsten vorgestellt werden sollen.

Quellen: [1] Greifeneder, 2006, S.45; [2] Vgl.: Fischer, 2009, S. 460f; [3] Erlhofer, 2008, S. 395; [4] Fischer, 2009, S. 321; [5] Vgl.: Erlhofer, 2008, S. 397; [6] Vgl.: Alby/Karzauninkat, 2007, S. 24f; [7] Vgl.: Alby/Karzauninkat, 2007, S. 25f; [8] Vgl.: Erlhofer, 2008, S. 406f; Fischer, 2009, S. 456; Broschart, 2010, S. 280

Wichtige Information: Die in diesem Artikel veröffentlichten Angaben sind Auszüge aus meiner am 15. Juli 2013 vorgelegten Master Thesis zum Thema: “Experiment zur Untersuchung des Zusammenspiels zwischen White-Hat- und Black-Hat-Methoden bei der Suchmaschinenoptimierung“. In einem sich extrem schnell wandelnden Bereich wie dem Online Marketing könnten einige der gemachten Angaben mittlerweile “outdated” sein!

Author: Mark Etting

Mark Etting studierte Dialogmarketing und Kommunikationsmanagement, arbeitete als SEO Consultant in verschiedenen Online Marketing Agenturen und als Inhouse SEO. Seit 2015 arbeitet er als SEO Freelancer für nationale und internationale Kunden.