Ein weiterer wichtiger Punkt bei der OnPage-Optimierung ist der HTML-Code. Dieser spielt besonders für die Suchmaschinen-Robots eine große Rolle und sollte möglichst schlank gehalten werden und zudem fehlerfrei sein. Zur Verschlankung kann das Auslagern der grafischen Beschreibungssprache in eine CSS-Datei beitragen, was gleichzeitig einen wichtigen Grundstein für eine bessere Indexierung legt. „Die Trennung von Inhalt und Design bietet in vielen Feldern bessere Möglichkeiten. Allein die Vielfalt an verschiedenartigen Formatierungsmöglichkeiten macht den Einsatz sinnvoll.“[1] Auf die Verwendung von Frames sollte hingegen verzichten werden, da die Suchmaschinen-Spider bereits in der Vergangenheit immer wieder Probleme bei der Indizierung solcher Websites hatten.[2]

Damit Änderungen und Aktualisierungen an einer Internetseite möglichst schnell bei den Suchmaschinen indexiert werden, ist es erstrebenswert eine möglichst niedrige Wiederbesuchsrate von Seiten der Suchmaschinen-Crawler herbei zu führen.[3] Dies kann vor allem durch eine hohe Aktualisierungsrate der Website erreicht werden. Nachfolgend sollen nun weitere wichtige Aspekte der HTML-Optimierung behandelt werden.

Dynamische Websites, Session IDs und Cookie-Zwang

Unter dynamische Websites fallen alle Internetseiten, deren Linkstruktur nicht mit Hilfe eines CMS oder von Hand erstellt wurden. Diese Art von Websites ist dadurch gekennzeichnet, dass sie die URLs erst im Augenblick des Seitenabrufes, von einer speziellen im Hintergrund agierenden Software zusammenbauen. Aus diesem Grund existieren die URLs auch nicht physisch im Verzeichnisbaum und der Sitestruktur des Webservers.

Die benötigten Daten werden direkt aus einer Datenbank abgerufen und komplexe, parametrisierte URLs generiert. Anwendung findet dieses Verfahren vor allem bei Internetseiten mit komplexen Inhalten wie z.B. bei Web-Shops, interaktiven Sites oder bei bestimmten Content-Management-Systemen.[4]

Dynamische Seiten können leicht an einer Vielzahl von Sonder- oder kryptischen Zeichen in der URL erkannt werden, wie das folgende Beispiel verdeutlichen soll:

http://www.meinshop.de/produktid?=344&23/&BK=?n_CategoryName=50118&Li nktyp=DM[5]

„Dynamisch generierte Dokumente zeichnen sich dadurch aus, dass keine fertige Seite zum Versenden existiert. Der Programmierer gibt lediglich ein Skelett der Seite vor, das mit Platzhaltern, sogenannten Variablen, aufgefüllt ist. Diese Variablen werden bei einer Anforderung on-the-fly aus einer Datenbank eingefügt, und anschließend wird das Dokument wie bei statischen Seiten als HTML-Dokument via HTTP an den Client übergeben.“[6]

Das Hauptproblem, welches sich aus der kryptischen Linkstruktur ergibt, ist, dass hier keine Keywords im Sinne der Suchmaschinenoptimierung in der URL untergebracht werden können. Alby/Karzauninkat weisen allerdings darauf hin, dass dynamische URLs z.B. mittels eines kostenlosen mod-rewrite-Moduls für den Apache-Server umgeschrieben werden können. Das Ergebnis sind hübschere URLs ohne kryptische, parametrisierte Elemente.[7]

Ähnlich problematisch gestaltet sich die Verwendung von Cookies, die dem Besucher oftmals sogar aufgezwungen werden, da das Internetangebot sonst nicht nutzbar wäre. Die Rede ist dann von Cookie-Zwang. Das Problem, das hier entsteht, ist, dass Suchmaschinen-Robots keine Cookies akzeptieren. Cookies werden als eine Zufallszahl beim ersten Besuch einer Website, meist eines Online-Shops, erzeugt und als Erkennungsmerkmal zwischen Browser und Webserver ausgetauscht.

Ein weiteres Problem sind Session IDs, die der zweifelsfreien Unterscheidung von Nutzern dienen, welche sich gleichzeitig auf einer Website befinden. Die Problematik liegt hier in der kurzen Haltbarkeit der Session IDs, da sie nach nur meist wenigen Minuten oder Stunden automatisiert gelöscht werden und die erzeugten Links damit ihre Gültigkeit verlieren.

Der Google Mitarbeiter Matt Cutts hat darauf hingewiesen, dass solche dynamischen Inhalte den Suchmaschinen Probleme bereiten: „I’ve been aching for a long time to mention somewhere official that sites shouldn’t use “&id=” as a parameter if they want maximal Googlebot crawlage”[8] Ein Suchmaschinen-Robot, der so eine Seite indexiert und dafür eine Session ID zugewiesen bekommt, könnte die gefundenen Links zwar in den Index der Suchmaschine aufnehmen, allerdings würden diese den Suchenden aufgrund der nicht mehr vorhandenen Gültigkeit der URL auf eine Fehlerseite führen.[9]

Fischer rät deshalb folgendes: „Ermöglichen Sie es Suchrobotern, Ihre Website ohne Sitzungs-IDs oder Argumente, die ihren Weg durch die Website aufzeichnen, zu durchlaufen. […] Die Verwendung solcher Techniken kann zu einer unvollständigen Indizierung Ihrer Site führen, da Suchroboter eventuell nicht mehr in der Lage sind URLs zu eliminieren, die verschieden aussehen, aber auf dieselbe Seite zeigen.“[10]

Meta-Tags Optimierung im SEO

„Meta-Angaben waren zu Zeiten von AltaVista, Fireball und Co. das Maß der Dinge, wenn es um ein hohes Ranking bei den Suchmaschinen ging. Heutzutage ist das nicht mehr der Fall.“[11] Dies liegt vor allem daran, dass Meta-Tags in der Vergangenheit ein beliebtes Mittel waren um Keyword-Spam zu betreiben. Aus diesem Grund hat die Bedeutung des Keyword-Tags vor allem bei Google stark abgenommen.[12]

Laut Fischers Untersuchungen verlässt sich heute bis auf Yahoo! keine nennenswerte Suchmaschine mehr auf die Angaben im Keywords-Tag.[13] Dennoch merkt Winkler an: „Es gibt jedoch keinen Grund, die Meta-Angaben zu vernachlässigen oder völlig auf sie zu verzichten. Auf jeden Fall sollte man daher zumindest die wenigen Grundangaben gesetzt haben: Keywords, Description, Language […].“[14]

Für die Angaben im Keywords-Tag sollten möglichst nicht mehr als 15 Begriffe verwendet werden, wobei die Wichtigsten vorne stehen.[15] Besondere Bedeutung kommt dem Description-Tag zu, da der darin enthaltene Text oftmals von den Suchmaschinen ausgelesen und den Besuchern in den Suchergebnissen präsentiert wird. Damit dient er vor allem als Animation für den Suchenden auf die Seite zu klicken.[16] Auch Fischer bestätigt, dass für Google besonders der Titel und das Description-Tag wichtig sind und weist gleichzeitig darauf hin, dass dieser Tag auf allen Seiten einer Internetpräsenz unterschiedlich sein sollte.[17] Die Länge des Description-Textes sollte nach Glöggler maximal 200 Zeichen[18] betragen, nach Alby/Karzauninkat sollten 250 Zeichen[19] nicht überschritten werden.

Verwendung von Bildern

Nicht nur Texte, sondern auch Bilder, Aufzählungen und Tabellen sollten Bestandteil des auf der Website veröffentlichten Contents sein. Sie hübschen die Texte nicht nur optisch für den Besucher auf, sondern eigenen sich auch für die Suchmaschinenoptimierung.[20] Da die Inhalte von Bildern für Suchmaschinen (noch) nicht oder nur schwer lesbar sind, sollte bei der Verwendung selbiger immer mit einer alternativen Beschreibung in Form des Alt-Tags gearbeitet werden. Diese können dann von den meisten Suchmaschinen auch ausgewertet werden.[21]

Dies gilt vor allem bei der Verwendung einer grafischen Navigation mittels Bildbuttons.[22] Erlhofer weist zudem darauf hin, dass „insbesondere das Alt-Attribut sehr häufig übermäßig mit Schlüsselbegriffen gefüllt (wird). Die Suchmaschinen-Betreiber reagieren daraufhin mit einer geringeren Gewichtung dieses Attributs. Achten Sie daher auf eine korrekte Anwendung. Platzieren Sie die Schlüsselbegriffe mit wenigen Stoppwörtern und bauen Sie keinesfalls identische Inhalte in die alt- und titel-Attribute verschiedener Bilder mit ein.“[23]

Generell rät Fischer bei der Optimierung von Bildern zu folgenden Maßnahmen:[24]

  • Verwenden Sie das Keyword als Dateiname für das Bild.
  • Nehmen Sie Bildunterschriften auf (im Quellcode möglichst nah am Bild).
  • Belegen Sie in jedem Fall das Alt-Tag, aber nicht nur mit dem Keyword.
  • Die Bildgröße ist relativ egal, aber es sollten mindestens 30 x 30 Pixel und mindestens 5KB sein – als optimal haben sich 250 bis 600 Pixel erwiesen.
  • Legen Sie die Bilder selbst möglichst als „Vollbild“ ohne direkten Vergrößerungslink ab. Einen Link zu einer größeren Ansicht sollten Sie über ein gesondertes Symbol (zum Beispiel eine Lupe) oder einen gesonderten Textlink realisieren. [..]
  • In der Nähe des Bildes (vom Quelltext her gesehen) sollten Sie das Keyword nochmals aufnehmen. Wenn möglich, am besten in H2-Formatierung

Quellen: [1] Erlhofer, 2008, S. 223; [2] Vgl.: Greifeneder, 2006, S. 76; [3] Vgl.: Erlhofer, 2008, S. 282; [4] Vgl.: Erlhofer, 2008, S. 240ff; [5] Vgl.: Fischer, 2009, S. 416f; [6] Erlhofer, 2008, S. 241; [7] Vgl.: Alby/Karzauninkat, 2007, S. 89ff; [8] http://www.toprankblog.com; [9] Vgl.: Fischer, 2009, S. 421ff; [10] Fischer, 2009, S. 423; [11] Winkler, 2008, S. 225; [12] Vgl.: Chung/Klünder, 2007, S. 81ff; [13] Vgl.: Fischer, 2009, S. 296f; [14] Winkler, 2008, S. 225; [15] Vgl.: Winkler, 2008, S. 225; [16] Vgl.: Chung/Klünder, 2007, S. 81ff; [17] Vgl.: Fischer, 2009, S. 293f; [18] Vgl.: Glöggler, 2003, S. 139; [19] Vgl.: Alby/Karzauninkat, 2007, S. 87; [20] Vgl.: Winkler, 2008, S. 216; [21] Vgl.: Fischer, 2009, S. 324; Chung/Klünder, 2007,  S. 88; [22] Vgl.: Greifeneder, 2006, S. 49; [23] Erlhofer, 2008, S. 260; [24] Fischer, 2009, S. 324f

Wichtige Information: Die in diesem Artikel veröffentlichten Angaben sind Auszüge aus meiner am 15. Juli 2013 vorgelegten Master Thesis zum Thema: “Experiment zur Untersuchung des Zusammenspiels zwischen White-Hat- und Black-Hat-Methoden bei der Suchmaschinenoptimierung“. In einem sich extrem schnell wandelnden Bereich wie dem Online Marketing könnten einige der gemachten Angaben mittlerweile “outdated” sein!

Author: Mark Etting

Mark Etting studierte Dialogmarketing und Kommunikationsmanagement, arbeitete als SEO Consultant in verschiedenen Online Marketing Agenturen und als Inhouse SEO. Seit 2015 arbeitet er als SEO Freelancer für nationale und internationale Kunden.