Algorithmus

Beschreibt eine schematische Vorgehensweise, nach der Suchmaschinen die Bewertung eines Dokuments vornehmen.

Authority-Seite

Bezeichnung für Internetseiten/-Portale, die hohes Vertrauen von Seiten der Suchmaschinen genießen. Typischerweise verfügen diese Seiten über viele eingehende Verlinkungen von Webseiten mit hohem PageRank und weisen zudem i.d.R. ein hohes Alter auf.

BadRank

Eine Website verfügt über einen PageRank von Null, weil sie aufgrund eines Verstoßes gegen die Richtlinien von Google abgestraft wurde. Ein BadRank ist zumeist das Ergebnis von Spam-Maßnahmen.

Browserkennungen

Bei jedem Aufruf einer Webseite übermittelt der genutzte Browser automatisch ein Textstück, in dem festgelegt ist, um welchen Browser, in welcher Version es sich handelt.

Client

Als Clients werden Programme, Computer oder Prozesse bezeichnet mit Hilfe derer Informationen von einem anderen Computer, Prozess oder Programm angefordert und verarbeitet werden können.

CMS(-Systeme)

Bei Content Management Systemen handelt es sich um Softwarelösungen, die zumeist im Rahmen von Internetplattformen Anwendung finden. Diese vereinfachen das Einstellen und Aktualisieren von Informationen. WordPress ist beispielsweise ein Blog-CMS, das im Internet weit verbreitet ist.

Cookie

Bei Cookies handelt es sich um Dateien die von Internetseiten auf Computern oder sonstigen Endgeräten abgelegt werden um das Verhalten der Nutzer besser überwachen zu können. Zudem können mit Hilfe von Cookies auch Passwörter lokal gespeichert werden, damit diese nicht bei jedem Login-Vorgang neu eingetippt werden müssen.

Crawlen

Beschreibt den Vorgang bei dem ein Suchmaschinen-Robot oder -Crawler eine Internetseite indexiert.

Crawler

Siehe User Agent

Crawltiefe

Crawltiefe meint die Verzeichnisstiefe, bis zu der ein Suchmaschinen-Robot vordringt um eine Internetseite zu indexieren.

CSS

Die Cascading Style Sheets dienen dazu, den Programmcode, der Informationen über Grafiken und Strukturen einer Internetseite beinhaltet, in eine externe Datei auszulagern. Das Laden von Internetseiten kann dadurch beschleunigt werden.

Deep-Crawl

Bei einem Deep-Crawl werden alle Inhalte einer Internetseite, bis auf deren unterste Ebene, von einem Suchmaschinenroboter indexiert. Dem gegenüber steht der Fresh Crawl.

Engines

Beschreibt eine bestimmte Software, die als Grundlage für eine Internetseite oder ein Portal dient. I.d.R. haben diese Engines eine sehr hohe Verbreitung und eignen sich deshalb sehr gut für das automatisierte Linkbuilding. Beispiele für Blog-Engines sind WordPress und Joomla.

Fresh-Crawl

Google aktualisiert täglich seinen Index. Der so genannte Freshbot indexiert neue Webseiten, und nimmt sie in den Fresh-Index auf. Die Aufnahme in den normalen Index geschieht erst später beim Deep-Crawl.

gerankt

Siehe ranken

HTML

Beschreibt eine weit verbreitete Programmiersprache von Internetseiten. Die damit zusammenhängenden Befehle sind nicht nur für die Darstellung der Dokumente im Browser verantwortlich, sondern stellen auch Befehle zur Verfügung, mit deren Hilfe Suchmaschinenprogramme mit Informationen versorgt werden können.

HTTP

Das Hyper Text Transfer Protocol ist das am meisten genutzte Protokol zur Kommunikation zwischen Servern und Internet-Browsern.

IF-Modified-Since-Header

Der If-Modified-Since header gibt dem Suchmaschinen-Roboter Auskunft darüber, ob eine Website seit seinem letzten Besuch aktualisiert wurde oder nicht.

Index

Bezeichnet die Gesamtheit aller indexierten Internetseiten einer Suchmaschine. Die größeren Suchmaschinen verfügen über einen Katalog von mehreren Milliarden indexierten Internetseiten.

IP-Adressen

Das Internet Protocol bezeichnet eine Zahlenfolge (IP-Adresse), die jedem mit dem Internet verbundenem Gerät zugewiesen wird.

IR-Systeme

Die Suchmaschinen wie Google, Bing und Yahoo! werden als Spider-Suchmaschinen bezeichnet und basieren auf einem robotergenerierten Index oder besser gesagt einem Informations-Rückgewinnungssystem (Englisch: Information Retrieval System, kurz IR-System). Stellt ein Nutzer eine Suchanfrage wird nicht das gesamte Internet durchsucht, sondern lediglich der Index der Suchmaschine, aus denen dann die infrage kommenden Internetseiten zu den Suchergebnissen zusammengefügt werden.

Link-Juice

Der Begriff setzt sich zusammen aus Link (dt. Verknüpfung) und Juice (dt. Saft) und bezeichnet sämtliche Eigenschaften, die mit einem Link von einer Webseite zu einer anderen übertragen werden. Zu diesen Eigenschaften zählen u. a. PageRank, TrustRank.

Linkfarm

Als Linkfarm werden Websites bezeichnet, die primär dem Zweck dienen, möglichst viele Verlinkungen auf andere Internetseiten zu generieren.

Linkwachstum

Linkwachstum beschreibt die Anzahl an Links, die in einem bestimmten Zeitraum für eine Domain neu dazu kommen.

Penalty

Suchmaschinen verhängen Sanktionen gegen Websites die im Verdacht stehen unerlaubte Spamming-Maßnahmen zu benutzen um dadurch besser in den Ergebnislisten positioniert zu werden. Diese Strafen werden entweder automatisch, aufgrund von algorithmischen Berechnungen oder manuell verhängt.

Plug-in

Zusatzprogramm, welches über eine vordefinierte Schnittstelle in ein Basisprogramm eingebunden wird und dessen Funktionsumfang erweitert.

Proxy-Server

Proxy-Server dienen innerhalb eines Netzwerks als Intermediär bei einer Anfrage eines Clients an z.B. eines Servers. Dabei wird keine direkte Verbindung vom Client (z.B. Computer des Internetbenutzers) zum Server hergestellt, sondern zum Proxie-Server. Erst dieser nimmt dann Verbindung mit dem Server auf. In der Black-Hat-Suchmaschinenoptimierung kommen Proxie-Server vor allem zum Verschleiern der Identität und zum massenhaften Versenden von Anfragen zur Anwendung.

ranken

Der Begriff „ranken“ beschreibt im SEO-Bereich umgangssprachlich den Prozess der Suchmaschinenoptimierung und der daraus entstehenden (verbesserten) Positionierung bei den Suchmaschinen.

ReCrawl

Bezeichnet das erneute Indexieren einer Website durch den Crawler einer Suchmaschine.

Registrar

Als Registrar werden Unternehmen bezeichnet, die es ermöglichen Domains im Internet zu registrieren.

Robot

Siehe User Agent

Session ID

Unter Session versteht man die zusammenhängende Nutzung eines Internetangebots,

z.B. Shopeinkauf, durch einen Benutzer. Für jeden Benutzer wird dabei eine einzigartige Sitzungskennung angelegt, anhand derer er vom System identifiziert werden kann.

Sitemap

Ist eine eigene Webseite mit einem Überblick der Navigationsstruktur der gesamten Website, ähnlich einem Inhaltsverzeichnis. Insbesondere eine textbasierte Sitemap erleichtert dem Spider die Indexierung und Weiterverfolgung von Links auf einer Website.

Sitzungs-ID

Siehe Session ID

Social Media

Soziale Medien dienen der häufig profilbasierten Vernetzung von Benutzern und deren Kommunikation über das Internet. Ein Beispiel für Social Media Plattformen sind Social Bookmarking Sites.

Spider

Siehe User Agent

Subdomains

Eine Subdomain ist eine weitere Buchstabenkombination vor der eigentlichen Domain. Sie erleichtern den Besuchern einer Webseite die Navigation. Eine Subdomain wird nicht bei einem Registrar registriert, sondern kann direkt vom jeweiligen Server zugewiesen werden.

Suchmaschinenroboter

Siehe User Agent

Submission

Beschreibt den Prozess des Erstellens von Profilen auf Websites und/oder das einsenden von Content auf Internetplattformen.

Top-Level Domain (TLD)

Jeder Name einer Domain im Internet besteht aus einer Folge von durch Punkte getrennte Zeichenfolgen. Die Bezeichnung Top-Level-Domain bezeichnet dabei den letzten Namen dieser Folge und stellt die höchste Ebene der Namensauflösung dar. Beispiele für TLD sind .de, .com, .gov.

URL

Der Uniform Resource Locator ist die Adresse einer Internetseite mit Hilfe derer Sie über einen Browser oder einem ähnlichen Client aufgerufen werden kann.

User Agent

User Agents sind Programme von Suchmaschinen, die das Internet auf der Suche nach neuen Quellen  durchsuchen und die so gesammelten Daten an den Server der Suchmaschinenbetreiber zurückliefern. User Agents werden auch Robot, Crawler, Spider oder ähnlich genannt.

Webcrawler

Siehe User Agent

Webmaster

Der Begriff wurde ursprünglich als Bezeichnung für den Administrator eines Webservers verwendet. Heute wird Webmaster auch als Berufsbezeichnung benutzt und kommt z. B. häufig in Stellenanzeigen vor.

Author: Mark Etting

Mark Etting studierte Dialogmarketing und Kommunikationsmanagement, arbeitete als SEO Consultant in verschiedenen Online Marketing Agenturen und als Inhouse SEO. Seit 2015 arbeitet er als SEO Freelancer für nationale und internationale Kunden.