Apr 28, 2015
Algorithmus
Beschreibt eine schematische Vorgehensweise, nach der Suchmaschinen die Bewertung eines Dokuments vornehmen.
Authority-Seite
Bezeichnung für Internetseiten/-Portale, die hohes Vertrauen von Seiten der Suchmaschinen genießen. Typischerweise verfügen diese Seiten über viele eingehende Verlinkungen von Webseiten mit hohem PageRank und weisen zudem i.d.R. ein hohes Alter auf.
BadRank
Eine Website verfügt über einen PageRank von Null, weil sie aufgrund eines Verstoßes gegen die Richtlinien von Google abgestraft wurde. Ein BadRank ist zumeist das Ergebnis von Spam-Maßnahmen.
Browserkennungen
Bei jedem Aufruf einer Webseite übermittelt der genutzte Browser automatisch ein Textstück, in dem festgelegt ist, um welchen Browser, in welcher Version es sich handelt.
Client
Als Clients werden Programme, Computer oder Prozesse bezeichnet mit Hilfe derer Informationen von einem anderen Computer, Prozess oder Programm angefordert und verarbeitet werden können.
CMS(-Systeme)
Bei Content Management Systemen handelt es sich um Softwarelösungen, die zumeist im Rahmen von Internetplattformen Anwendung finden. Diese vereinfachen das Einstellen und Aktualisieren von Informationen. WordPress ist beispielsweise ein Blog-CMS, das im Internet weit verbreitet ist.
Cookie
Bei Cookies handelt es sich um Dateien die von Internetseiten auf Computern oder sonstigen Endgeräten abgelegt werden um das Verhalten der Nutzer besser überwachen zu können. Zudem können mit Hilfe von Cookies auch Passwörter lokal gespeichert werden, damit diese nicht bei jedem Login-Vorgang neu eingetippt werden müssen.
Crawlen
Beschreibt den Vorgang bei dem ein Suchmaschinen-Robot oder -Crawler eine Internetseite indexiert.
Crawler
Siehe User Agent
Crawltiefe
Crawltiefe meint die Verzeichnisstiefe, bis zu der ein Suchmaschinen-Robot vordringt um eine Internetseite zu indexieren.
CSS
Die Cascading Style Sheets dienen dazu, den Programmcode, der Informationen über Grafiken und Strukturen einer Internetseite beinhaltet, in eine externe Datei auszulagern. Das Laden von Internetseiten kann dadurch beschleunigt werden.
Deep-Crawl
Bei einem Deep-Crawl werden alle Inhalte einer Internetseite, bis auf deren unterste Ebene, von einem Suchmaschinenroboter indexiert. Dem gegenüber steht der Fresh Crawl.
Engines
Beschreibt eine bestimmte Software, die als Grundlage für eine Internetseite oder ein Portal dient. I.d.R. haben diese Engines eine sehr hohe Verbreitung und eignen sich deshalb sehr gut für das automatisierte Linkbuilding. Beispiele für Blog-Engines sind WordPress und Joomla.
Fresh-Crawl
Google aktualisiert täglich seinen Index. Der so genannte Freshbot indexiert neue Webseiten, und nimmt sie in den Fresh-Index auf. Die Aufnahme in den normalen Index geschieht erst später beim Deep-Crawl.
gerankt
Siehe ranken
HTML
Beschreibt eine weit verbreitete Programmiersprache von Internetseiten. Die damit zusammenhängenden Befehle sind nicht nur für die Darstellung der Dokumente im Browser verantwortlich, sondern stellen auch Befehle zur Verfügung, mit deren Hilfe Suchmaschinenprogramme mit Informationen versorgt werden können.
HTTP
Das Hyper Text Transfer Protocol ist das am meisten genutzte Protokol zur Kommunikation zwischen Servern und Internet-Browsern.
IF-Modified-Since-Header
Der If-Modified-Since header gibt dem Suchmaschinen-Roboter Auskunft darüber, ob eine Website seit seinem letzten Besuch aktualisiert wurde oder nicht.
Index
Bezeichnet die Gesamtheit aller indexierten Internetseiten einer Suchmaschine. Die größeren Suchmaschinen verfügen über einen Katalog von mehreren Milliarden indexierten Internetseiten.
IP-Adressen
Das Internet Protocol bezeichnet eine Zahlenfolge (IP-Adresse), die jedem mit dem Internet verbundenem Gerät zugewiesen wird.
IR-Systeme
Die Suchmaschinen wie Google, Bing und Yahoo! werden als Spider-Suchmaschinen bezeichnet und basieren auf einem robotergenerierten Index oder besser gesagt einem Informations-Rückgewinnungssystem (Englisch: Information Retrieval System, kurz IR-System). Stellt ein Nutzer eine Suchanfrage wird nicht das gesamte Internet durchsucht, sondern lediglich der Index der Suchmaschine, aus denen dann die infrage kommenden Internetseiten zu den Suchergebnissen zusammengefügt werden.
Link-Juice
Der Begriff setzt sich zusammen aus Link (dt. Verknüpfung) und Juice (dt. Saft) und bezeichnet sämtliche Eigenschaften, die mit einem Link von einer Webseite zu einer anderen übertragen werden. Zu diesen Eigenschaften zählen u. a. PageRank, TrustRank.
Linkfarm
Als Linkfarm werden Websites bezeichnet, die primär dem Zweck dienen, möglichst viele Verlinkungen auf andere Internetseiten zu generieren.
Linkwachstum
Linkwachstum beschreibt die Anzahl an Links, die in einem bestimmten Zeitraum für eine Domain neu dazu kommen.
Penalty
Suchmaschinen verhängen Sanktionen gegen Websites die im Verdacht stehen unerlaubte Spamming-Maßnahmen zu benutzen um dadurch besser in den Ergebnislisten positioniert zu werden. Diese Strafen werden entweder automatisch, aufgrund von algorithmischen Berechnungen oder manuell verhängt.
Plug-in
Zusatzprogramm, welches über eine vordefinierte Schnittstelle in ein Basisprogramm eingebunden wird und dessen Funktionsumfang erweitert.
Proxy-Server
Proxy-Server dienen innerhalb eines Netzwerks als Intermediär bei einer Anfrage eines Clients an z.B. eines Servers. Dabei wird keine direkte Verbindung vom Client (z.B. Computer des Internetbenutzers) zum Server hergestellt, sondern zum Proxie-Server. Erst dieser nimmt dann Verbindung mit dem Server auf. In der Black-Hat-Suchmaschinenoptimierung kommen Proxie-Server vor allem zum Verschleiern der Identität und zum massenhaften Versenden von Anfragen zur Anwendung.
ranken
Der Begriff „ranken“ beschreibt im SEO-Bereich umgangssprachlich den Prozess der Suchmaschinenoptimierung und der daraus entstehenden (verbesserten) Positionierung bei den Suchmaschinen.
ReCrawl
Bezeichnet das erneute Indexieren einer Website durch den Crawler einer Suchmaschine.
Registrar
Als Registrar werden Unternehmen bezeichnet, die es ermöglichen Domains im Internet zu registrieren.
Robot
Siehe User Agent
Session ID
Unter Session versteht man die zusammenhängende Nutzung eines Internetangebots,
z.B. Shopeinkauf, durch einen Benutzer. Für jeden Benutzer wird dabei eine einzigartige Sitzungskennung angelegt, anhand derer er vom System identifiziert werden kann.
Sitemap
Ist eine eigene Webseite mit einem Überblick der Navigationsstruktur der gesamten Website, ähnlich einem Inhaltsverzeichnis. Insbesondere eine textbasierte Sitemap erleichtert dem Spider die Indexierung und Weiterverfolgung von Links auf einer Website.
Sitzungs-ID
Siehe Session ID
Social Media
Soziale Medien dienen der häufig profilbasierten Vernetzung von Benutzern und deren Kommunikation über das Internet. Ein Beispiel für Social Media Plattformen sind Social Bookmarking Sites.
Spider
Siehe User Agent
Subdomains
Eine Subdomain ist eine weitere Buchstabenkombination vor der eigentlichen Domain. Sie erleichtern den Besuchern einer Webseite die Navigation. Eine Subdomain wird nicht bei einem Registrar registriert, sondern kann direkt vom jeweiligen Server zugewiesen werden.
Suchmaschinenroboter
Siehe User Agent
Submission
Beschreibt den Prozess des Erstellens von Profilen auf Websites und/oder das einsenden von Content auf Internetplattformen.
Top-Level Domain (TLD)
Jeder Name einer Domain im Internet besteht aus einer Folge von durch Punkte getrennte Zeichenfolgen. Die Bezeichnung Top-Level-Domain bezeichnet dabei den letzten Namen dieser Folge und stellt die höchste Ebene der Namensauflösung dar. Beispiele für TLD sind .de, .com, .gov.
URL
Der Uniform Resource Locator ist die Adresse einer Internetseite mit Hilfe derer Sie über einen Browser oder einem ähnlichen Client aufgerufen werden kann.
User Agent
User Agents sind Programme von Suchmaschinen, die das Internet auf der Suche nach neuen Quellen durchsuchen und die so gesammelten Daten an den Server der Suchmaschinenbetreiber zurückliefern. User Agents werden auch Robot, Crawler, Spider oder ähnlich genannt.
Webcrawler
Siehe User Agent
Webmaster
Der Begriff wurde ursprünglich als Bezeichnung für den Administrator eines Webservers verwendet. Heute wird Webmaster auch als Berufsbezeichnung benutzt und kommt z. B. häufig in Stellenanzeigen vor.
Mark Etting studierte Dialogmarketing und Kommunikationsmanagement, arbeitete als SEO Consultant in verschiedenen Online Marketing Agenturen und als Inhouse SEO. Seit 2015 arbeitet er als SEO Freelancer für nationale und internationale Kunden.
Telefon:
E-Mail:
kontakt*at*mark-etting.de