Header 2a

Begriff Definition
Dublin Core

Ein Dublin Core ist ein einfacher und standardisierter Satz von Metadaten zur Beschreibung von Dokumenten und anderen Objekten im Internet. Die Idee dahinter ist es, Dokumente mithilfe dieser Metadaten zu beschreiben und einfacher (durch Suchmaschinen) auffindbar zu machen. Ausgangspunkt für die Definition war eine Konferenz in Dublin/Ohio Mitte der 90er Jahre und das große Interesse von Bibliotheken und Museen. Der Satz besteht aus Attributen, mit denen Objekte eindeutig beschrieben werden. Zu den Metadaten gehören zum Beispiel ID, Format, Sprache, Erzeuger, Veröffentlicher. Die Dublin Core Metadaten sind Bestandteil von Dokumenten im OpenDocument-Format und können in HTML im Metatag im Dokumentkopf angegeben werden.

Zugriffe: 4
HTTP

HTTP (Hypertext Transfer Protocol) ist ein Protokoll zur Datenübertragung in Rechnernetzwerken. Hauptsächlich wird es zum Anfordern und Laden von Daten aus dem World Wide Web in einen Browser genutzt.
Die übertragenen Nachrichten unterscheiden sich in Request (Anforderung vom Client an der Server) und Response (Antwort des Servers an den Client). Über HTTP übertragene Daten können auf allen Rechnern und Routern, über die sie im Netzwerk gesendet werden, mitgelesen werden. Bei der Nutzung von HTTPS (HTTP Secure) erfolgt die Übermittlung der Daten verschlüsselt.
HTTP wurde – wie auch die Konzepte für HTML und URL – am europäischen Kernforschungszentrum CERN in der Schweiz entwickelt. Die erste Version wurde 1991 veröffentlicht.

Zugriffe: 4
MfA

MfA-Seiten (Made for AdSense) sind Internetseiten bzw. Projekte, die einzig darauf abzielen, Besucherströme durch thematische Eingrenzung anzulocken, damit Besucher auf die AdSense-Werbebanner klicken. Dadurch erzielen die Seitenbetreiber stellenweise sehr gute Einnahmen. Viele Webmaster, die MfA-Seiten produzieren, tragen mit einer enorm schlechten inhaltlichen Qualität dazu bei, dass diese Art von Webprojekten äußerst unbeliebt ist. Häufig werden in Suchergebnissen MfA-Seiten präsentiert, deren Inhalte sich auf ein paar wenige Worte und viele Werbebanner beschränken. Die Suchmaschinenanbieter arbeiten mit einigen Erfolgen daran, derartige Sites auf die hinteren Ränge der SERPs zu verbannen.

Zugriffe: 7
Nofollow

Mit einem Nofollow -Attribut (engl., „nicht folgen“) können Webmaster Links ausstatten, indem sie einfach den Befehl „rel=nofollow“ an die URL anhängen. Das Ziel dieses zusätzlichen Linkattributs ist, dass Suchmaschinen Links dieser Art nicht mit in die Berechnung von Linkpopularität einbeziehen. In den vergangenen Jahren haben findige Suchmaschinenoptimierer mit sehr fragwürdigen Methoden (Spam/Bots etc.) über Kommentare, Gästebucheinträge usw. für ein enormes Spamaufkommen innerhalb der Website-Landschaft gesorgt. Die Zielsetzung ist eindeutig: möglichst viele eingehende Links, um das eigene Webprojekt in den SERPs nach vorne zu bringen. Um diesem Trend entgegenzuwirken, verwenden heutzutage unzählige Sites automatisch den Wert „nofollow“ in ihren ausgehenden Links. In Verbindung mit den Maßnahmen der großen Suchmaschinen, den Linkjuice eingehender Links mit nofollow-Attribut nicht mehr in die Wertung mit aufzunehmen, hat sich Aufkommen der Spammer wieder reduziert.

Zugriffe: 3
White Hat

Der Begriff “White Hat” beschreibt eine Vorgehensweise bei der Suchmaschinenoptimierung. White Hat ist jede Maßnahme, die mit den Webmasterrichtlinien der Suchmaschinenbetreiber konform geht. Mit dieser sauberen Suchmaschinenoptimierung lassen sich Erfolge meist langsamer als mit den gegensätzlichen Black Hat-Methoden erzielen, dafür sind sie langfristig erfolgreicher und sorgen in der Regel für nachhaltig gute Platzierungen in den SERPs. Sollen Internetauftritte langfristig angelegt werden, ist stets von der Nutzung unlauterer Methoden abzusehen. Die Suchmaschinen werden permanent verbessert, was früher oder später zwangsläufig zu einer Abstrafung von Sites führt, die versuchen, mit unsauberen Methoden bessere Platzierungen zu erzielen.

Zugriffe: 5
Above the fold

"Above the fold“ bezeichnet den oberen Abschnitt des sichtbaren Bereichs, der auftaucht, wenn eine Website angesteuert wird. In diesem Segment werden wichtige Nachrichten und/oder Grafiken platziert, die besondere Aufmerksamkeit erregen sollen. Seinen Ursprung hat die Bezeichnung „Above the fold“ in den Printmedien, in denen die Platzierung besonderer Schlagzeilen auf der Titelseite im oberen Bereich genutzt wird, um auch gefaltet sofort sichtbar zu sein.

Zugriffe: 6
Adsense

"AdSense“ ist eine Google-Lösung, die Volljährigen die Option bietet, Geld im Internet zu verdienen. AdSense wird so auf der Website des jeweiligen Nutzers integriert, dass Besucher automatisch Anzeigen mit ähnlichem Inhalt einsehen können. Auf diese Weise wird der User auf weitere artverwandte Inhalte im Netz aufmerksam. Der Webmaster der Internetpräsenz profitiert von diesem Angebot, da Google die Verlinkung bezahlt und AdSense kostenlos offeriert. Jeder autorisierte Besitzer darf diesen Service in Anspruch nehmen. Das Angebot beschränkt sich auf die Nutzung von maximal drei Blöcken auf einer Site, während der Verdienst ab einem Guthaben von über 70 Euro auszahlbar ist. Eine unkomplizierte Art, zusätzliches Einkommen zu generieren.

Zugriffe: 6
Advertorial

Bei einem „Advertorial“ handelt es sich um einen redaktionellen Text, der sowohl für Print- als auch für Onlinemedien geschrieben wurde. Der Text wird dabei von verschiedenen anderen Inhalten wie beispielsweise Fotos, Tabellen oder online auch Videos ergänzt. Der redaktionell geschriebene Text erfüllt dabei Werbezwecke. Advertorials unterliegen dem deutschen Presserecht und müssen daher als solche gekennzeichnet werden.

Zugriffe: 4
AdWords

AdWords begegnen jedem Internetuser, ohne dass sich diese darüber im Klaren sind. Dabei handelt es sich um ein Werbeprogramm von Google, bei dem Unternehmer bestimmte Keywords setzen, mithilfe derer Google genau jene Zielgruppe anspricht, die sich für das Produkt oder die beworbene Dienstleistung interessiert. AdWords erscheinen aber nicht nur auf Google-Seiten, sondern auch auf vielen anderen Websites. Dieses sogenannte Display Werbenetzwerk umfasst viele große, kleine, kommerzielle oder nicht kommerzielle Auftritte im Netz. Einzige Voraussetzung ist, dass Webmaster Google gestatten, einen Werbeauftritt auf ihren Sites zuzulassen. Im umgangssprachlichen Gebrauch ist mit AdWords oft auch nur die Werbung auf Google gemeint. Mit AdWords lassen sich bestimmte Marketingeffekte erreichen – so kann ein Unternehmen eine Marke (auch engl. „Brand“) gezielt bekannt machen, ohne dabei auf langwieriges Ranking angewiesen zu sein.

Zugriffe: 4
Adwords Advisor

Der Begriff „AdWords Advisor“ steht für einen Mitarbeiter von Google, der für das Suchmaschinenoptimierungsprogramm Google AdWords in Foren und FAQs auf Fragen von Kunden und Interessierten eingeht und diese beantwortet. Suchmaschinenoptimierung (auch SEO, engl. „Search Engine Optimization“) ist ein Verfahren, das auch Google AdWords anwendet, um Schlüsselwörter in Suchmaschinenrankings gezielt auf den obersten Plätzen zu platzieren. Ein AdWords Advisor kann außerdem bei der Auswahl der Schlüsselwörter behilflich sein und gibt Tipps, wie und wo sich diese sinnvoll anwenden lassen. Er kann auch bereits vorhandene Wörter verändern oder ersetzen. Je höher der Einsatz der Wörter und der Platzierung ist, desto höhere Kosten fallen an.

Zugriffe: 3
Affiliate

Der englische Begriff “Affiliate” beschreibt die Zusammenarbeit zwischen zwei Partnern. Meist geht es um die Kooperation zwischen einem Hersteller und einem oder mehreren Verkäufern bzw. Werbetreibenden, die die Produkte des Herstellers gegen Provision auf ihren eigenen Websites bewerben. Die Zusammenarbeit erfolgt – bis auf sehr wenige Ausnahmefälle – immer auf einer rein erfolgsorientierten Basis. Das Vergütungsmodell ist in der Regel auf Verkaufsprovisionen ausgelegt (kann aber auch vollkommen anders aussehen).

Die Funktionsweise soll anhand eines sehr einfachen Modells kurz nähergebracht werden:
Hersteller 1 produziert und vertreibt Produkt A zu einem Preis von 10€.

  • Affiliate 1 bewirbt Produkt A über seine eigene Affiliate-Site und leitet Kaufinteressenten zum Shop von Hersteller 1 weiter.
  • Die vereinbarte Verkaufsprovision für Affiliate 1 beträgt 10 % des Warenwertes.
  • Kaufinteressent 1 wird von Affiliate 1 zum Herstellershop geleitet – Kaufinteressent 1 kauft 3 Einheiten von Produkt A mit einem Warenwert von 30€.
  • Affiliate 1 erhält von Hersteller 1 für diesen Vorgang die vereinbarten 10 %, also 3€.
Zugriffe: 4
Algorithmus

Einfach gesagt ist ein „Algorithmus“ eine eindeutige Vorschrift zur Lösung eines Problems. Algorithmen sind zentrale Themen in der Mathematik und Informatik. Seit dem 19. Jahrhundert werden immer wieder neue Ansätze zur Definition von Algorithmen und verwandten Begriffen wie Berechenbarkeit oder Automaten entwickelt. Der Algorithmus ist die Basis jedes Computerprogramms und wird damit immer mehr zu einem der wichtigsten Güter in der Wirtschaft. Von einfachen Steuergeräten über die Rechtschreibprüfung in Textprogrammen bis hin zur Analyse von Aktienmärkten gibt es unzählige Varianten. Ein bekanntes Beispiel ist die Bewertung von Struktur und Inhalt der Sites des World Wide Webs, die sich im Ergebnis einer Suchmaschine zu einem eingegebenen Begriff widerspiegelt.

Zugriffe: 6
Allinanchor

Bei diesem Begriff handelt es sich um einen Suchbefehl der Suchmaschine Google. So finden sich beispielsweise bei der Eingabe "allinanchor:Marketing" alle Internetseiten, auf die am häufigsten mit dem Begriff „Marketing“ verlinkt wird. Mit dem Google-Operator Allinanchor werden Linktexte von Backlinks durchsucht. In den Ergebnislisten erscheinen nur die Websites, die die genannten Keywords in den Linktexten der Backlinks beinhalten. Die Websites werden in der Reihenfolge aufgelistet, die die Häufigkeit des Auftretens absteigend wiedergibt. Der Suchbefehl Allinanchor ist folglich ein wichtiges Hilfsmittel im Rahmen der Suchmaschinenoptimierung. Er ermöglicht es, Konkurrenten für bestimmte Keywords ausfindig zu machen, bei denen anschließend Linktauschs angefragt werden können.

Zugriffe: 3
Allinurl

"Allinurl“ ist ein Befehl, den Benutzer für eine spezielle Anfrage in Suchmaschinen eingeben können. Dadurch wird nicht hauptsächlich der Website-Inhalt analysiert, sondern nach allen Websites und deren Unterseiten gesucht, die den Suchbegriff in der URL enthalten. Eine korrekte Suchanfrage beginnt mit dem Allin-Befehl, gefolgt von einem Doppelpunkt und mindestens einem Begriff. Die Anfrage "Allinurl: Anfahrt" gibt alle Websites aus, die das Wort "Anfahrt" in der URL enthalten (z. B. www.beispiel.de/anfahrt.html). So kann beispielsweise die Gestaltung der Anfahrtsbeschreibungen von verschiedenen Websites betrachtet werden. Um themenverwandte Seiten, die mitunter keinen der Suchbegriffe in der URL enthalten, in der Ergebnisliste zu vermeiden, kann alternativ der Befehl "inurl" verwendet werden.

Zugriffe: 6
Alt-Attribut

Das “Alt-Attribut“ ist eine wichtige Komponente bei der Verlinkung von grafischen Seiteninhalten. Seitenbesucher, die beispielsweise blind oder mit einem Browser ausgestattet sind, der keine Bildinhalte anzeigt, können das auf der Seite angezeigte Bild nicht sehen. Mittels Alt-Attribut (auch Alt-Text genannt) kann und soll im Link beschrieben werden, was auf dem Bild zu sehen wäre. Dadurch können Suchmaschinen erkennen, was das Bild darstellt und blinde Seitenbesucher können sich vorlesen lassen, was als Alt-Attribut für das Bild hinterlegt ist. Das bringt aus Sicht eines Suchmaschinenoptimierers gleich zwei entscheidende Vorteile mit sich:

  1. Die Anforderungen vonseiten der Suchmaschinen an die Seitenbetreiber werden so ein Stück weit besser erfüllt, da Seiteninhalte komplett auslesbar sind.
  2. Seitenbesucher, die das hinterlegte Bild nicht sehen können, sind dennoch in der Lage zu erfahren, welcher Inhalt zu sehen wäre. Dies ist ein wichtiges Element der Barrierefreiheit und hilft sehbehinderten Menschen, das Internet einfacher und interessanter zu nutzen.
Zugriffe: 3
Apache Server

Der Apache Server ist der meistgenutzte Webserver im Internet und wurde von der Apache Software Foundation als freies und quelloffenes Produkt entwickelt. Seinen Namen erhielt er nach dem nordamerikanischen Indianerstamm "Apachen" und nicht – wie oft angenommen – vom Wortspiel "a patchy server" (engl.,"ein zusammengeflickter Server"). Diese Vermutung entstand, weil der Apache Server ursprünglich als Erweiterung für den NCSA HTTP Server gedacht war. Der Server ist standardmäßig in fast allen Linuxdistributionen und in Mac OS X enthalten. Für Windows, Linux und Mac OS X ist XAMPP eine beliebte Entwicklungsdistribution. Für die Versionen Apache 1.x werden keine Sicherheitsupdates mehr angeboten. Die Versionen Apache 2.x (außer 2.0) werden regelmäßig mit Updates und Weiterentwicklungen versorgt. Empfohlen wird der Einsatz der Version 2.4.

Zugriffe: 4
ASP

Active Server Pages ist eine von Microsoft entwickelte offene Plattform, auf der mithilfe von HTML und Scriptsprachen wie VBScript oder JScript dynamische Websites auf einem Server erzeugt werden können. Sie wurde 1996 veröffentlicht, seit 2002 gibt es den Nachfolger ASP.NET. Die Technologie ist direkt in die Webserver von Microsoft integriert und wurde ursprünglich auch nur von diesen unterstützt, zum Beispiel von Internet Information Services (IIS). Heute läuft sie aber auch auf dem beliebten Apache-Webserver. Mit der Einführung des .NET-Frameworks hat Microsoft den Nachfolger ASP.NET vorgestellt. Diese ist nach PHP die am häufigsten genutzte Programmiersprache für serverseitiges Erstellen von Websites.

Zugriffe: 3
Authority

Mit Authority ist bei der Suchmaschinenoptimierung eine Art Rangfolge gemeint. Wie bei der Autorität im Berufs- oder Sozialleben ist auch die Authority-Bezeichnung im Bereich der Suchmaschinenoptimierung ein Zeichen für eine starke Website. Die Suchmaschinenoptimierung ist gerade für Unternehmen sehr wichtig, um ganz oben in den Suchergebnissen gelistet zu werden. Sucht ein Internetnutzer über eine Suchmaschine wie Google, Yahoo oder Bing nach einem bestimmten Keyword, werden die autoritären Websites zuerst angezeigt. Um eine gute Autorität zu erlangen, sind Backlinks und die Keyword-Relevanz sehr wichtig. Sollte eine Website über eine Autorität verfügen, so profitieren auch allen anderen Unterseiten davon.

Zugriffe: 2
Backlink

Das Wort „Backlink“ bedeutet sinngemäß „Rückverweis“. Durch diese Bezeichnung sorgt es bei Neueinsteigern in der Suchmaschinenoptimierung oftmals für etwas Verwirrung. Als „Backlink“ wird in der Suchmaschinenoptimierung jeder Link bezeichnet, der von einer anderen Website auf die Seite des Betreibers verweist. Sofern der Betreiber selbst einen Link zu einer anderen Webseite setzt, gilt dieser für den betreffenden Seitenbetreiber ebenfalls als „Backlink“.

Zugriffe: 4
Bad Neighbourhood

Bad Neighbourhood wird metaphorisch für Websites verwendet, die in deutlichem Maße von den Google-Richtlinien abweichen und dadurch Rankingeinbußen der eigenen Seite verursachen können. Zum besseren Verständnis lässt sich dieser Zustand in die menschliche Gesellschaft übertragen:

Beim Aufenthalt in einer schlechten Nachbarschaft, der „Bad Neighbourhood“, gehen Google und manche andere Suchmaschinen davon aus, dass auch die eigene Reputation nicht viel Wert sein kann. Um den eigenen Status zu erhöhen, sollte das Ziel daher immer sein, diese schlechte Nachbarschaft loszuwerden. Ob eingehende Links solcher negativer Sites tatsächlich Auswirkungen auf das eigene Ranking haben, ist noch immer nicht definitiv geklärt – eigene Verlinkungen auf solche Sites sollten nach Möglichkeit entfernt werden. Deutliche Signale für Sites, die dem Kriterium „Bad Neighbourhood“ entsprechen, sind beispielsweise Deindexierungen.

Zugriffe: 3
Bad Rank

Ein Bad Rank steht für die Abstrafung einer Website oder auch für die schlechte Bewertung einer Site. Ein Bad Rank kann sich unter anderem dadurch zeigen, dass der PageRank dieser Site auf -1 heruntergestuft wurde. Dieser Wert zeigt als sichtbar gemachter Indikator an, wie oft die Site verlinkt wurde oder welche Qualität die verlinkten Websites haben (unter anderem). Auch ist dieser Wert ein deutliches Signal für jeden Suchmaschinenoptimierer, lieber die Finger von einer solchen Domain zu lassen, da sie als verbrannt gilt. Wurden diese Faktoren der Page im Rahmen einer Suchmaschinenoptimierung künstlich erhöht, kann die Site schlecht bewertet werden. Das Ranking einer Page lässt sich durch das Aufrufen der diesbezüglichen Anzeige in der Google-Toolbar überprüfen. Bleibt die Anzeige grau, kann das darauf hinweisen, dass diese Site bislang noch nicht in den Google-Datenbestand aufgenommen wurde.

Zugriffe: 4
Bait and Switch

Der Ausdruck „Bait and Switch“ bedeutet frei übersetzt „Lockvogel“. Oft wird „Bait and Switch“ für unseriöse Marketingtaktiken verwendet und stellt eine veraltete Technik in der Suchmaschinenoptimierung dar. Eine für Suchmaschinen optimierte Website wird bei einer Suchmaschine angemeldet und nach der durch die Suchmaschine stattfindenden Indexierung gegen eine andere Website ausgetauscht. Ein Nachteil ist, dass dieses Verfahren häufig als Spam gilt. Meist funktioniert der Austausch nicht reibungslos und die Suchmaschinen listen die Website gar nicht mehr. Daher wird dieses Verfahren heute kaum noch eingesetzt. Viel besser ist es, die Suchmaschinenoptimierung korrekt auf die richtige Website anzuwenden, um am Ende ein hohes Ranking bei den gängigsten Suchmaschinen zu erzielen.

Zugriffe: 4
Banner Blindness

"Banner Blindness“ beschreibt eine Entwicklung im Bereich Nutzerverhalten während eines Website-Besuchs. Im Laufe der dynamischen Entwicklung im Internet hat sich eine zunehmende Blindheit gegenüber Werbebannern eingestellt – das liegt zu einem großen Teil an der übertriebenen Anwendung derselben: Die User werden häufig mit einer großen Anzahl blinkender und bunter Banner geflutet, dass der Inhalt der einzelnen Werbebanner wirkungslos verpufft. Gut (hochwertig) produzierte und geschickt platzierte Werbebanner erzielen durchaus noch gewisse Werbeerfolge. Allerdings ist der Aufwand im Vergleich zum Nutzen relativ hoch.

Zugriffe: 3
Black Hat SEO

Der Begriff „Black Hat SEO“ fasst alle Tätigkeiten und Maßnahmen zusammen, die zu den unlauteren Methoden der Suchmaschinenoptimierung zählen. Als Maßstab für die Grenze zwischen erlaubten und unerlaubten SEO-Maßnahmen werden meist die Webmasterrichtlinien des Suchmaschinenriesens Google genutzt. „Black Hat SEO“ wird in der Regel genutzt, wenn schnelle Ergebnisse in den Rankings gewünscht sind, die nicht von langer Dauer sein müssen. Meist werden Auftraggeber mit derart erreichten Listenpositionen innerhalb der Suchmaschinen getäuscht. Zu den häufig genutzten Maßnahmen in diesem Bereich zählt z. B. automatisierter Link- bzw. Kommentarspam zum Zwecke des Linkaufbaus.

Zugriffe: 5
Blacklist

Als „Blacklist“ oder auch schwarze Liste wird in der Suchmaschinenoptimierung eine Auflistung von Websites bezeichnet, die gegen die Vorschriften von Suchmaschinen verstoßen haben. Da diese Listen sowohl von den nationalen als auch internationalen Suchmaschinen gefertigt werden, steigt der Bekanntheitsgrad solcher Websites im Eiltempo. Alle Sites, die auf einer solchen schwarzen Liste eingetragen wurden, werden in der Regel aus dem Index der Suchmaschinen gelöscht. Hierbei werden manche Websites nur vorübergehend aus der Ergebnisliste der Suchmaschinen ausgeblendet, während andere direkt vollständig und für immer aus dem Suchmaschinenindex entfernt werden. Nach einer definitiven Entfernung aus dem Index kann selbst mit den optimalsten Maßnahmen der Suchmaschinenoptimierung keine erneute Aufnahme in die Suchmaschinenergebnisliste erfolgen.

Zugriffe: 4
Blog

"Blog“ ist die Abkürzung des Wortes „Weblog", das wiederum eine Kreuzung aus den englischen Wörtern "web" und "log" ist („Log“ steht für „Logbuch“). Ein Weblog ist ein auf einer Internetseite basierendes Tage- oder Logbuch, das in der Regel öffentlich lesbar ist. Anders als bei normalen Websites werden hier immer wieder neue Inhalte eingepflegt, die auf der Homepage der Internetseite erscheinen. Konventionelle Websites haben meist eine feste Startseite, die immer nur aktualisiert wird. Vielen Menschen betreiben Weblogs, um sich im Internet zu präsentieren. So nutzen viele diese Plattform, um ein Tagebuch im ursprünglichen Sinne zu führen. Auch Unternehmen führen Weblogs, um beispielsweise neue Produkte vorzustellen oder weitere Informationen zu ihren Produkten zu liefern. Aus Sicht eines Suchmaschinenoptimierers bieten Blogs eine hervorragende Möglichkeit, speziell Firmenseiten mit immer neuen Inhalten versorgen zu können – dies erhöht nicht nur die Sichtbarkeit im Internet, sondern hilft auch bei der Kundenbindung.

Zugriffe: 8
Blogspam

Bei “Blogspam“ handelt es sich um Kommentare in einem Blog, die mit einem Link versehen sind, der zum Beispiel zu unerwünschter Werbung führt. Da ein Blog durch Kommentare der Leser interessanter wird, ist das Ausschalten oder das Freigeben der Kommentarfunktion nur für angemeldete Benutzer durch den Blogbetreiber nicht sinnvoll. In der Regel wird Blogspam durch sogenannte Bots erzeugt. Das sind Programme, die gezielt nach Blogs und anderen Websites suchen, die die Eingabe von Hyperlinks durch ihre Besucher akzeptieren. Als Abhilfe wird häufig das sogenannte "Captcha" benutzt, bei dem in einer kleinen Grafik ein nur durch den menschlichen Benutzer zu lösendes Rätsel dargestellt ist.

Zugriffe: 3
Body

"Body“ ist die Bezeichnung für den HTML-Körper – den sichtbaren Hauptteil einer Website –, der die wesentlichen Informationen für den Besucher aufführt oder zusammenfasst. In diesem Bereich werden Überschriften, Zitate oder andere Textstellen mit einer eigenen HTML-Kennzeichnung versehen. Mithilfe des Tags und seinen elementspezifischen Merkmalen wird die Darstellung des Textes festgelegt. Dieser Bereich kann durch sogenannte HTML-Tags für Suchmaschinen optimiert werden. Nach HTML-Konventionen ist dieser Bereich in Abgrenzung zum sogenannten Head sichtbar. Zur Textauszeichnung für die Suchmaschinenoptimierung können unterschiedliche HTML-Tags verwendet werden. Suchmaschinen können durch diese Tags die Relevanz von Textstellen erkennen. Zur Bestimmung des Pagerankings spielt der Body eine wesentliche Rolle für die Suchmaschinen, da diese die jeweilige Internetseite mittels der Textinhalte nach Themen und Relevanz ordnen.

Zugriffe: 3
Boolsche Operatoren

"Boolesche Operatoren“ oder auch Boolesche Variablen geben an, ob etwas wahr oder falsch ist. Sie kommen in Schaltungen und beim Programmieren zum Einsatz. Ein gutes Beispiel dafür ist die Suchmaschinenoptimierung. Suchmaschinen bewerten Websites nach bestimmten Kriterien. Dabei entsteht für jedes Kriterium ein Boolescher Operator, der angibt, ob es zutrifft oder nicht.
Zuerst wird nach Übereinstimmung mit dem Suchbegriff gesucht. Gibt es viele Übereinstimmungen auf einer Seite, wird diese als zum Thema passend bewertet und hoch eingestuft. Sind die Übereinstimmungen jedoch nicht in einen richtigen Text eingebunden, wird die Bewertung wieder herabgesetzt. Die endgültige Rangordnung der Ergebnisse basiert auf der Bewertung sehr vieler Kriterien mit unterschiedlicher Gewichtung.

Zugriffe: 2
Bot

Der Begriff „Bot“ ist abgeleitet vom englischen „robot“ (Roboter) und bezeichnet ein Computerprogramm, dass automatisch Aufgaben abarbeitet, ohne dabei auf Interaktionen mit Benutzern angewiesen zu sein. Internetsuchmaschinen benutzen beispielsweise Bots, die Websites aufrufen, auswerten und den darin vorhandenen Links folgen. Ohne diese eigenständig arbeitenden Programme wären Dienste wie die einer Suchmaschine nicht möglich. Ein „Bot“ steht jedoch auch für computergesteuerte Akteure im Mehrspieler-Modus von Computerspielen. „Bots“ werden häufig auch für kriminelle Zwecke verwendet. So können sie zum Beispiel zum Sammeln von E-Mail-Adressen für Werbung oder zum Ausspionieren von Softwarelücken auf Servern eingesetzt werden. Anbieter von Onlinediensten müssen zum Teil erheblichen Aufwand betreiben, um sicherzustellen, dass ein Benutzer kein Bot ist.

Zugriffe: 4
Breadcrumb Navigation

Ähnlich wie im Märchen von Hänsel & Gretel ist die sogenannte „Breadcrumb-Navigation“ ein Mittel, um den bereits zurückgelegten Weg immer nachvollziehen zu können. Dabei wird darauf geachtet, dass die bereits vollzogenen Navigationsschritte gut sichtbar sind (siehe „Above the fold“), um zu jeder Zeit zu jedem beliebigen Punkt springen zu können. Die „Breadcrumb-Navigation“ ist in zweierlei Hinsicht empfehlenswert:

  • Usability
    Im Bereich der Usability erfüllt die „Breadcrumb-Navigation“ eine wichtige Aufgabe, da jeder Seitenbesucher beim Durchstöbern des Angebots immer weiß, wo er sich gerade befindet. Studien haben gezeigt, dass die Besucherverweildauer mit einer integrierten BC-Navigation höher ist.

  • SEO
    Für Suchmaschinenoptimierer stellt die BC-Navigation ebenfalls ein wichtiges Element dar. Durch die integrierte Navigation werden zusätzliche interne Verlinkungen geschaffen, die für Suchmaschinen eine große Hilfe bei der Auffindbarkeit der Seiteninhalte sind.
Zugriffe: 3
Bridge Page

Eine “Bridge Page“ ist eine Website, die einzig und allein einen Zweck erfüllt: möglichst viele Besucher generieren und anschließend auf eine bestimmte andere Website weiterleiten. Dafür wird eine zusätzliche Site erstellt, die für bestimmte Suchkriterien optimiert wird. Dazu gehört vor allem auch die Nutzung einer weiteren Domain, um ein gutes Ranking in den Suchmaschinen zu erhalten. So könnte z. B. mit der URL "fahrräder-berlin.de" ein gutes Ranking für Suchanfragen nach Fahrradläden in der Region Berlin angestrebt werden. Die optimierte Domain wird dabei nicht als eigenständige Website aufgebaut, sondern leitet beim Aufruf sofort auf die eigentliche Website des Fahrradladens weiter.

Zugriffe: 2
Browser

Das Wort „Browser“ kommt aus dem Englischen und heißt frei übersetzt "stöbern“, „schmökern“, „umsehen". Hierbei handelt es sich um spezielle Computerprogramme, die das Internet entweder textgebunden oder grafisch darstellen können. Sie existieren, um die binären Daten des Internets zu interpretieren und die verfügbaren Inhalte visualisiert darzustellen. Die Grundvoraussetzung, um mit dem heimischen PC ins Internet zu gelangen, ist neben dem Internetzugang auch ein solches Programm (z. B. Google Chrome, Mozilla Firefox, Internet Explorer, Safari, Opera etc.).
Das Internet funktioniert über sogenannte Hyperlinks. Ein Webbrowser kann jeden beliebigen Hyperlink anwählen und die entsprechende Website aus dem Internet aufrufen. Neben normalen HTML-Elementen können moderne Webbrowser auch Bilder, Videos, PDF-Dateien und weitere Inhalte wiedergeben, wobei viele dieser Funktionen auch nachgerüstet werden können, bzw. müssen.

Zugriffe: 3
Browserweiche

Im Idealfall greifen sehr viele Anwender auf eine Website zu. Diese nutzen je nach Geschmack und technischer Ausrüstung unterschiedliche „Browser“, jeweils in der neuesten oder auch einer älteren Version. Für alle sollen Design und Funktionalität der Website gleich erscheinen. Die verschiedenen Anbieter von Webbrowsern unterstützen zwar die Standards (HTML, CSS, JavaScript), allerdings nicht zu 100 Prozent. Darüber hinaus wird auch der Standard weiterentwickelt, sodass sich neuere Browserversionen anders verhalten können als ältere. Eine Browserweiche ist ein Stück Programmcode auf dem Webserver oder direkt auf der Website. Abhängig von Typ und Version des Browsers werden damit unterschiedliche Codes aktiviert, damit die Site immer gleich aussieht und funktioniert.

Zugriffe: 2
Cache

Der Begriff Cache steht für einen Speicher, in dem Suchmaschinenbetreiber die von ihnen gecrawlten und indizierten Websites ablegen. Es werden also Kopien der eigentlichen Websites auf den Servern von Google und anderen Suchmaschinenbetreibern gespeichert. Klickt der User eine Site in einer Trefferliste an, wird diese aus diesem (Cache) Speicher angezeigt. Diese Technik hat mehrere Auswirkungen: Bei einer selten geänderten Site kann es Tage dauern, bis Google eine geänderte Version anzeigt. Dies lässt sich mit Tools, die Inhalte aus dem Zwischenspeicher löschen, vermeiden. Wurde der Inhalt einer Site versehentlich gelöscht, kann dieser unter Umständen aus dem Google Cache wiederhergestellt werden.

Zugriffe: 3
CGI

Bei einer interaktiven Website muss die Möglichkeit bestehen, Daten zwischen dem Browser, d. h., dem Anwender und dem Webserver, der die Site bereitstellt, auszutauschen und auf dem Server entsprechende Aktionen auszulösen. “CGI“ (engl., „Common Gateway Interface“), ist eine allgemeine Vermittlungsrechner-Schnittstelle, die im wörtlichen Sinne genau diese Möglichkeit bietet. Sie stellt Umgebungsvariablen und Kommunikationskanäle für Programme auf dem Webserver zur Verfügung. Form und Inhalte sind standardisiert. CGI-Programme durchsuchen zum Beispiel Datenbanken nach bestimmten Begriffen, die der Benutzer im Browser eingegeben hat, erzeugen einen HTML-Code mit einer Liste der gefundenen Daten und senden diese zurück an den Browser, wo sie angezeigt wird. Beispiele für die Anwendung dieser Schnittstelle sind Wikis, Foren oder Gästebücher.

Zugriffe: 5
Click

Der Click (engl., „Klick“) ist eine Art Währung im Internet. Wann immer ein Benutzer eine Aktion auf einer Website durchführen will, muss er früher oder später klicken, also mit der Maus oder – bei Touchscreens – einem Finger oder Stift auf einen definierten Bereich der Website drücken. Dies löst im Browser eine programmierte Aktion aus. Was ein Benutzer wann und wo anklickt, ist vor allem für Werbetreibende hochinteressant. Es gibt unzählige Tools, unter anderem von Google, die das durch Clicks ausgedrückte Nutzerverhalten beobachten und auswerten. Durch die Analyse lässt sich zum Beispiel feststellen, wie lange sich Benutzer auf einer Site aufhalten, wie sie sich innerhalb der Site verhalten und auf welchen Wegen sie zu einer Site gekommen sind / diese wieder verlassen.

Zugriffe: 3
Click-Popularität

Vereinfacht ausgedrückt bedeutet der Begriff Click-Popularität, dass eine Website umso beliebter ist, je häufiger sie besucht wird. Einige Suchmaschinen haben früher die Rankingpositionen ihrer Ergebnisse auch danach vergeben, welche Ergebnisse zuvor am häufigsten angeklickt wurden. Die Idee erscheint zunächst auch plausibel. Das Verfahren konnte sich aber nicht durchsetzen, weil es relativ leicht zu manipulieren ist. Das geschieht beispielsweise durch Programme, die automatisch Eingaben simulieren bzw. in diesem Fall Clicks erzeugen. Im Gegensatz zur Click-Popularität steht die Link-Popularität, die sich auf die Vernetzung einer Site im Web stützt und damit wesentlich schwieriger zu manipulieren ist.

Zugriffe: 3
Click-through-rate

Die “Click-Through-Rate“ (engl., „Klickrate“) beschreibt die Häufigkeit der Klicks auf spezifische Objekte im direkten Verhältnis zur Häufigkeit, mit der die Objekte angezeigt werden. Obwohl sich die „Click-Through-Rate“ (CTR) für alle Elemente mit Interaktion nutzen lässt, wird meist von der CTR gesprochen, wenn es sich um Werbeeinblendungen (vgl. Google AdSense) handelt. Die CTR ist ein skalierbarer Faktor für den Erfolg oder Misserfolg einer Werbeanzeigenschaltung. Die „Click-Through-Rate“ verhält sich wie eine Maßeinheit und wird in Prozent angegeben. Hier ein Beispiel:

Objekt A wird 1.000 Mal eingeblendet.
Objekt A wird15 Mal von den Website-Besuchern angeklickt.
Daraus ergibt sich eine CTR von 1,5 %.


Für den Bereich der reinen Suchmaschinenoptimierung spielt die „Click-Through-Rate“ ebenfalls eine Rolle, denn die CTR stellt einen direkten Zusammenhang zwischen Website und Suchmaschine her. Hier gilt: Je höher der Wert der CTR, desto besser zeigt sich in der Regel auch die Position der Site in den Suchergebnissen.

Zugriffe: 3
Client

Ein Client ist ein Kunde oder Nutzer eines Dienstes. In der Softwaretechnik wird das Programm, mit dem ein Anwender mit einem Softwaresystem interagiert, Client genannt. Komplexe Logik und Datenhaltung werden von diesem Teil getrennt und dem Client als Dienste (Service) zur Verfügung gestellt. Wer zum Beispiel E-Mails erhält oder sendet, nutzt einen Client wie etwa Outlook oder Thunderbird. Dieser Client sendet die E-Mails jedoch nicht selbst, sondern nutzt hierfür den Dienst eines E-Mail-Servers. Daher lassen sich E-Mail-Clients auch so einstellen, dass sie verschiedene Server nutzen, um die Mails von unterschiedlichen Adressen abzurufen. Üblicherweise ist der Client der aktive Teil des Client-Server-Systems. Mit sogenannten Push-Diensten können Server einen Client aber auch über ein Ereignis informieren.

Zugriffe: 7
Client-Server-Architektur

Die Client-Server-Architektur ist ein softwaretechnisches Modell zur Verteilung von Aufgaben und Funktionen in einem Computernetzwerk. Dies kann sowohl ein lokales Netz als auch das Internet sein; Client und Server können sich auch auf dem gleichen Rechner befinden. Der Server bietet einen oder mehrere Dienste an, die der Client benutzt. Ein Client-Server-System besteht aus mindestens zwei Komponenten, häufig greift ein Server aber auf die Dienste von weiteren Servern zurück. Auch eine zwischengeschaltete Komponente, die sogenannte Middleware, die die Anfragen eines Clients auf verschiedene Server verteilt, ist üblich. Ein typisches Beispiel ist das Handling von E-Mails. Für Versand, Empfang und generelle Verwaltungsaufgaben gibt es einen Server. Der Anwender nutzt einen E-Mail-Client, um E-Mails zu lesen oder zu verfassen.

Zugriffe: 2
Cloaking

Das Cloaking ist eine mittlerweile veraltete Methode aus dem Black-Hat-Bereich und bedeutet übersetzt „verhüllen“ und/oder „verschleiern“. Cloaking wurde häufig genutzt, um Inhalte vor Website-Besuchern zu verstecken, während diese Inhalte für Suchmaschinen trotzdem sichtbar waren. Frühe Nutzungsmöglichkeiten bestanden vor allem im Bereich Keywordstuffing – es wurden unzählige mäßig bis mittelmäßig relevante Schlüsselwörter unter oder über den eigentlichen Seiteninhalt eingefügt, dann aber mittels CSS optisch vollständig in die Farben des Hintergrunds übergeben. Für das menschliche Auge waren diese Inhalte unsichtbar (verhüllt), während die Suchmaschinen weiterhin alle Inhalte interpretieren konnten.
Cloaking funktioniert auch im umgekehrten Fall, d. h., wenn man Suchmaschinen „saubere“ Inhalte präsentiert, Besucher aber beispielsweise mit Schadsoftware im „drive by“-Modus bestücken möchte. Speziell Google erkennt mittlerweile sehr gut, ob bestimmte Inhalte vorgetäuscht werden, und ist mit einer Abstrafung schnell und effizient bei der Hand. Solche Methoden sind für eine nachhaltige Suchmaschinenoptimierung absolut nicht empfehlenswert.

Zugriffe: 4
Closed Loop

Die deutsche Übersetzung für Closed Loop ist „geschlossener Kreislauf“ oder „geschlossener Regelkreis“. Im Marketing werden Closed-Loop-Systeme eingesetzt, um eigenes Verhalten durch das Gewinnen möglichst vieler Informationen über den Kunden bzw. Interessenten oder auch über Feedback von ihm zu steuern (Angebot bestimmter Produkte oder Dienstleistungen) und eine möglichst starke Bindung aufzubauen.
Verkaufs- oder Auktionsportale im Internet analysieren das Verhalten eines Website-Besuchers in jedem Detail, um ihm mittels einer Recommendation-Engine (Algorithmus zum Erstellen von Empfehlungen) gezielte Angebote unterbreiten zu können. Die Reaktion des Kunden auf diese Aktion wird wieder in die Analyse eingespeist, wodurch ein geschlossener Kreislauf entsteht und die Ergebnisse immer besser an den Kunden angepasst werden können.

Zugriffe: 2
Content

Content is King”, lautet die Devise in Fachkreisen. Suchmaschinen wollen ihren Besuchern die bestmöglichen Ergebnisse präsentieren – diese ergeben sich aus hochwertigen und gut aufbereiteten Inhalten. Content bedeutet übersetzt „Inhalt“ und spiegelt sämtliche sichtbaren Inhalte, die auf Websites zu finden sind, wieder. Häufig wird der Begriff Content auf die verwendeten Texte reduziert, was sachlich falsch ist. Die geschriebenen Inhalte sind ein elementarer Teil des Seitencontents, aber auch in Form von Bildern, Grafiken und Videoeinbettungen lassen sich bei richtiger Dosierung und Nutzung enorme Vorteile für die Suchmaschinenoptimierung erzielen.

Allgemein gelten Seiteninhalte (Content) als gut, wenn folgende Kriterien erfüllt sind:

  • Komplexität (gemeint ist die Informationsdichte!)
  • Diversität (je umfangreicher ein Thema beleuchtet wird, desto besser fällt der langfristige Erfolg aus)
  • Integrität (Daten sollen möglichst belastbar sein – der Faktor „Expertenstatus“ wird häufig unterschätzt)
Zugriffe: 9
Content Strategie

Die Content-Strategie legt fest, wann man für welche Ziele Content erstellt und wie man diese publiziert. Dabei ist zu beachten, dass Content verschiedene Zwecke erfüllen kann. So kann er einen sehr hohen Informationsgehalt haben, aber auch durch visuelle Darstellungen können neue User gewonnen werden. Der Content wird für ein Medium erstellt und zu einem bestimmten Zeitpunkt veröffentlicht. Die Content-Strategie stellt dabei eine Hilfestellung für die beteiligten Mitarbeiter dar.


Zugriffe: 3
Conversion

Die Conversion (Besuchsaktionsauswertung) beschreibt den effektiven Nutzen einer oder mehrerer getroffener Maßnahmen in Bezug auf das anvisierte Ziel. Die Zielsetzung kann dabei extrem unterschiedlich gestaltet sein. Wenn Website-Besucher von einem „Ausgangszustand“ in den „Zielzustand“ versetzt wurden, spricht man von einer erfolgreichen Conversion (Konvertierung). In der Regel wird Conversion immer dann als Begriff verwendet, wenn bestimmte Werbemaßnahmen eingesetzt werden, um Besucher zu einem Kauf oder Klick zu bewegen. Die Anzahl derjenigen, die die gewünschte Aktion durchführen, im Verhältnis zur Gesamtzahl der Website-Besucher nennt man in diesem Zusammenhang „Conversion Rate“.

Zugriffe: 4
Cookie

Ein Cookie (engl., "Keks") ist ein kleines Datenpaket, das ein Browser auf Anforderung eines Servers, von dem er gerade Daten erhalten hat, auf dem Client abspeichert. Von diesem Zeitpunkt an werden der Cookie bzw. die darin enthaltenen Daten mit jedem neuen Request des Clients an den Server gesendet. Cookies werden zum Session-Management eingesetzt. Da HTTP ein zustandsloses Protokoll ist, wird jeder Request des Clients an den Server so ausgeführt, als sei es der erste. Bei einer Anwendung über mehrere Seiten, zum Beispiel bei einem Onlineshop, ist somit ein Trick erforderlich, um den Benutzer über alle Seiten hinweg identifizieren zu können. Daher werden die Cookies auf dem Client gespeichert und immer wieder mitgesendet, wenn sie nicht explizit gelöscht werden.

Zugriffe: 2
Corporate Publishing

Mit Corporate Publishing wird die Unternehmenskommunikation angesprochen, die vor allem die ausgewählten Zielgruppen des Unternehmens anspricht. Dabei kommt es vor allem auf eine einheitliche Kommunikation an. Schnell kann es zu einem schlechten Bild eines Unternehmens führen, wenn die Unternehmenskommunikation nicht aufeinander abgestimmt ist. Moderne Kommunikation nutzt alle Medien, die sich zur Verbreitung von journalistischen Inhalten eignen. Dies umfasst neben dem Online- und Printbereich auch die mobile Kommunikation. Beim Corporate Publishing wird auf die einheitliche Verbreitung von Informationen hingearbeitet, deren oberstes Ziel nicht der Verkauf von Waren und Dienstleistungen, sondern die Verbreitung von fachgerechten Informationen ist.

Zugriffe: 2
Cost per Click

Cost per Click (CPC) bedeutet „Kosten pro Klick“ und ist ein Abrechnungsmodell für Werbung im Onlinegeschäft. Damit wird die Bezahlung von Werbung abgerechnet, die der Werbetreibende auf einer fremden Website platziert, zum Beispiel in Form von Bannern oder Textlinks.
Der Betreiber der Website, auf der die Werbung platziert wird, erhält dafür keine Pauschale, sondern ausschließlich einen festgelegten Betrag pro tatsächlichem Klick eines Besuchers auf die geschaltete Werbung. Diesen festgelegten Preis nennt man Cost per Click. Die Höhe des Preises richtet sich in erster Linie nach dem Traffic auf der Site, auf der die Werbung platziert werden soll. Das CPC-Modell kommt häufig im Rahmen des Affiliate-Marketings zum Einsatz.

Zugriffe: 3
Counter

Ein Counter oder auch Page Counter zählt die Besuche auf einer Website. Die meisten Provider bieten solche Counter für gehostete Sites an. Als Werkzeug für die Erfolgsmessung einer Site ist ein einfacher Counter jedoch nur bedingt geeignet. Allerdings kann ein einzelner Besucher der Site mehrere Zählvorgänge anstoßen. Daher ist die Aussagekraft hinsichtlich der Suchmaschinenoptimierung begrenzt. Die Auswertung von Logfiles bietet dafür deutlich mehr und bessere Möglichkeiten. Einfache Counter können auch von externen Anbietern kostenlos in die eigene Website eingebunden werden. Für eine professionelle Suchmaschinenoptimierung empfehlen sich allerdings geeignetere Werkzeuge.

Zugriffe: 3
Crawler

Crawler sind Computerprogramme, die das Internet ohne jede menschliche Interaktion durchsuchen und Websites analysieren. Crawler werden hauptsächlich für Suchmaschinen eingesetzt. Sie gehören zu Bots (Kurzform von Robots) – autonomen Programmen, die unabhängig immer wieder die gleichen Aufgaben durchführen und die Ergebnisse ihrer Arbeit an einer definierten Stelle hinterlegen. Crawler können unterschiedliche Aufgaben durchführen. Neben der Indexierung des öffentlichen Internets für Suchmaschinen kann das zum Beispiel auch das Sammeln von E-Mail-Adressen von Websites sein, um Werbe-E-Mails (Spam) zu versenden. Ein weiteres Beispiel ist das Auffinden von Inhalten, die dem Urheberrecht unterliegen. Über die Metadaten einer Site können Website-Betreiber Crawler bis zu einem gewissen Grad aussperren, wenn sie das wollen.

Zugriffe: 2
CRM

CRM ist die Abkürzung für Customer Relationship Management (engl., „Kundenbeziehungsmanagement“) und steht für die Verwaltung und Dokumentation der Beziehung eines Unternehmens zu seinen Kunden sowie für die Ausrichtung von Prozessen in diesem Bereich. Insbesondere in Branchen, in denen die Interaktion mit den Kunden zu einem großen Teil auf elektronischem Wege via Telekommunikation oder Versandhandel stattfindet, hat sich dieses Instrument zu einem zentralen Baustein der Unternehmens-IT entwickelt. CRM ist von großer Bedeutung für das Marketing, weil durch Analyse und Auswertung der vorhandenen Daten zum Beispiel Informationen über durchgeführte Aktionen oder die Kundenzufriedenheit gewonnen werden können. Die Kontrolle und Steuerung aller Internetaktivitäten eines Unternehmens lassen sich damit effizient gestalten.

Zugriffe: 2
Cross Linking

Cross Linking bezeichnet die gegenseitige Verlinkung von Websites, d. h., Site A hat einen Link zu Site B und umgekehrt. Ziel ist meist eine höhere Einstufung in den Suchergebnissen. Links haben dabei grundsätzlich einen positiven Einfluss, wenn bestimmte Bedingungen eingehalten werden. Wird Cross Linking zu intensiv angewendet, könnte Google das als Manipulationsversuch ansehen. Daher sollten Links grundsätzlich nur bei einem tatsächlichen thematischen Bezug gesetzt werden. Wichtig sind auch die Linktexte sowie die Geschwindigkeit des Wachstums der Verlinkungen. Ob es besser ist, unterschiedliche Webhoster für Cross Linking zu benutzen, oder ob positive Effekte auch bei ähnlichen IP-Adressen möglich sind, ist umstritten. Cross Linking sollte jedenfalls nicht übertrieben werden.

Zugriffe: 2
CSS

Zum Aufbau von Websites wird die Sprache HTML verwendet. Diese definiert den Inhalt und die Struktur eines Dokumentes. Um das Design festzulegen, also zum Beispiel Schrift- und Hintergrundfarben, Rahmen und Ränder sowie die Positionierung der einzelnen Elemente auf der Site, wird CSS genutzt. CSS ist die Abkürzung für Cascading Style Sheets, frei übersetzt etwa kaskadierende Stilvorgaben. Ein HTML-Dokument ist hierarchisch aufgebaut. „Kaskadierend“ bedeutet, dass ein Element die Eigenschaften seines umgebenden Elementes "erbt", was eine erhebliche Vereinfachung für die Programmierung von Websites ist. Die Designanweisungen können direkt im HTML-Dokument eingegeben werden. Im Sinne einer besseren Wartbarkeit von Websites werden sie aber üblicherweise in einer separaten Datei gespeichert.

Zugriffe: 7
CTR

CTR steht für Click-Through-Rate (engl., „Klickrate“) und ist ein Begriff aus dem Internet-Marketing. CTR steht für das Verhältnis der Klickanzahl auf einen Werbebanner oder Link zur Anzahl der Aufrufe der Site, also der möglichen Klicks durch den Nutzer. Wird eine Werbung 100 Mal angezeigt und einmal geklickt, beträgt die Klickrate 1 %. Die Klickrate wird teilweise als Grundlage für die Bezahlung der Werbung genutzt. Als alleiniger Erfolgsmesser für eine Werbekampagne ist sie nur begrenzt sinnvoll. Laut einer Studie aus dem Jahr 2011 klickt ein großer Teil der deutschen Internetnutzer überhaupt keine Werbung an. Google empfiehlt, Auswertungen von Klickraten in einen Zusammenhang mit Keywords zu bringen, um bessere Ergebnisse zu erzielen.

Zugriffe: 3
Dead Link

Ein Dead Link (engl., „toter“ oder „defekter Verweis/Link“) kann sowohl ein eingehender als auch ein ausgehender Link sein. Im Sinne der Suchmaschinenoptimierung spricht man aber für gewöhnlich von einem ausgehenden Link. Kommt ein Dead Link zur Sprache, ist ein verlinkter Beitrag nicht mehr erreichbar. Auch Suchmaschinen werden über solche Dead Links zu Fehlerseiten geleitet, was für eine schlechte Website-Pflege spricht. Solche Dead Links oder sollten im Zuge der Suchmaschinenoptimierung immer wieder gesucht und – sofern vorhanden – über eine Umleitung (redirect) beseitigt werden.

Zugriffe: 3
Dedicated Server

Ein Server ist im heutigen IT-Sprachgebrauch ein System, das Anfragen von Clients (engl., „Kunden“) bearbeitet. Clients sind Programme, die in der Regel von Anwendern bedient werden, z. B. Webbrowser. Der Server muss physisch kein Computer sein, sondern kann ein virtuelles System (ein durch spezielle Software simulierter Rechner auf einem größeren Rechnersystem) sein.

Ein Dedicated Server stellt einen oder mehrere Dienste zur Verfügung und wird für keinen anderen Zweck genutzt. Ziel ist es, eine hohe und vor allem konstante Leistung für die angebotenen Dienste zu gewährleisten. Im Marketing von Webhostern wird der Begriff Dedicated Server verwendet, um Kunden ihren "eigenen" Server anzubieten. Durch die Reservierung aller technisch vorhandenen Ressourcen werden vor allem größere Webprojekte wesentlich performanter als es bei einem Shared Hosting (mehrere Kunden teilen sich einen physischen Server) machbar wäre. Eine bessere Performance spiegelt sich beispielsweise in den Ladezeiten wieder, was ein wichtiges Rankingkriterium bei den großen Suchmaschinen darstellt.

Zugriffe: 3
Deep Crawl

DeepCrawl ist die Eigenschaft von Suchmaschinen, eine Internetpräsenz vollständig, also mit allen erreichbaren Unterseiten, zu indexieren. Dies erfolgt durch spezielle Programme, sogenannte DeepBots, und kann bei großen Websites auch mehrere Stunden dauern. Der Vorteil für den Anwender einer Suchmaschine ist, dass auch Seiten, die zum Beispiel bei einem großen Webshop erst nach vielen Klicks von der Startseite aus erreichbar sind, direkt als Ergebnis der Suchanfrage angezeigt werden.
Voraussetzung für eine erfolgreiche Suche ist eine durchgehende Verlinkung aller Seiten ausgehend von einer (bereits indexierten) Homepage. Wegen des großen zeitlichen Aufwands beim DeepCrawl ist die Tiefe, in der gesucht wird, bei einigen Suchmaschinen eingeschränkt.

Zugriffe: 3
Deep Link

Der Begriff “Deeplink” (engl., „tiefe Verknüpfung“) beschreibt eine bestimmte Zielverortung eines Links. Deeplinks gehen in die Tiefe eines Verzeichnisses bzw. einer Website. Zur Veranschaulichung ein gewöhnlicher Link und ein Deeplink im Vergleich:

  • Herkömmlicher Link: www.domain.de
  • Deeplink: www.domain.de/unterverzeichnis1/unterverzeichnis2/Dateiname.html

Deeplinks sind den konventionellen Links in der Regel vor allem beim Linkaufbau vorzuziehen, da externe Verlinkungen auf die Startseite gewöhnlich ganz von selbst kommen. Besonders wichtige Kategorien, Artikel oder Unterseiten sollten mit direkten Links für ihre Relevanz belohnt werden. Die daraus resultierende Unterseitenstärke kommt dem gesamten Webauftritt zugute.

Zugriffe: 4
Deep Web

Als Deep Web oder Hidden Web bezeichnet man den – naturgemäß eher unbekannten – Teil des World Wide Web, der nicht von Suchmaschinen indexiert wurde und daher nicht über Suchanfragen (zum Beispiel bei Google) auffindbar ist. Nach Schätzungen ist dieser Teil des World Wide Webs deutlich größer als der "öffentliche" Teil.
Durch die Verbesserung der Suchmaschinentechnologie und die weitere Veröffentlichung von Inhalten wird der indexierte Teil des Webs allerdings ständig erweitert. Zum Deep Web gehören unter anderem frei zugängliche Datenbanken, deren Inhalte erst durch entsprechende Suchanfragen zurückgegeben werden; kostenpflichtige Angebote; Sites, die nicht gefunden werden sollen oder solche, die technisch schlecht erstellt sind, zum Beispiel wegen fehlender Links.

Zugriffe: 3
DeepBot

Ein DeepBot ist ein automatisches Programm (von „Bot“, Kurzform „Robot“), das im Internet nach neuen Websites sucht und diese für eine Suchmaschine indiziert. Es gibt verschiedene Arten solcher Programme („Crawler“ oder „Spider“ genannt), die jeweils etwas andere Aufgaben haben. Der DeepBot ist dafür zuständig, neue, noch nicht indexierte Sites in der Tiefe zu erfassen; möglichst alle Seiten einer Hierarchie oder Struktur werden indexiert und dauerhaft in den Index übernommen. Die mit Bots erfolgte Indexierung der Websites – es handelt sich im World Wide Web um Hunderte Milliarden Sites – macht das schnelle Auffinden, ohne die genaue Adresse einer Site zu kennen, überhaupt erst möglich.

Zugriffe: 4
Delisting

Das Delisting ist eine Strafmaßnahme durch Google und wird bei Websites angewendet, die gegen die von Google aufgestellten Richtlinien für Webmaster verstoßen. Die Strafen sind in unterschiedliche Schweregrade unterteilt. Der Ausschluss einer Website aus dem Google-Index wird Delisting genannt. Die so bestrafte Website ist nicht mehr durch Suchanfragen bei Google auffindbar. Die Strafen werden automatisiert durch bestimmte Algorithmen oder manuell durch einen Google-Mitarbeiter verhängt. Die Richtlinien von Google beinhalten zum Beispiel, dass irreführende Weiterleitungen, verborgene Texte oder Links, kopierte Inhalte oder schädliche Funktionen nicht auf einer Site enthalten sein dürfen. Eine Zurücknahme der Strafe kann durch einen Antrag auf erneute Überprüfung durch Google eingeleitet werden.

Zugriffe: 2
DENIC

DENIC steht für Deutsches Network Information Center. Die gemeinnützige Genossenschaft verwaltet und betreibt die Top-Level-Domain „.de“. Sie vergibt alle Domainnamen, die für die deutsche Domain angemeldet werden und registriert sind. Mitglieder der DENIC sind heute mehr als 300 Unternehmen, darunter alle bedeutenden nationalen und internationalen Internetdienstanbieter wie die Deutsche Telekom, Vodafone, United Internet, Strato etc.
Als die Top-Level-Domain „.de“ im November 1986 eingeführt wurde, übernahm zunächst die Universität Dortmund und ab 1994 die Universität Karlsruhe die Verwaltung der Domain. Infolge der deutlich steigenden Nachfrage nach Domains in den 90er Jahren wurde schon Ende 1996 eine Genossenschaft gegründet. Ab Juli 1997 übernahm die DENIC nach und nach alle mit der .de-Domain verbundenen Aufgaben.

Zugriffe: 5
Description

Description ist ein Metatag im Kopf eines HTML-Dokuments, das der Betreiber bzw. Ersteller einer Website festlegt. Die Description ist vor allem wichtig, weil sie in den Ergebnissen von Suchanfragen zusammen mit Titel und URL der Site angezeigt wird. Daher sollte sie den Inhalt der Site möglichst genau beschreiben. Eine gelungene Description kann eine Website aus der Liste der Suchergebnisse herausheben, auch wenn sie nicht an erster Stelle steht. Daher ist sie zwar kein direktes Mittel zur Suchmaschinenoptimierung, kann aber das Interesse des Anwenders auf die Site lenken. Somit sollte die Description für jede einzelne Site, die in den Index der Suchmaschinen aufgenommen wird, sorgfältig gewählt werden.

Zugriffe: 3
DHTML

Das "D" in DHTML steht für dynamisch. Es handelt sich dabei also um HTML, mit dem eine Website nicht statisch angezeigt wird, sondern deren Inhalt und Struktur sich aufgrund von Benutzereingaben dynamisch ändern können, z. B. Eingabedialoge (Formulare) und das Aufklappen eines Menus oder einer Auswahlliste, wenn der Benutzer mit der Maus darüberfährt oder sie anklickt.
DHTML ist aber keine Erweiterung der Sprache HTML durch neue Elemente und auch keine neue Sprache. Vielmehr kommen zusätzliche Techniken – in erster Linie JavaScript als weitere Sprache – zum Einsatz. Dynamisches HTML ist daher nur mit neueren Browserversionen nutzbar, sofern JavaScript nicht vom Benutzer deaktiviert wurde, beispielsweise aus Sicherheitsgründen. Mittlerweile ist jedoch eher der Begriff DOM Scripting statt DHTML geläufig.

Zugriffe: 4
Dialer

Dialer sind Programme, die eine Wählverbindung von einem Rechner zu einem Telefon- oder Datennetz aufbauen. Da Computer im Festnetz heute praktisch ausschließlich über DSL kommunizieren, werden sie mittlerweile eher im Mobilfunkbereich eingesetzt. Grundsätzlich können mithilfe dieser Programme Mehrwertdienste über die Telefonrechnung abgerechnet werden. Im allgemeinen Sprachgebrauch hat sich der Begriff für Einwahlprogramme für Mehrwertdienste durchgesetzt und ist damit zum Synonym für unseriöse oder sogar kriminelle Angebote geworden. Heute gibt es Verfahren mit dieser Bezeichnung, die im technischen Sinne aber keine Dialer sind. Damit kann zum Beispiel ein E-Book über die Telefonrechnung bezahlt werden, wenn während der Zeit für den Download eine entsprechende Nummer per Telefon gewählt wird.

Zugriffe: 3
Direct Marketing

Beim Direct Marketing geht es darum, spezielle Kundengruppen mit einer Kampagne direkt anzusprechen und auch eine Antwort vom Kunden zu erhalten. Die Übermittlung der Werbebotschaft erfolgt beim Direct Marketing direkt; kein Netzwerk oder Drittanbieter bietet seine Dienste an, um die Werbebotschaft zu verteilen. Als Kommunikationsweg können Marketer sowohl Offline- als auch Onlinemedien nutzen. Hierzu zählen Flyer und Poster, aber auch E-Mails, SMS und Fax.

 

Zugriffe: 4
DMOZ

DMOZ steht für Directory Mozilla, auch bekannt als Open Directory Project (ODP). Nach eigenen Angaben handelt es sich hierbei um das größte von Menschen gepflegte Verzeichnis des World Wide Web. Das Motto lautet "Humans do it better", die Mitarbeit ist ehrenamtlich. Ziel ist es, die im Internet veröffentlichten Informationen zu katalogisieren. Gegründet wurde das ODP, weil einerseits in redaktionell betreuten Verzeichnissen neue Sites erst nach langer Verzögerung aufgenommen wurden und ein hoher Anteil toter Links existierte; andererseits wurde der kommerzielle Aspekt durch automatisierte Suchmaschinen zu sehr in den Vordergrund gerückt. Die Inhalte von DMOZ sind frei zugänglich und können unter Lizenzbedingungen kostenfrei weiter verbreitet werden. Bis 2011 nutzte auch Google die Daten des DMOZ.

Zugriffe: 2
DNS

Das Domain Name System (DNS) ist einer der grundlegenden Dienste in IP-basierten Netzwerken, d. h., sowohl im Internet als auch in einem Firmennetzwerk mit nur einigen oder sehr vielen Rechnern. Jeder Computer in einem Netzwerk hat eine IP -Adresse, die aus mehreren Zahlenkolonnen besteht. Da ein Anwender sich diese nicht merken kann, gibt es für ihn die Domain, zum Beispiel Beispiel-Website.de. Das DNS löst den Domainnamen auf und teilt dem Rechner die dazugehörige IP-Adresse mit, ähnlich wie eine Telefonauskunft. Das DNS ist hierarchisch strukturiert und weltweit in Zonen unterteilt. Es wurde bereits 1983 entworfen und zeichnet sich durch dezentrale Verwaltung, Eindeutigkeit von Namen und seine Erweiterbarkeit aus. Für die internen Netzwerke von Firmen oder Behörden werden eigene, interne DNS genutzt.

Zugriffe: 5
Domain

Eine Domain ist ein sogenannter Namensraum, ein Teil des hierarchisch aufgebauten Domain Name System für das Internet. Es gibt eine Wurzel (engl., „Root“) und darunter die von einem internationalen Gremium vergebenen Top-Level-Domains wie „.com“, „.org“ oder „.de“. Die Ebenen werden durch Punkte getrennt, wobei der letzte Punkt und die Wurzel weggelassen werden. Die nächste Ebene ist ein weltweit eindeutiger, unter gewissen Einschränkungen frei wählbarer Name unterhalb dieser Top-Level-Domain. Die Regeln für die Namensvergabe definiert die jeweils zuständige Stelle für die Top-Level-Domain.
Mit einem vollständigen Domainnamen kann eine beliebige Adresse identifiziert werden. Durch den weltweit verteilten DNS-Dienst wird jeder Domain ihre eindeutige Netzwerkadresse zugeordnet. Das System der Domains ist eine hierarchische, aber dennoch dezentral zu verwaltende Struktur und praktisch beliebig erweiterbar.

Zugriffe: 7
Domain / URL

Der Begriff Domain dürfte relativ bekannt sein. Hierbei handelt es sich um die Internetadresse, unter der die betreffende Website im Internet erreichbar ist (z. B. webeinstieg.de). In ihrer komplett ausgeschriebenen Form (http://www.webeinstieg.de) bezeichnet man eine solche Internetadresse auch als URL. Beide Begriffe werden häufig im Rahmen der Suchmaschinenoptimierung verwendet.

Zugriffe: 2
Doorway Page

Die Doorway Page, auch Brücken-, Satelliten- oder Spiegelseite genannt, ist ein Mittel, um über eine suchmaschinenoptimierte Website auf die eigene Site zu verweisen. Eine Doorway Page wird aber nicht zu Werbezwecken verwendet; wird zusätzlich Werbung präsentiert, spricht man von Landingpages. Die Doorway Page fungiert nur als Zwischenstation für die eigentliche Website, auf die meist automatisch weitergeleitet wird. Ihr Zweck ist ausschließlich ein hohes Ranking in Suchmaschinenergebnissen, daher wird sie ausschließlich für die Suchmaschine geschrieben. Häufig werden Doorway Pages in großen Mengen von Programmen hergestellt und untereinander verlinkt. Dies erkennen Suchmaschinen mittlerweile und werten es als Manipulation, was zum Ausschluss aus dem Index führen kann.

Zugriffe: 5
Dublette

Dublette bezeichnet das doppelte bzw. mehrfache Vorkommen eines Datensatzes in einem Datenbestand, wobei die Redundanz nicht technisch verursacht ist, sondern durch eine kleine Abweichung des Inhaltes, zum Beispiel eine fehlerhafte Schreibweise in einem der betroffenen Datensätze. Erzeugt werden Dubletten häufig durch Fehler oder unterschiedliche Informationen bei der Datenerfassung. Ein weiterer Grund ist die Vereinigung verschiedener Datenbestände, zum Beispiel von zwei Datenbanken unterschiedlicher Firmen.
Dubletten treten oft in Adressdatenbanken auf. Da sie nicht nur Kosten verursachen, sondern auch zu erheblichen Problemen mit den dahinter stehenden Lieferanten oder Kunden führen können, wird mithilfe ausgefeilter Algorithmen nach dem Vorkommen von Dubletten gesucht. Da aber in der Regel ein Mensch entscheiden muss, sind solche Verfahren sehr aufwendig.

Zugriffe: 2
Duplicate Content

Duplizierter Inhalt oder Duplicate Content sind Teile von Seiteninhalten oder ganze Inhalte von Seiten, die unter mehreren URLs angezeigt werden. Häufig handelt es sich nicht um böswillige Kopien fremder Inhalte, sondern zum Beispiel um eine Website und ihre Druckversion, die unterschiedliche URLs haben.
Duplicate Content ist nach Möglichkeit zu vermeiden, da Suchmaschinen solche Duplikate erkennen und unter Umständen als Betrugsversuch werten. In einem solchen Fall würde eine Seite im Suchmaschinenranking schlechter bewertet oder sogar ganz aus dem Index ausgeschlossen. Wer selbst Websites mit weitestgehend identischem Inhalt erstellt, kann dem Webcrawler mitteilen, welche der URLs die bevorzugte für eine Indexierung ist; das nennt man „Kanonisierung“. Um ungewollten Duplicate Content zu vermeiden, können Webmaster ihre eigenen Inhalte von entsprechenden Dienstleistern prüfen lassen.

Zugriffe: 3
Dynamic Search Ads

Bei Dynamic Search Ads handelt es sich um eine Möglichkeit, bei Google AdWords Werbeanzeigen schalten zu lassen. Der Unterschied zur normalen Werbeanzeige besteht darin, dass der Nutzer die Anzeige nicht erstellt und verfasst, sondern das der AdServer diese Arbeiten dynamisch übernimmt. Durch diese neue Form der Anzeigenschaltung soll dem Nutzer nicht nur viel Zeit für die Erstellung der Anzeigen geschenkt werden, sondern auch der ROI soll sich entsprechend erhöhen. Mit ROI wird dabei eine Kennzahl ermittelt, die aufzeigt, mit welchem eingesetzten Kapital wie viel Gewinn erzielt wurde.
Dynamische Suchanzeigen in Google AdWords sind noch ein relativ junges Produkt und wurden erst durch die erweiterten Möglichkeiten durch die Verbesserung der Suchroutinen in Google ermöglicht. Mit den Dynamic Search Ads ermöglicht Google eine Automatisierung der Werbeanzeigen, was dem Nutzer eine sehr große Zeitersparnis einbringt. Doch die Verbesserung der Suchalgorithmen führte dazu, dass die dynamischen Anzeigen die Erfolgsquote positiv beeinflussen. Fehler bei der Anzeigenschaltung werden vermieden und Google lässt immer die gemachten Erfahrungen in die Dynamisierung einfließen, wodurch auch in der Folgezeit mit einer Erhöhung des ROI zu rechnen ist. Mit den Dynamic Search Ads kann sich der Nutzer von Google AdWords wieder auf die Ausarbeitung der Kampagnen konzentrieren. Die Erstellung der Textanzeigen hingegen überlässt er Google. Wer Dynamic Search Ads nutzen möchte, muss über ein Google AdWords-Konto verfügen. Zur Schaltung dynamischer Anzeigen muss er dann nur eine neue Kampagne anlegen. Hier legt er Tagesbudget, Targeting, Keywords und die Zielseite fest und startet die Kampagne. Wenn Suchende eine Suchanfrage mit dem gewünschten Keyword eingeben, generiert Google automatisch eine Textanzeige, die aus dem jeweiligen Keyword und dem Content der Zielseite erstellt wird. Die Anzeige ist dann – wie alle anderen AdWords-Anzeigen – über und neben den Suchergebnissen gelistet.
Google selbst spricht davon, dass sich sowohl die Konversion als auch der ROI der Nutzerseiten stark verbessert hat. Als Nutzer von Dynamic Search Ads sollte man die eigenen Anzeigen jedoch kontrollieren, um sicherstellen zu können, dass die Inhalte auch den eigenen Wünschen entsprechen. Fest steht jedoch, dass gerade Betreiber von Onlineshops oder großen Websites mit ständig wechselnden Inhalten und Produkten eine große Zeitersparnis haben, da die Kampagnen nicht ständig angepasst werden müssen.

Zugriffe: 2
Dynamische Seiten

Bei dynamischen Seiten handelt es sich um Websites, deren Inhalte sich ständig verändern: Das sind zum einen Nachrichtenseiten, Foren oder Blogs und zum anderen Onlineshops, bei denen die Inhalte abhängig vom Nutzer und seinen Eingaben aus Datenbanken generiert werden. Dynamische Seiten sind an Parametern wie "?", "=" oder "&" in der URL erkennbar. Ihre Erstellung ist hoch automatisiert und wird in der Regel von serverseitigen Scripts in Sprachen wie PHP oder Perl durchgeführt.
Trotz permanenter Änderungen tauchen auch dynamische Websites im Index von Suchmaschinen auf, da die Seitennamen mit Parametern beim Aufruf einer Site in Namen umgewandelt werden, wie sie für statische Seiten benutzt werden. Hier kommt zum Beispiel der Mod_Rewrite-Befehl des Apache Webservers  zum Einsatz.

Zugriffe: 2
E-Book

Bei einem E-Book handelt es sich um ein Buch, das nicht mehr in gedruckter Form vorliegt, sondern nur noch als Datei. Das E-Book kann dabei in verschiedenen Formaten ausgeliefert werden. Hier zählen vor allem das PDF- und das EPUB-Format. Damit ein E-Book lesbar ist, benötigt der User ein technisches Gerät zur Darstellung und eine Software, die das Format des E-Books lesen und somit auch anzeigen kann. Hierbei spricht man von sogenannten Readern.

Zugriffe: 4
Ethische Suchmaschinenoptimierung

Die Versuchung, unerlaubte Tricks zu benutzen, um bei Suchmaschinen ganz vorne im Ranking zu landen, ist bei kommerziellen Angeboten im Internet sehr groß, und die Möglichkeiten sind vielfältig. Ethische Suchmaschinenoptimierung oder "White Hat Seo" meint die Vorgehensweise, eine Website ohne den Einsatz von unerlaubten Mitteln wie Linkfarmen, Doorway-Pages oder Spam so zu gestalten, dass sie ein möglichst gutes Ranking bei Suchmaschinen erhält. Alle Suchmaschinenbetreiber haben Regeln aufgestellt, an die sich Webmaster halten müssen, wenn sie in den Suchergebnissen der jeweiligen Suchmaschine gelistet und gut positioniert werden wollen. Verstöße gegen diese Regeln können eine Abwertung im Ranking oder im härtesten Fall einen Ausschluss aus dem Index zur Folge haben, was für kommerzielle Anbieter das wirtschaftliche Aus bedeuten kann.

Zugriffe: 4
Exact Match Domain

Unter einer Exact Match Domain (EMD) versteht man bei der Suchmaschinenoptimierung einen Domainnamen, der mit dem Suchbegriff eines Suchmaschinennutzers identisch ist. Besonders häufig finden sich solche Domains im Bereich des Affiliatemarketings, bei dem jeder Website-Besucher bares Geld wert sein kann. Mittels Exact Match Domain ist eine sehr hohe Güte der Besucher erreichbar. Dafür ein Beispiel:

Website-Besucher, die beispielsweise nach „Artikel xyz online kaufen“ suchen, zeigen eine klare Kaufabsicht.
Mit einer Exact Match Domain können solche Suchanfragen bedient werden. Eine Beispieldomain für diese Suchanfrage könnte www.artikel-xyz-online-kaufen.de sein.
Damit wäre eine 100-prozentige Abdeckung der Suchanfrage über die URL gegeben – ein exakter Treffer also.

Die Nutzung einer Exact Match Domain ist nach wie vor zielführend, auch wenn das Gesamtranking mittlerweile weniger durch Domains dieser Art beeinflusst wird.

Zugriffe: 3
Externer Link

Die Bezeichnung „Externer Link“ beschreibt die Empfehlung einer Website durch einen gesetzten Link einer anderen Website. Diese Linkart ist von großer Bedeutung für die Suchmaschinenoptimierung – lange Zeit galten externe Links (meist Backlinks genannt) als DER Faktor für die erfolgreiche Positionierung in den vorderen Bereichen der Suchmaschinenergebnisse. Obwohl immer wieder betont wird, dass Backlinks (also externe Links) als Rankingfaktor an Kraft verloren haben, gelten sie dennoch weiterhin als ein gewichtiger Hauptfaktor für gute Ergebnisse. Je relevanter die Site aus der Sicht von Suchmaschinen zu einem bestimmten Thema erscheint, desto wertvoller wird ein Link dieser Site für einen Verweis auf die eigene Webpräsenz.

Externe Links von Websites, die im direkten Vergleich zum eigenen Webauftritt keinen relevanten Inhalt bieten, können das eigene Ranking unter Umständen sogar negativ beeinflussen. Obwohl es noch keine Verifizierung dieser These gibt, gilt sie dennoch allgemein als „anerkannt“ und sollte dementsprechend Beachtung finden.

Zugriffe: 4
False Drop

Ein False Drop ist ein falsches und damit für den Benutzer im besten Fall wertloses Ergebnis einer Suchmaschinenanfrage. Das kann mehrere Ursachen haben:

  • Der Zusammenhang zwischen dem Begriff in der Anfrage und dem Ergebnis ist nur durch Spam hergestellt worden, zum Beispiel durch Blogspam.
  • Der Inhalt einer Website wurde geändert und seitdem wurde noch kein neuer DeepCrawl gemacht, um die Site neu zu indizieren.
  • Die Benutzung von Begriffen in der Anfrage, die in unterschiedlichen Kontexten verschiedene Bedeutungen haben.

Durch die ersten beiden Gründe lassen sich False Drops bei Suchanfragen niemals vollständig vermeiden. Ihre Anzahl lässt sich durch geschicktes Kombinieren von Begriffen aber reduzieren.

Zugriffe: 6
Fehlerseite

Gibt der User eine Internetadresse in der Adresszeile des Browsers ein, die nicht existiert, wird eine sogenannte Fehlerseite angezeigt. Dieser Fall ist der wohl der häufigste Fehlerfall, denn er erzeugt den HTTP-Status-Code 404: Not Found; Dokument wurde entfernt, verschoben oder umbenannt. Das Gleiche passiert beim Klick auf einen toten Link, das heißt, einen Hyperlink, der auf eine nicht oder nicht mehr existente Website führt. Suchmaschinen haben häufig noch Websites im Index, die schon seit längerer Zeit nicht mehr existieren. Da das Internet dezentral organisiert ist, kann keine vollständige Integrität hergestellt werden. Zwar können Webmaster das Löschen einer Website aus dem Google-Index beantragen, erforderlich ist es jedoch nicht.

Zugriffe: 3
Follower

Bei einem Follower handelt es sich um User, die Posts und Tweets bei anderen Usern in sozialen Netzwerken abonnieren können. Hierbei geht es vor allem um die Microblogging-Seiten Twitter und um das soziale Netzwerk Facebook. Doch auch bei den Pins in Pinterest oder User in Google Plus handelt es sich um Follower.

Zugriffe: 4
Footer

Der Footer ist ein Seitenbereich einer Website, der auch als Fußzeile bezeichnet wird und am Fußende einer Seite zu finden ist. Bis vor wenigen Jahren war der Footerbereich von hohem Interesse für die Suchmaschinenoptimierung, da dort Backlinks an prominenter Stelle platziert werden konnten, die eine hohe Gewichtung von den Suchmaschinen erhielten. Viele Suchmaschinenoptimierer nutzten diesen Umstand übertrieben stark aus, sodass die Suchmaschinen den Wert solcher Links stark herabgesetzt haben. Da Links aus dem Footer aber immer noch einen gewissen Wert darstellen, kann man sie weiterhin nutzen, sofern die umgebenden Variablen wie Qualität, Themenbezug etc. passen.

Zugriffe: 5
Frames

Bei Frames handelt es sich um sogenannte “Rahmen”, die bei der Erstellung einer Website vor allem in den Anfängen des für die Masse verfügbaren Internets für eine gewisse Ordnung auf einer Website sorgen. Frames schaffen die Möglichkeit, verschiedene Teilbereiche einer Webseite mit unterschiedlichen Inhalten füllen zu können, ohne dabei alle anderen Bereiche mit anfassen zu müssen. Nachteilig wirken sich Frames allerdings auf die Positionierung bei Suchmaschinen aus – diese können die Daten aus Frames nicht einwandfrei interpretieren und positionieren das Suchergebnis daher schlechter. Obwohl Frames nicht grundsätzlich schlecht sind, sollte man im Hinblick auf die Suchmaschinenfreundlichkeit nach Möglichkeit auf sie verzichten.

Zugriffe: 4
Fresh Bonus

Der Fresh Bonus (auch Recency Bonus), zu Deutsch etwa „Neuigkeitsbonus“, äußert sich in einer unerwartet hohen Ranking-Position von neu in den Google-Index aufgenommenen Sites. Nach einiger Zeit fällt die Position auf das normale zu erwartende Maß zurück. Über die technische Grundlage kann nur spekuliert werden. Google ist offensichtlich bestrebt, einen möglichst aktuellen Datenbestand präsentieren zu können. Für Newcomer hat das den Vorteil, dass ihr Angebot sofort Aufmerksamkeit gewinnt. Eine weitere Art des Fresh Bonus ist, dass Sites, auf denen die Inhalte ständig erneuert werden – wie etwa Newsseiten – sehr häufig vom Google Bot besucht werden. Um die Suche immer auf dem neuesten Stand zu halten, müssen solche Sites praktisch permanent ausgelesen werden.

Zugriffe: 3
Fresh Crawl

Mit dem Fresh Crawl werden neue Websites das erste Mal durchsucht. Dabei wird die Site nur oberflächlich gecrawlt. Diese Technik ermöglicht es Google, neue Websites möglichst schnell in den Index aufzunehmen, ohne sie bis in die Tiefe zu analysieren. Die so gecrawlten Sites erhalten einen Bonus und werden damit anfangs sehr hoch im Ranking eingestuft. Diese Vorgehensweise gilt aber nur für tatsächlich neue Sites, nicht für neue Inhalte. Die endgültige und vollständige Indexierung erfolgt erst nach dem sogenannten DeepCrawl, bei dem eine Website vollständig in der Tiefe mit allen Unterseiten erfasst wird. Da dieses Verfahren aufwendiger ist, wird es nicht permanent bei allen Websites durchgeführt.

Zugriffe: 3
Fresh Tag

Als Fresh Tag wird der Datumsstempel einer Website im Cache der Suchmaschine bezeichnet. Gemeint ist damit nicht die letzte Änderung der Site, sondern wann der Google Crawler eine Website das letzte Mal besucht und sie im Cache gespeichert hat. Da Aktualität eine wichtige Rolle beim Ranking spielt, ist der Fresh Tag ein wichtiges Element bei der Suchmaschinenoptimierung. Sites mit aktuellem Datumsstempel werden im Ranking höher positioniert als ältere Websites. Je häufiger der Inhalt von Websites aktualisiert wird, desto häufiger liest der Google Crawler die Site, somit wird sie automatisch höher positioniert. Als wichtig eingestufte Websites erhalten täglich einen neuen Datumsstempel.

Zugriffe: 2
FreshBot

Der FreshBot ist ein automatisches Programm, das bereits indizierte Websites für eine Suchmaschine aktualisiert und neue Sites oberflächlich scannt, um sie vorläufig in den Index aufzunehmen. Damit ist er das Gegenstück zum DeepBot. Mit diesem Crawler werden neue Sites möglichst schnell in den Index aufgenommen, ohne sie in aller Tiefe zu analysieren. Es werden nur HTML- und Textseiten erfasst. Außerdem sorgt der FreshBot dafür, dass häufig aktualisierte Sites auch im Google-Index ständig auf dem neuesten Stand sind. Durch die Aufteilung in eine schnelle, eine oberflächliche (fresh) und eine tiefe (deep) Analyse kann Google seinen Index des World Wide Web sehr aktuell und umfassend erstellen.

Zugriffe: 3
Froogle

Unter dem Namen Froogle, zusammengesetzt aus "frugal" (engl., etwa „sparsam“) und "Google", veröffentlichte der Suchmaschinenbetreiber Anfang der 2000er Jahre eine eigene Produktsuchmaschine, die im Herbst 2004 auch in Deutschland verfügbar war. Aufgenommen wurden ausschließlich Produkte aus Onlineshops. Nach mehreren Umbenennungen heißt diese Suchmaschine heute Google Shopping. Der Datenbestand enthält zum einen die Inhalte automatisch durchsuchter Websites; zum anderen können Händler ihre Produkte auch manuell oder mithilfe von Tools hochladen. Ursprünglich war der Dienst sowohl für Kunden als auch für Händler kostenlos, wurde für Letztere aber 2013 kostenpflichtig. Es handelt sich dabei nicht um einen Internetshop, sondern um einen Such- und Vergleichsdienst mit Links zu Shops.

Zugriffe: 2
Gästebuch-Spam

Der Gästebuch-Spam gehört zu den Maßnahmen im Linkaufbau, die eher im Black-Hat-SEO-Bereich angesiedelt sind. Um an möglichst viele Links aus interaktiven Seitenbereichen verschiedenster Websites zu gelangen, wurden und werden Automatismen in Form von diversen Scripten sowie Softwaretools angewandt. Dabei werden vor allem Kommentare aus Blogs und in Gästebüchern einer Website genutzt, um Links und sonstige Inhalte zu platzieren. Dieses Vorgehen hat dazu geführt, dass die meisten Website-Betreiber mittlerweile entsprechende Schutzmechanismen nutzen, um den automatisierten Spam direkt herauszufiltern.

Aus SEO-Sicht sind Links aus Gästebüchern und Blogkommentaren aber immer noch eine sehr interessante Sache. Sie sollten allerdings auf der Grundlage eines echten Eintrags mit Bezug zum Ausgangsthema verfasst werden – dadurch erhöht sich zum einen die Chance auf Veröffentlichung und – wenn der Kommentar bzw. Beitrag wirklich gut und interessant geschrieben ist – auf die Platzierung eines Links direkt aus dem Artikel heraus.

Zugriffe: 4
Google Analytics

Google Analytics ist ein Werkzeug zur Analyse von Nutzerverhalten auf Websites. Erfasst und untersucht wird unter anderem, woher ein Besucher einer Website kommt, wie lange er auf welchen Seiten verweilt und wie er Suchmaschinen nutzt. Auch relevante Aktivitäten in sozialen Netzwerken werden analysiert und mit anderen Daten verknüpft. Mit diesem Werkzeug lässt sich der Erfolg von Werbekampagnen auswerten. Zudem können Webmaster damit herausfinden, welche Aktivitäten in sozialen Netzwerken Auswirkungen auf den Besuch einer Website haben. Google Analytics wird von beinahe der Hälfte aller Websites benutzt. Bei Datenschützern steht der Dienst massiv in der Kritik, da umfassende Benutzerprofile angelegt werden. Bei anmeldepflichtigen Diensten können diese Profile auch Personen zugeordnet werden. Google Analytics sollten Webmaster auch nutzen, wenn sie kostenpflichtige Analysetools verwenden. Der Nutzen ergibt sich aus dem Umstand, dass man Daten direkt vom größten Suchmaschinenanbieter erhält und Daten von externer Software damit gut ergänzen kann.

Zugriffe: 2
Google Base

Im Jahr 2005 wurde der Dienst Google Base aktiviert. Ursprünglich handelte es sich dabei um eine Web-Datenbank, in der jedermann alles ablegen konnte. Zielsetzung war ein allgemeiner kostenloser Marktplatz für alle möglichen Dinge. Im Laufe der Zeit ging der Dienst immer weiter in Richtung Google Produktsuche und mündete schließlich als Schnittstelle und Grundlage für das Google Shoppingangebot. Dabei geht es um Produktinformationen, die Verkäufer an Google übermitteln und die bei Suchanfragen innerhalb von Google Shopping, aber auch bei der normalen Googlesuche angezeigt werden. Dieser Dienst ist nicht kostenlos. Den Dienst Google Base als kostenlose Web-Datenbank für alles und jeden gibt es in seiner ursprünglichen Form nicht mehr.

Zugriffe: 4
Google Bombing

Bei Google wird eine Website nicht nur nach ihren Inhalten bewertet, sondern auch nach dem Text von Links (Text-Anchor), andere Websites auf sie verweisen. Dieser Mechanismus ist sinnvoll und funktioniert gut. Er kann aber auch missbraucht werden. Beim Google Bombing wird eine Site durch vielfaches Setzen von Links mit immer dem gleichen Text auf eine bestimmte Website mit dem Text in Verbindung gebracht. Bekanntestes Opfer ist der ehemalige US-Präsident George W. Bush, auf dessen Biografie auf der Website des Weißen Hauses unzählige Links mit dem Begriff "worst president" gesetzt wurden. Als Medien zur Eingabe der Links dienen häufig Kommentarfunktionen von Nachrichtenforen oder Blogs.

Zugriffe: 4
Google Bowling

Google Bowling wurde eine Zeit lang als eine Art negative Suchmaschinenoptimierung betrieben – und zwar nicht für die eigene Website, sondern für die der Konkurrenz. Google bewertet die Anzahl externer Links, die auf eine Website führen; viele Links bedeuten hohe Rankingposition. Das ist leicht zu realisieren, indem der Betreiber einer Website andere Webmaster dafür bezahlt, dass sie Links zu seiner Site aufnehmen. Google reagierte darauf mit Änderungen am Algorithmus, sodass reine "Durchgangs"-Sites oder automatisiert eingetragene Links in Weblogs schlechte Rankings oder die Entfernung aus dem Index zur Folge haben. Durch solche Aktionen mit Links auf Konkurrenzwebsites konnte man diese aus Google "herauskegeln".

Zugriffe: 4
Google Clicktracking

Das Google Clicktracking  ist ein Verfahren zum Ranking innerhalb von Suchergebnissen. Es soll feststellen, welche Einträge in einer Liste mit Suchergebnissen Benutzer tatsächlich anklicken. Einträge mit häufigen Klicks sollen besser bewertet werden als solche, die nur selten oder gar nicht angeklickt werden. Eine Manipulation dieses Verfahrens wäre zunächst einmal recht einfach. Würde Google jedoch nur eine sehr geringe Menge der Suchergebnisse auf diese Weise prüfen, wäre ein Missbrauch nicht sinnvoll. Wegen der großen Anzahl der Suchanfragen würde aber trotzdem ein brauchbares Ergebnis dabei herauskommen. Ob häufiger angeklickte Sites tatsächlich besser bewertet werden, ist allerdings umstritten.

Zugriffe: 4
Google Dance

Als Google Dance wird das Phänomen bezeichnet, dass für gleichzeitige identische Suchanfragen verschiedene Ergebnisse geliefert werden. Die Indizierung aller Websites ist eine Aufgabe, die nicht zentral von einem Rechenzentrum aus geleistet werden kann. Sie wird von verschiedenen autarken Rechenzentren in der ganzen Welt aus durchgeführt, wobei jedes Rechenzentrum seinen eigenen Index aktualisiert. Die Synchronisierung zwischen den Servern verschiedener Rechenzentren erfolgt mit einem Zeitversatz. Abhängig davon, an welchem Ort eine Suchanfrage vom Benutzer aufgegeben wird, werden die Anfragen zu unterschiedlichen Rechenzentren geleitet. Ist die Indizierung noch nicht synchronisiert, werden für die gleiche Anfrage unter Umständen unterschiedliche Ergebnisse geliefert. Da Aktualisierungen mittlerweile aber fortlaufend stattfinden, passiert das heute nur noch selten.

Zugriffe: 2
Google Everflux

Der Begriff Google Everflux beschreibt die Wechselhaftigkeit der Ergebnisse bei Googlesuchanfragen. Everflux bedeutet etwa "ständig im Fluss". Die Ursache dafür liegt in der Arbeitsweise der Webcrawler von Google. Da es eine wesentliche Funktion der Suchmaschine ist, neue Websites so schnell wie möglich in ihren Ergebnissen zu präsentieren, werden neue Websites zunächst oberflächlich mit dem sogenannten Fresh Crawl gescannt und in den Index aufgenommen. Als neue Sites erhalten sie dabei einen gewissen "Bonus" und werden relativ weit oben in den Ergebnissen angezeigt.
Nachdem eine Website etwas später in einem zweiten Schritt mit dem Deep Crawl komplett bis in die Tiefe gescannt und analysiert wurde, erhält die Site ihren echten Rank im Index und daher möglicherweise eine weitaus schlechtere Platzierung in den Ergebnissen.

Zugriffe: 3
Google Guy

Die Bezeichnung Google Guy ist in der rasant wachsenden Community von Menschen, die sich mit Suchmaschinenoptimierung (SEO) und Internet-Marketing beschäftigen, zum festen Begriff geworden. Gemeint ist damit nicht eine bestimmte Person, sondern jemand, der – vermeintlich oder tatsächlich – über interne technische Informationen aus dem Umkreis von Google verfügt und diese über das Internet weitergibt. Da sehr viele technische Details der Suchmaschine nicht veröffentlicht und zudem auch permanent verändert werden, sind Blogs oder Foren als Informationsquelle sehr wichtig. Personen, die internes Wissen haben und verbreiten, werden häufig scherzhaft als Google Guy bezeichnet, was ausdrücken soll, dass sie eine besondere, enge Beziehung zu Google haben.

Zugriffe: 2
Google Local

Bereits 2004 wurde unter dem Namen Google Local eine Neuentwicklung präsentiert, bei der es möglich war, die Suche bei Google durch die Eingabe einer Stadt oder einer Postleitzahl zu "lokalisieren". Nach der Einführung von Google Maps verschwand der Begriff Google Local schnell wieder. Standortbezogene Dienste sind durch die Verbreitung mobiler Endgeräte heute weit verbreitet.
Unternehmen können sich heute bei Google mit ihrer Adresse eintragen lassen und werden damit nicht nur über die normale Googlesuche gefunden, sondern auch über ihren Namen oder Keywords sowie ihren Standort in Google Maps. Für ein gutes Ranking empfiehlt Google klare Adressinformationen auf der Website und bei der Registrierung bei Google My Business mit Angabe von ein oder maximal zwei Kategorien.

Zugriffe: 3
Google Sandbox

Bei der Google Sandbox (im Allgemeinen nur „Sandbox“ genannt) handelt es sich um eine nicht final bewiesene, aber dennoch sehr interessante Theorie:
Die Sandbox (engl., „Sandkasten“) soll dafür Sorge tragen, dass neue bzw. junge Websites zunächst keine Chance auf ein vernünftiges Ranking haben – ganz gleich, ob sie gute eingehende Links und Inhalte haben oder nicht. Laut der Theorie soll dies vermeiden, dass neue Spamsites zu schnell indexiert werden und dann mit billigen Wegwerfseiten Geld verdienen. Diese Theorie ist für die Suchmaschinenoptimierung durchaus interessant – immerhin lässt sich dadurch erklären, warum viele gute Sites ziemlich lange benötigen, bis sie in den Suchergebnissen ankommen und nach vorne wandern. In diesem Zusammenhang ist – speziell bei frisch aufgesetzten Websites – sehr viel Geduld gefragt.

Zugriffe: 4
Google Sitemaps

Eine Sitemap ist sozusagen die Landkarte einer komplexen Website mit vielen Unterseiten. Häufig wird auf Websites eine Sitemap präsentiert, um dem Benutzer eine schnelle Navigation zu ermöglichen und ihm eine Übersicht über die Inhalte einer Webpräsenz zu verschaffen.
Google bietet Website-Betreibern mit Googleaccount an, die Sitemap ihrer Websites in ihrem Account einzustellen und damit bei Google einzureichen. Damit erhält der Webcrawler  eine Hilfestellung. Für den Website-Betreiber bietet das den Vorteil, dass er Probleme mit der Erreichbarkeit einzelner Seiten direkt überprüfen kann, wenn die Struktur einer Seite neu erstellt oder geändert wurde. Es gibt allerdings keine Garantie, dass jede einzelne Seite der Sitemap gecrawlt und indiziert wird.

Zugriffe: 2
Google Toolbar

Die Google Toolbar ist eine Erweiterung von Google für den Browser Internet Explorer von Microsoft. Es gab auch eine Version für Firefox, diese stellte Google jedoch ein. Die Software steht kostenlos zum Download zur Verfügung. Einzige Voraussetzung ist der Internet Explorer 6 oder eine höhere Version.
Die Erweiterung bietet einen schnellen Zugriff auf Googledienste. So lassen sich etwa News oder Bilder schnell suchen, einzelne Begriffe oder auch ganze Websites übersetzen (von Englisch in Deutsch). Über Google+ können Websites oder Artikel weitergegeben (geteilt) werden. Zudem besteht die Möglichkeit zur Verbindung mit vielen sozialen Netzwerken. Wer das möchte und ein Googlekonto besitzt, kann über die Funktion „Webprotokoll“ all seine besuchten Sites direkt an Google senden, um sie abzuspeichern.

Zugriffe: 4
Googlebot

Der Googlebot ist ein automatisches Programm von Google, das Websites prüft und sie dem googleeigenen Index hinzufügt. Es handelt sich dabei in Wirklichkeit um zahllose Instanzen eines Programmes, die auf unzähligen Rechnern weltweit gleichzeitig laufen und täglich Milliarden von Websites untersuchen. Diesen Prozess nennt man Crawling, die Programme auch Webcrawler.
Ziel des Crawlens ist es, den Inhalt der Suchmaschinen so aktuell wie möglich zu halten. Crawler überprüfen, ob sich Inhalte geändert haben oder ob Links veraltet sind. Der Googlebot erkennt Links zu anderen Sites und fügt diese der Liste der zu prüfenden Sites hinzu. Laut Google greift der Bot im Durchschnitt einmal alle paar Sekunden auf eine Website zu. Zurzeit läuft die Entwicklung zur Erfassung dynamischer Webinhalte durch Crawler.

Zugriffe: 3
Head

Im Head-Teil eines HTML-Dokuments werden keine Informationen abgelegt, die auf den ersten Blick für den Benutzer erkennbar sind. Trotzdem ist er ein sehr wichtiger Teil des Dokuments: zum einen für Suchmaschinen und zum anderen für die Lesbarkeit des Dokumentes insgesamt. Im Head des HTML-Dokuments werden Metatags abgelegt, die Suchmaschinen wiederum auswerten. Steht im Suchergebnis eine Zusammenfassung der Site, ist das der Inhalt des Metatags bzw. eines Teils davon. Ebenfalls im Kopf des Dokuments stehen der Titel einer Site, der in der Titelzeile des Browsers angezeigt wird, sowie das Character Encoding (engl., „Zeichenkodierung“), das entscheidend für die Darstellung der Site ist.

Zugriffe: 2
Headline Tags

Headline Tags sind HTML-Bezeichner für Überschriften in einem Dokument. Es gibt sie in den Ebenen 1 bis 6, wobei 1 die höchste (wichtigste) Ebene ist. Überschriften werden prominent dargestellt und fallen dem Leser sofort auf. Daher werden sie auch von Suchmaschinen besser bewertet als normaler Text. Das bedeutet, Schlüsselworte sollten nach Möglichkeit auch – aber nicht nur – in Überschriften verwendet werden. Ob die Ebene der Überschrift eine Bedeutung für den Suchmaschinen-Algorithmus hat, ist bislang nicht endgültig bewiesen, wird aber stark angenommen. Daraus ergibt sich die Notwendigkeit, innerhalb eines Dokuments mit verschiedenen H-Tags zu arbeiten. Abgesehen davon ist die Verwendung von Überschriften in jedem Fall sinnvoll für Website-Besucher, denn strukturierte Inhalte lassen sich leichter erfassen, was die Lesbarkeit erhöht und damit zum Erfolg einer Website beitragen kann.

Zugriffe: 3
Hidden Text

Hidden Text (engl., „versteckter Text”) kann auch für sonstige versteckte Inhalte stehen. Mit Hidden Text zu arbeiten verstößt eindeutig gegen die Webmasterrichtlinien von Google und sollte bei ernsthafter Suchmaschinenoptimierung nicht verwendet werden. Die dahinterstehende Technik entspricht dem „Cloaking“ und bedeutet eigentlich nur, dass bestimmte Inhalte für den Website-Besucher unsichtbar gemacht werden, während die Suchmaschinenrobots diese Inhalte problemfrei erfassen können. Die meisten Suchmaschinen erkennen diese Technik aber mittlerweile und strafen die entsprechenden Sites wegen Spam teils drastisch ab.

Zugriffe: 3
Hijacking

Der Begriff Hijacking ist bei uns mit Flugzeugentführungen verbunden. Hijack bedeutet übersetzt entführen, berauben, überfallen. Mittlerweile wird der Begriff viel im Zusammenhang mit dem Internet benutzt. Gemeint ist hier zum einen das "Entführen" von Nutzern auf unseriöse Websites, zum anderen das "Kapern" von ganzen Domänen, Netzwerken oder einzelnen Komponenten zu kriminellen oder zumindest boshaften Zwecken. Ein bekanntes Beispiel für Hijacking ist das Ausnutzen von Tippfehlern oder sehr ähnlichen Begriffen bei der Eingabe von Internetadressen im Browser oder die Angabe solcher Namen in vermeintlich seriösen Angeboten auf Websites oder als anzuklickender Link in E-Mails. Die Übernahme von Servern zum Zweck der Datenspionage oder Erpressung gehört ebenfalls in diese Kategorie.

Zugriffe: 5
Hilltop

Mit dem Algorithmus Hilltop (engl., „Hügelkuppe“) können große Mengen verknüpfter Dokumente nach ihrer Relevanz bezogen auf Suchbegriffe geordnet werden. Damit ist Hilltop das Gegenstück zum PageRank-Algorithmus, der Websites nach ihrem Inhalt sortiert – ohne Bezug zu den Keywords. Die grundlegende Idee besteht darin, nicht den Inhalt einer Site zu bewerten, sondern die Anzahl und Qualität der Quellen, die auf eine Site verweisen. Diese Quellen müssen dafür definierten Ansprüchen genügen und werden in Experten und Autoritäten unterteilt. Die Ergebnismengen aus diesem Verfahren sind deutlich kleiner als bei anderen Algorithmen und es eignet sich auch nicht für alle Themen. Das Patent für den Algorithmus hat Google 2003 erworben.

Zugriffe: 4
Hits

Der englische Begriff Hit (engl., „Treffer“) ist sehr allgemein und wird zum Beispiel häufig im Sport benutzt. Die Verwendung ist auch im Bereich Internet und Suchmaschinen nicht immer vollkommen eindeutig. Per Definition wird jede von einem Webserver abgerufene Datei als Hit gezählt. Besteht eine Website zum Beispiel aus der HTML-Datei (dem eigentlichen Dokument) sowie drei eingebetteten Bildern (das sind eigene Dateien), so generiert ein Aufruf vier Hits. Diese Zahl kann einem Laien einen deutlich höheren Traffic als tatsächlich vorhanden suggerieren. Als Hits bezeichnet man außerdem auch die Trefferanzahl in einer Ergebnisliste, zum Beispiel bei einer Suchanfrage.

Zugriffe: 3
Hot Bot

HotBot ist eine Suchmaschine, die 1996 vom Magazin Wired gelauncht wurde und zunächst recht populär war. 1998 wurde sie von Lycos übernommen und verlor zunehmend an Bedeutung. Nachdem die zugrunde liegende Datenbank von Inktomi von der Konkurrenz Yahoo übernommen wurde, wurde HotBot zu einem Suchwerkzeug, bei dem der Anwender auswählen konnte, welche Datenbank er benutzen wollte. 2004 veröffentlichte Lycos ein Beta-Release von HotBot Desktop, einem freien Suchprogramm, das nach Aussage der Firma das erste war, das die Suche im Web, in E-Mail-Accounts und Dateien auf Festplatten kombinierte. Unter hotbot.com finden User heute eine Suchmaschine von Lycos, die das Web, Lycos News und Weather Zombie durchsucht.

Zugriffe: 3
Hotlinking

Als Hotlinking bezeichnet man das Einbetten von Inhalten eines anderen Hosts in eine Website. Dabei handelt es sich häufig um Bilder, aber auch Videos, Sounds oder Texte sind möglich und üblich. Dadurch wird der die eigene Website hostende Server von Datenverkehr entlastet, weil die verlinkten Objekte direkt vom fremden Server geladen werden. Im Browser des Nutzers ist kein Unterschied zu erkennen. Geschieht dies gegen den Willen oder ohne Einverständnis des fremden Hostbetreibers, bezeichnet handelt es sich um Traffic-Diebstahl. Es gibt aber auch Geschäftsmodelle, bei denen Hotlinking explizit als Dienstleistung angeboten wird. Ein bekanntes Beispiel dafür ist die Videoplattform YouTube.

Zugriffe: 2
htaccess

Die .htaccess ist ein Steuerungselement in Form einer Textdatei und wird dafür verwendet, Zugriffsrechte und -Verbote auf Websites zu definieren. Über eine sinnvolle Konfiguration der .htaccess-Datei lässt sich sehr detailliert und exakt einstellen, wer welche Rechte besitzt und welche Bereiche nicht ohne Passworteingabe betreten werden dürfen. Bei der Suchmaschinenoptimierung muss der .htaccess die entsprechende Aufmerksamkeit zukommen, da hier viel Potenzial sowohl zum Positiven als auch zum Negativen vorhanden ist.

Zugriffe: 2
HTML

HTML (Hypertext Markup Language) ist eine Auszeichnungssprache für elektronische Dokumente und damit die Sprache des Internets. HTML-Dokumente werden von Browsern angezeigt und sind die Grundlage des World Wide Web. Die Sprache basiert auf sogenannten Tags, die einen Text durch Absätze, Überschriften, Listen, Tabellen und viele weitere Elemente strukturieren. In HTML werden Inhalt und Struktur eines Dokumentes definiert. Die Darstellung des Inhalts, wie zum Beispiel Text, Hintergrundfarben und Rahmen, wird durch CSS  festgelegt.
Die Aufsicht über Entwicklung und Standardisierung von HTML liegt beim World Wide Web Consortium  (W3C). Die erste HTML-Version erschien bereits 1992. Grund für die bei der europäischen Organisation für Kernforschung CERN gestartete Entwicklung war die damals noch fehlende Möglichkeit, Informationen einfach auf digitalem Weg auszutauschen.

Zugriffe: 4
HTML-Tags

Tags (engl., „Auszeichnung, Markierung“) sind die zentralen Elemente der Sprache HTML. In dieser Auszeichnungssprache erfolgt die Strukturierung sowohl für ein ganzes Dokument als auch einzelne Teile seines Inhalts mit Tags. Der Aufbau ist streng hierarchisch und es existieren immer ein Start- und ein End-Tag. Am Anfang eines HTML-Dokumentes steht zunächst die Dokumenttypdeklaration, damit das lesende Programm – in der Regel ein Webbrowser – weiß, um welchen Typ von Definition es sich handelt, sowie der Start-Tag. Tags stehen immer in spitzen Klammern und werden durch Wiederholung des Tags mit einem vorangestellten Schrägstrich abgeschlossen, wie in diesem Beispiel:  <tag> </tag>
Neben strukturierenden Tags, etwa für Überschriften, Fließtext, Hyperlinks etc. gibt es noch den Metatag, der Informationen über das Dokument bereitstellt, die beispielsweise von Suchmaschinen ausgelesen werden.

Zugriffe: 3
Hub

Ein Hub (engl., „Verbindungsknoten“) ist ein Knotenpunkt in einem Netzwerk mit vielen ein- und ausgehenden Verbindungen, also jemand oder etwas, der oder das sehr gut verlinkt ist. Der Begriff Hub wird in vielen Bereichen verwendet, so etwa in der Logistik für ein Versandzentrum oder in der Telekommunikation für ein Gerät zum Verteilen von Daten im Netzwerk.
Für den Betreiber einer Website ist ein Hub genau das: ein Verteiler und Verstärker, der Inhalte der Site in seinem eigenen Netzwerk sternförmig verteilt und die Site so bekannter macht. Das kann ein Portal oder auch ein einzelner Anwender sein, der ein großes Netzwerk hat und interessante Inhalte über soziale Medien teilt. Hubs sind sehr nützlich für den Erfolg von Websites.

Zugriffe: 3
Hyperlink

Bei einem Hyperlink handelt es sich um eine Verknüpfung von HTML-Dokumenten, d. h., um eine Textstelle oder um ein Symbol, das beispielsweise farblich und/oder durch Unterstreichung hervorgehoben ist und per Mausklick zu weiterführenden Informationen oder auf eine andere Website führt. So können Hyperlinks z. B. Querverweise (über einen URL) zwischen einzelnen Webseiten oder zwischen einem Textdokument und einer Grafik sein. Somit ermöglicht der Hyperlink die vernetzte Struktur von Inhalten im World Wide Web.

Zugriffe: 3
Hyperlink Induced Topic Search

Hyperlink Induced Topic Search (HITS) ist ein Algorithmus, der für eine Suchanfrage nicht nur die Anzahl der eingehenden Links (Inbound Links) berücksichtigt, sondern auch deren Qualität in Bezug auf die Suchanfrage. Der Unterschied zum bekannten Pagerank-Algorithmus von Google liegt darin, dass die "Autorität" der Inbound Links, also die Qualität der Quellen dieser Links, global berechnet werden.
Beim HITS-Algorithmus wird diese Linkautorität jeweils in Relation zur Formulierung der Suchanfrage ermittelt, was natürlich deutlich mehr Zeit in Anspruch nimmt. Die grundlegende Idee ist es, zwischen Hubs (Knotenpunkten) und Authorities (Autoritäten) zu unterscheiden. Hochwertige Hubs sind Sites, die als eine Art Verzeichnis auf viele hochwertige Authorities verlinken – und gute Authorities sind jene, auf die von vielen hochwertigen Hubs verlinkt wird .

Zugriffe: 2
iFrames

Mit einem iFrame oder auch inlineFrame kann ein weiteres HTML-Dokument, sprich, eine andere Website,  in ein HTML-Dokument eingebunden werden. Dies wird in erster Linie genutzt, um Werbung in eine Website einzublenden. Innerhalb der Website wird dazu das iFrame-Element benutzt. Damit werden die Fenstergröße und ein Name sowie ein Alternativtext festgelegt, der angezeigt wird, wenn der Browser iFrames nicht unterstützt. Diese Technik hat den Vorteil, dass der Inhalt des iFrames eine Blackbox für die umgebende Website ist. Es wird nur der angegebene Platz auf dem Bildschirm vorgehalten, Gestaltung oder die Ladezeit des iFrame-Inhalts müssen nicht berücksichtigt werden. Daher werden zum Beispiel Werbevideos auf diese Weise eingebunden.

Zugriffe: 2
Imagemap

Die Imagemap einer Website entspricht der Funktion einer Sitemap, mit einem einzigen Unterschied: Die Imagemap zeigt der Suchmaschine nicht die vollständige Seitenstruktur eines Webauftritts, sondern nur, wo die Binärdaten wie Fotos, Videos etc. zu finden sind und wie diese miteinander verknüpft sind. Der Einsatz einer Imagemap ist dort sinnvoll, wo es viele Imagedateien auf einem Webprojekt gibt. Dazu gehören vor allem größere Fotoblogs oder Shops mit vielen Artikelfotos. Aus SEO-Sicht bietet die Imagemap einen echten Vorteil, denn Suchmaschinen wie Google können das vorhandene Material so optimal auswerten und beispielsweise bessere Ergebnisse bei der Google Bildersuche anzeigen.

Zugriffe: 4
Impressionen

Die Impressionen, die im fachlichen Gebrauch meist als Page Impressions auftauchen, sind eine Kennzahl des Onlinemarketings. Sie werden als Maßstab für die Anzahl der jeweils gezeigten Site verwendet, um errechnen zu können, wie viele Besucher sich beispielsweise innerhalb eines definierten Zeitraums auf einem angebotenen Seiteninhalt aufhielten. Von besonderer Bedeutung ist dieser Wert für das Werbebannermarketing. Diese Arbeitsform ist an das Affiliatemarketing angelehnt und wird – wie auch dort – erfolgsorientiert vergütet. Die Vergütung erfolgt allerdings nicht pro erfolgtem Verkauf, sondern je 1000 Impressionen (auch Tausender-Kontakt-Preis, TKP) der Seite, auf der das Banner eingefügt wurde.

Zugriffe: 3
Inbound Link

Ein Inbound Link (auch Backlink) ist ein Verweis auf eine Website von einer anderen Site aus. Inbound (engl., „eingehend“) ist der Link nur von der Site aus, auf die verwiesen wird. Früher waren solche Links die beste Möglichkeit, um im Internet zu navigieren. Indem man per Link von einer (bekannten) Website zur anderen ging, konnte man am besten Informationen zu einem Thema finden.

Durch Suchmaschinen haben Backlinks eine weitere Bedeutung erhalten: Die Anzahl der Inbound Links einer Site wird – neben anderen Kriterien – dazu genutzt, um den PageRank sowie das Ranking einer Site in den Suchergebnissen zu ermitteln. Je größer die Anzahl, umso wichtiger ist eine Site und wird entsprechend höher eingestuft. In jüngerer Zeit werden Backlinks nicht mehr so stark gewertet wie vor einigen Jahren, dennoch bleiben Inbound Links ein wichtiger und zentraler Bestandteil der modernen Suchmaschinenoptimierung einer Website.

Zugriffe: 5
Inbound Marketing

Das Inbound Marketing verfolgt eine sehr interessante Strategie, denn es geht darum, die Anzahl der Website-Besucher durch sehr guten Content zu erhöhen. Hierbei geht es vor allem um den Mehrwert des Contents. Die Produktsuche und der Verkauf sollen über das Inbound Marketing angekurbelt werden. Mittels dieses hochwertigen Contents finden User das gewünschte und richtige Produkt viel einfacher.

Zugriffe: 3
Index

Damit eine Website überhaupt in einer Suchmaschine gefunden werden kann, muss sie zunächst von dieser aufgenommen werden. Sie befindet sich damit im sogenannten Index. Damit sind alle Internetseiten gemeint, die von der Suchmaschine erfasst wurden und anschließend bei Eingabe von bestimmten Keywords als Suchergebnisse gelistet werden.

Zugriffe: 3
Index

Der Begriff Index steht allgemein für ein Register, das zum schnellen Finden eines Begriffes dient. Diese Systematik ist auch auf Suchmaschinen übertragbar. Der Google-Index entspricht einem Register, bei dem der Benutzer einen Begriff eingibt (eine Suchanfrage startet) und als Antwort eine Trefferliste erhält. Erstellt wird das Register durch automatische Programme, die permanent im gesamten Web Sites durchsuchen. Nach festgelegten Algorithmen werden die dabei gefundenen Sites und Inhalte indexiert. Eine Website, die nicht in diesem Register enthalten ist, kann damit praktisch als nicht existent betrachtet werden; sie sind nur aufrufbar, wenn man ihre genaue URL kennt.

Zugriffe: 6
Indizierte Webseiten

Indizierte – oder auch indexierte – Seiten einer Website sind im Index (Datenbestand) einer Suchmaschine vorhanden. Dies ist die Voraussetzung dafür, dass eine Seite überhaupt auffindbar ist. Die Suchmaschinen sind sozusagen das Verzeichnis des Internets, d. h., was darin nicht aufgeführt wird, existiert praktisch auch nicht. Eine nicht indizierte Seite ist nur über die direkte Eingabe in der Adresszeile des Browsers oder über einen internen Link von einer anderen Site aufrufbar.
Website-Betreiber können die Indizierung ihrer Seiten durch die Nutzung von Tools wie Google Sitemaps beschleunigen und optimieren. Die Indizierung durch Suchmaschinen können Webmaster durch entsprechende Maßnahmen auch verhindern, wenn die Seite nicht auffindbar sein soll.

Zugriffe: 3
Interne Linkpopularität

Die interne Linkpopularität beschreibt die Anzahl der Links innerhalb der Seiten einer Domain, die intern auf andere Seiten der gleichen Domain verweisen. Überraschenderweise beeinflussen auch diese internen Links die Positionierung einer Website auf den Ergebnisseiten der Suchmaschinen. Eine gute interne Verlinkung mit entsprechend aussagefähigen Linktexten ist ein gern vernachlässigtes Element der OnPage-Optimierung  von Websites.
Die interne Verlinkung hilft den Webcrawlern, alle Unterseiten zu erfassen und macht eine Site benutzerfreundlicher, da die Wege zwischen den Seiten für den Anwender einfacher und schneller werden. Insbesondere sehr große Webpräsenzen mit einer hohen Anzahl an Unterseiten können ihr Ranking durch geschickte interne Verlinkung stark verbessern.

Zugriffe: 2
Interner Link

Interne Links sind die Verweise von Seiten innerhalb einer Webpräsenz. Eine gut durchdachte interne Struktur der Website und ihrer Unterseiten sowie eine sinnvolle Verlinkung der Seiten untereinander helfen dem Besucher bei der Navigation und werden als benutzerfreundlich und von Suchmaschinen entsprechend gut bewertet. Zudem hilft die interne Verlinkung den Crawlern bei der vollständigen Erfassung einer Website.
Eine geschickte interne Verlinkung kann das Ranking einer Website durchaus positiv beeinflussen. Allerdings kann eine übertriebene Querverlinkung der Unterseiten auch das Gegenteil bewirken und von der Suchmaschine als Spam bewertet werden, wenn sie wie ein geschlossener Kreis (Closed Loop) wirkt und den Besucher immer wieder auf die gleichen Seiten führt.

Zugriffe: 2
IP

IP ist die Abkürzung für Internet Protocol und ist das global einheitliche Netzwerkprotokoll sowie die Grundlage für das bekannte und gebräuchliche Internet. Dabei werden Daten in kleine Pakete aufgeteilt und vollkommen unabhängig voneinander vom Absender zum Empfänger gesendet. Jedes einzelne Paket hat einen Kopf, mit den notwendigen Metadaten (wie z. B. Absender und Empfänger) sowie einen Rumpf mit den eigentlichen Nutzdaten.
Sender und Empfänger sowie jeder andere Teilnehmer im Netzwerk haben eine eindeutige Adresse, mit deren Hilfe sich Computer im Netzwerk in logische Gruppen unterteilen lassen. Diese Adressierung ermöglicht es, für die zu sendenden Datenpakete einen Weg zu ermitteln und sie weiterzuleiten. Aufgrund der Beschränkung auf etwa vier Milliarden mögliche Adressen beim heutigen Standard IPv4 wird seit einiger Zeit auf die Version IPv6 umgestellt, womit etwa 340 Sextillionen (34 und dahinter 38 Nullen) verschiedene Adressen möglich sind.

Zugriffe: 3
IP-Cloaking

Mit Cloaking (engl., „Verhüllen“) wird versucht, Websites mit dem Ziel eines besseren Rankings für Suchmaschinen zu optimieren. Die Idee dahinter ist es, dem Suchmaschinencrawler eine andere Website zu präsentieren als dem Nutzer, zum Beispiel mit einem SEO-Text anstelle von Videos oder Grafiken, die für den Crawler unsichtbar und damit nutzlos für das Ranking sind.
Durch das – nach den Richtlinien der meisten Suchmaschinenbetreiber verbotene – IP-Cloaking wird der Webcrawler anhand seiner IP-Adresse erkannt, um ihm anschließend eine für die Suchmaschine optimierte Website zu präsentieren. Voraussetzung dafür sind natürlich Listen mit aktuellen IP-Adressen der Crawler. IP-Cloaking ist für Suchmaschinen schwierig aufzudecken. Wird ein Fall erkannt, kann die Site beziehungsweise der Betreiber dauerhaft aus dem Index der Suchmaschine ausgeschlossen werden.

Zugriffe: 3
IP-Popularity

Die IP-Popularity (engl., „IP-Popularität“) ergibt sich aus einem möglichst breiten Mix von eingehenden Links aus unterschiedlichsten IP-Bereichen. Meist wird die IP-Popularity aus dem Class-C-Bereich ermittelt. Die in diesem Bereich vergebenen Zahlen spiegeln die Einwahlknoten wieder und sind ein deutliches Indiz dafür, dass die Website des Linkgebers in keinem direkten Zusammenhang mit der Link empfangenden Site steht.

Zugriffe: 2
IP-Spoofing

Bei IP-Spoofing handelt es sich um das Versenden von IP-Paketen mit gefälschter Absender-IP-Adresse in Netzwerken. IP bezeichnet das Protokoll zum Datenaustausch, das in den meisten Computernetzwerken und im Internet benutzt wird. Eine IP-Adresse ist eine eindeutige Kennung für einen Rechner in einem Netzwerk und besteht aus vier dreistelligen Zahlen von 1 bis 255, die durch Punkte getrennt sind.
Eingesetzt wird IP-Spoofing zum Beispiel bei sogenannten Distributed-Denial-of-Service-Attacken auf Webserver oder Netzwerke. Dabei wird die IP-Adresse des Angriffszieles als Quelladresse für Anfragen benutzt, deren Antworten das Ziel anschließend überfluten und so lahmlegen. Die Quelle des Angriffs ist dabei kaum feststellbar, weil deren IP-Adresse durch die des Angriffszieles ersetzt wurde.

Zugriffe: 4
JSP

JSP ist die offizielle Abkürzung für Java Server Page. Eine JSP ist dafür gedacht, Inhalte, die in das World Wide Web ausgeliefert werden, dynamisch gestalten zu können. So lassen sich beispielsweise für verschiedene Besucher unterschiedliche Inhalte auf einer Website anzeigen. Dadurch lassen sich lokalisierte Daten für Website-Besucher generieren, um einen möglichst hohen Nutzen zu erzielen.

Ein Beispiel:

  • Internetnutzer A aus Hamburg sucht einen Flug nach Mailand. Er befindet sich auf einem Buchungsportal für innereuropäische Flugreisen. Dort gibt er in die Suchfunktion „Flug nach Mailand“ ein. Angezeigt werden Internetnutzer A nun alle Flüge, die von Hamburg aus nach Mailand starten.
  • Internetnutzer B aus Karlsruhe sucht ebenfalls einen Flug nach Mailand. Er befindet sich auf dem gleichen Buchungsportal und gibt ebenfalls „Flug nach Mailand“ in die Suchfunktion ein. Er erhält als Ergebnis alle Flugtermine von Stuttgart nach Mailand.


Ermöglicht wird dies durch eine JSP, deren Programmierung vorsieht, über die IP-Range der Website-Besucher passende, möglichst lokale Ergebnisse zu erzielen.

Zugriffe: 3
Keyword

Das Keyword (engl., „Schlüsselwort“, „Stichwort“, „Suchbegriff“) ist eines der zentralen Gestaltungselemente im Bereich der Suchmaschinenoptimierung. Ein oder auch mehrere Keywords werden in Relation zur Zielsetzung gesucht, auf ihre Verwendbarkeit hin analysiert und schließlich sinnvoll in das Webprojekt integriert. Ob und mit welchem Aufwand ein Keyword in den Suchmaschinenergebnissen auf die erste Seite und evtl. sogar auf Platz eins der SERPS gebracht werden kann, hängt von verschiedenen Faktoren ab:

  • Konkurrenzdichte
  • Ressourcenverfügbarkeit (Zeit/Finanzmittel/Netzwerk)
  • Short- oder Longtail
  • Andere OnPage- und OffPage-Maßnahmen

Für die Suchmaschinenoptimierung muss der Keywordrecherche hohe Aufmerksamkeit gewidmet werden – je gründlicher die Recherchearbeiten durchgeführt werden, desto besser kann das Endergebnis ausfallen.

Siehe auch: SEO-Tipps für Keywords

Zugriffe: 6
Keyword Density

Keyword Density beschreibt als feststehender Begriff die Schlüsselwortdichte innerhalb des direkten Contentumfelds. Häufig findet man im Internet bestimmte Prozentsätze, die als besonders empfehlenswert deklariert werden. Beispielsweise behaupten einige Sites, dass eine Keyword Density von 3 % im Verhältnis zum Gesamt-Content einen besonders positiven Einfluss auf die Suchmaschinenplatzierung hätte.

Als Grundsatz gilt:
Niemand kann genau sagen, wie hoch der Keywordanteil im Gesamtcontent ausfallen muss, um ideale Platzierungen zu erhalten. Vielmehr sind Suchmaschinen mit wesentlich intelligenteren Algorithmen ausgestattet und setzen eine Site nicht nur aufgrund der bloßen Keyword Density auf eine bestimmte Position in den SERPs, sondern ermitteln auch das thematische Umfeld und viele weitere Faktoren. Das bzw. die gewünschten Keyword(s) sollten so häufig im Text bzw. auf der Site auftauchen, wie es im Kontext sinnvoll erscheint und für die Themenbehandlung notwendig ist.

Zugriffe: 4
Keyword Frequency

Als Keyword Frequency wird die Häufigkeit des Vorkommens eines Schlüsselwortes innerhalb eines bestimmten Textabschnitts bezeichnet. Hier gilt: Mehr ist besser, allerdings in bestimmten Grenzen und einem verständlichen Rahmen. Suchmaschinen bewerten die Häufigkeit zunächst positiv. Problematisch wird es, wenn der Text sich nicht mehr flüssig lesen lässt. Da eine Website für Menschen – und nicht für Suchmaschinen – erzeugt wird, sollte dies das Hauptkriterium sein. Als Faustregel gilt, dass die Häufigkeit auf keinen Fall höher als vier bis sechs Prozent liegen sollte. Die Keyword Frequency bezieht sich immer auf bestimmte Textabschnitte auf einer Webseite, nicht auf die Site als Ganzes. Diese besteht in der Regel aus mehr als nur reinem Text und beherbergt auch Bildmaterial, eingebettete Videos und andere Dateiformen.

Zugriffe: 4
Keyword Prominence

Die Keyword Prominence beschreibt, wo auf einer Website die Schlüsselworte platziert sind. Dies wird von Suchmaschinen bewertet. Innerhalb eines Textes werden Schlüsselworte am Anfang und am Ende wohl besser bewertet als im Mittelteil. Daher werden Schlüsselworte gehäuft in der Einleitung und im letzten Abschnitt von Texten benutzt. Ein Keyword in einer Überschrift wird von einer Suchmaschine wahrscheinlich höher eingeordnet als im Textfluss. Besonders wichtig ist die Platzierung von Schlüsselworten im Title-Tag einer Website, da diese einen hohen Stellenwert bei der Bewertung hat. Die genaue Relevanz der Keyword Prominence bei der Bewertung von Websites ist nicht final geklärt. Daher gilt es auch hier, das rechte Maß zu finden und nicht zu übertreiben – der Grat zwischen Keyword Prominence und Keyword Stuffing ist gelegentlich schmal.

Zugriffe: 3
Keyword Proximity

Als Keyword Proximity bezeichnet man den Abstand bzw. die Nähe von mehreren Schlüsselworten in einem Text. Grundsätzlich gilt, dass ein geringer Abstand zwischen Schlüsselworten eine höhere Einstufung in der Trefferliste einer Suchanfrage erzeugt. Bei einer Suchanfrage mit den Begriffen "Computershop + Hamburg" wird eine Site mit dem Text  "Unser Computershop Hamburg bietet Ihnen ..."  eine bessere Platzierung erreichen als mit dem Text "Unser Computershop bietet Ihnen ... zu den günstigsten Konditionen in ganz Hamburg". Bei der Suchmaschinenoptimierung ist es daher sinnvoll, Schlüsselworte möglichst nah zueinander zu platzieren. Das steht allerdings häufig im Widerspruch zum Textfluss, sodass eine Balance zwischen diesen beiden Anforderungen gefunden werden muss.

Zugriffe: 2
Keyword Stuffing

Unter dem Begriff Keyword Stuffing versteht man bei der Suchmaschinenoptimierung eine Arbeitsweise, die zwar längst überholt ist, aber immer noch praktiziert wird. Es handelt sich dabei um eine Methode, innerhalb eines Textes bzw. einer Website möglichst viele relevante Keywords in sehr hoher Anzahl unterzubringen, um eine besonders starke Themenrelevanz vorzugaukeln. Dadurch sollen die Suchmaschinen diese Texte als besonders wichtig erachten und in den Suchergebnissen weit vorne positionieren. Es ist schon lange bekannt, dass Suchmaschinen diese Vorgehensweise nicht nur als nicht themenrelevant erachten, sondern Sites, die mit Keyword Stuffing arbeiten, sogar rigoros abstrafen und – je nach Umfang der Maßnahmen – auch als Spamsite aus den SERPS werfen.

Zugriffe: 3
Keyword Targeting

Targeting ist Bestandteil des Search Engine Advertising (SEA). Dabei ermöglicht es das Targeting, Kampagnen möglichst genau auf die gewünschte Zielgruppe auszurichten. Keyword Targeting stellt eine Teildisziplin des Targetings dar, wobei die Kampagnen hier im Vorfeld konkret an bestimmte Keywords ausgerichtet werden. Damit Keyword Targeting effektiv genutzt werden kann, sind im Vorfeld eine Keywordanalyse sowie die Spezifizierung der Zielgruppe vorzunehmen.

Zugriffe: 4
Keywordrecherche

Die Keywordrecherche ist ein zentrales Element der Suchmaschinenoptimierung. Die Gründlichkeit derselben entscheidet häufig über Erfolg oder Misserfolg eines Internetauftritts. Suchmaschinennutzer geben eine schier endlose Anzahl unterschiedlichster Suchbegriffe in das Suchfeld ein, um zu einem bestimmten Suchergebnis zu gelangen. Die Keywordrecherche ermittelt, welche Suchbegriffe besonders häufig genutzt werden. Aus dem Ergebnis dieser Recherche lassen sich verschiedene Erkenntnisse gewinnen:

  1. Welche Keywords müssen unbedingt berücksichtigt werden?
  2. Welche Keywords kann man aufgrund des sehr geringen Suchvolumens vernachlässigen?
  3. Welche Keywords nutzt die Konkurrenz für ihren Webauftritt?

Beinahe jede Maßnahme im SEO-Bereich basiert auf dem Vorhandensein einer gut recherchierten Keywordliste. Für eine gute und vor allem gründliche Keywordrecherche ist es sehr wichtig, sich nicht nur auf ein Tool zu verlassen, sondern möglichst mehrere Tools zu nutzen. Auch eigene kreative Gedanken können ein guter Anhaltspunkt sein, in welche Richtung recherchiert werden kann. Um ein langfristiges Projekt möglichst optimal zu betreuen, sollte die Keywordliste von Zeit zu Zeit überarbeitet werden.

Siehe auch: SEO-Tipps für Keywords

Zugriffe: 3
Konversionsrate

Die Konversionsrate ist eine wichtige Größe im Onlinemarketing, weil sich damit unter Anderem der Erfolg von Aktionen und sonstigen Werbemaßnahmen messen lässt. Eine kommerzielle Website verfolgt ein Ziel, zum Beispiel, den Benutzer eine bestimmte Zeit auf der Site zu halten, ihn zum Kaufen oder zur Anmeldung zu einem Newsletter zu bewegen. Die Konversionsrate ist das Verhältnis der Besucheranzahl einer Website, bei denen dieses Ziel erreicht wird, zur Gesamtanzahl der Besucher innerhalb eines bestimmten Zeitraumes. Hat ein Onlineshop eine Konversionsrate von drei Prozent, geben drei von Hundert Besuchern des Shops eine Bestellung auf. Schon eine geringe Erhöhung der Konversionsrate kann einen großen Einfluss auf Umsatz und Rendite des Website-Betreibers haben.

Zugriffe: 3
Landing Page

Eine Landing Page ist eine speziell für einen gewissen Zweck produzierte Website, auf der Besucher „landen“, wenn sie auf einen Banner- oder Textlink geklickt haben. Sinn einer Landing Page ist es, die dort ankommenden Besucher zu bestimmten Aktionen zu animieren. Meist beschränken sich die Inhalte einer Landing Page auf sehr spezifische Teilbereiche eines Webauftritts oder forcieren eine bestimmte Benutzeraktion wie die Eingabe einer E-Mail-Adresse oder Ähnliches.

Zugriffe: 5
Lead

Unter einem “Lead” versteht man in der Suchmaschinen- bzw. Internetmarketingbranche eine (qualifizierte) Vermittlung von Interessenten. Die Grundlage ist die Bewerbung bestimmter Themeninhalte auf eigenen Sites (Affiliatesites), um dem Auftraggeber die Interessenten durch Weitervermittlung zuzuführen. Ein Lead bzw. qualifizierter Lead entsteht in der Regel, wenn ein Interessent auf die eigentliche Zielsite des Anbieters geführt wird und dieser dort seine Adressdaten eingibt oder sonstige Aktionen durchführt, die vom Initiator erwünscht sind.

Zugriffe: 4
Link

Ein Link oder korrekt „Hyperlink “, wörtlich übersetzt "Überverknüpfung", ist ein Verweis in einem elektronischen Dokument auf eine andere Stelle im gleichen Dokument oder, wie im World Wide Web üblich, ein Verweis auf ein anderes elektronisches Dokument. Durch Anklicken)des Links (und dessen hinterlegter Befehle) gelangt der Nutzer direkt zum angegebenen Ziel.
Hyperlinks sind ein zentraler Bestandteil des World Wide Web, dessen Kernidee die Verbreitung und Vernetzung von Informationen ist, zu denen User über eben diese Links gelangen. Dabei spielt es keine Rolle, auf welchem Server und wo in der Welt die verlinkte Website liegt. Über den weltweit verteilten Domain-Name-Service wird sie gefunden, sofern sie verfügbar ist. Links gibt es auch in lokalen Netzwerken, auf einem einzelnen Computer und sogar innerhalb einer Datei.

Zugriffe: 4
Link Strength

Die Link Strength (engl., „Linkstärke“) wertet einen Link aus der Sicht einer Suchmaschine bezüglich der Relevanz. Suchmaschinen stufen eine Website höher ein, wenn viele Links auf sie verweisen (Linkpopularität), doch sie bewerten dabei nicht jeden Link gleich. Es handelt sich bei der Link Strength nicht um einen absoluten Wert, und da die Algorithmen der Suchmaschinen nicht veröffentlicht werden, beruhen die Einflussgrößen für sie nur auf Schätzungen.
Klar scheint, dass die einzelnen Links einer Webseite, die viele Verlinkungen zu anderen Sites enthält, nicht so hoch bewertet werden wir die einer Seite mit wenigen ausgehenden Links. Die Links themenverwandter Sites werden höher bewertet als themenfremde. Weitere Faktoren sind das Alter der Site und des Links – und nicht zuletzt die Autorität der Seite, von der aus verlinkt wird.

Zugriffe: 3
Link-Juice

In der „Szene“ der Suchmaschinenoptimierer wird immer wieder von „Linkjuice“ gesprochen. Dabei handelt es sich um eine nicht spezifisch bestimmte Stärke eines ein- oder ausgehenden Links. Linkjuice bedeutet frei übersetzt so viel wie „Verweis-Saft“ – im Kontext ist die Übersetzung „Verweis-Kraft“ allerdings treffender. Der Grundgedanke ist, dass eine linkgebende Site einen gewissen Anteil ihrer eigenen Stärke in Form von „Linkjuice“ an die linkempfangende Site vererbt.

Folgt man der Logik der Grundtheorie, ist es im Sinne Suchmaschinenoptimierung ein wichtiges Unterfangen, möglichst viele eingehende Links von starken Ausgangssites zu erhalten, damit der von dort abgehende Linkjuice auf dem eigenen Webprojekt verwertet werden kann, was zu besseren Rankings in den SERPs führt. Linkjuice wird auch innerhalb eines Projekts in Form von interner Verlinkung vererbt. Daher ist es wichtig, auch die interne Verlinkung sauber und gut durchdacht zu platzieren, um die „richtigen“ Zielseiten nach vorne zu bringen.

Zugriffe: 3
Linkfarm

Eine Linkfarm bezeichnet eine Ansammlung von Webservern, die primär dem Zweck dienen, möglichst viele Links auf eine oder mehrere Websites zu legen. Die dadurch verlinkten Sites sollen damit einen besseren Pagerank erhalten.
Die Linkpopularität  hat Einfluss auf das Suchmaschinenranking. Diese Erkenntnis hat einige Website-Betreiber dazu veranlasst, mittels Linkfarmen eine große Anzahl an Backlinks auf ihre Sites zu erzeugen. Das ist natürlich gegen die Regeln der Suchmaschinenbetreiber. Google und Co erkennen Linkfarmen heute recht gut. Mittlerweile ist die Anzahl der Backlinks auch nicht mehr so entscheidend, sondern vielmehr ihre Qualität.

Zugriffe: 2
Linkmarketing

Linkmarketing bezeichnet den gezielten Versuch, die Linkpopularität von Websites durch die Akquisition von Links auf die eigene Site zu erhöhen. Besonders wichtig ist dabei das Generieren sogenannter organischer Links, die in den Kontext der zu verlinkenden Site passen, da Suchmaschinenalgorithmen mittlerweile nicht mehr nur die Anzahl von Links, sondern auch die Linktexte sowie den Inhalt von Link gebender und verlinkter Site prüfen.
Eine hohe Zahl von Inbound Links sichert einer Website ein gutes Ranking in den Suchergebnissen, da deren gezielte Erhöhung direkten Einfluss auf Umsatz und Rendite von Website-Betreibern haben kann. Agenturen für Onlinemarketing bieten Linkmarketing, also die Suche nach sinnvollen Verlinkungen, häufig als Dienstleistung an.

Zugriffe: 3
Linknetzwerkabstrafung

Der Begriff „Linknetzwerkabstrafung“ umschreibt einen von Google groß angelegten Rundumschlag gegen Internetseiten und Portale, deren Sichtbarkeit und „Stärke“ durch starke Backlinks erzeugt wurden. Es geht dabei aber nicht um die generelle Abstrafung von starken Links, sondern um komplette Netzwerke, deren einziger Existenzgrund es ist, sich gegenseitig mit Links zu versorgen. Solche Maßnahmen sind vonseiten Google unerwünscht, und so war es nur eine Frage der Zeit, bis sich der Suchgigant eine Möglichkeit schuf, solchen Netzwerken empfindliche Strafen zuzufügen. Diese Maßnahme ergoss sich im weit bekannten Pinguin-Update über das Internet und entlarvte jede Menge Linknetzwerke. Deren Links wurden bestenfalls nur entwertet, häufig kam es jedoch zur Entfernung der kompletten Zielseiten aus dem Index.

Überwiegend in der SEO-Szene sind derartige Netzwerke wie „Link Wheel“, „Link Pyramide“ und dergleichen bekannt. Auch heute schaffen es gewiefte SEOs noch, solche Linknetzwerke zu nutzen, ohne aufzufallen. Seit dem genannten Update ist die Anzahl allerdings spürbar geschrumpft.

Zugriffe: 2
Linkpopularität

Die Linkpopularität bezeichnet die Anzahl der eingehenden Links (Inbound Links) zu einer Website von anderen Sites. Grundsätzlich wird die Anzahl dieser – auch als Backlinks bezeichneten – Verweise zum Ermitteln der Position in Suchergebnissen genutzt. Je höher die Linkpopularität, desto besser die Platzierung in den Suchergebnissen.
Diese einfache Gleichung gilt heute aber nicht mehr ohne Weiteres. Suchmaschinenbetreiber sind dazu übergegangen, strengere Kriterien für Backlinks anzulegen. Beispielsweise wurde früher auf einem Blog über ein bestimmtes Thema jeder Link auf eine andere Site einzeln gewertet. Heute wird eher die Domainpopularität betrachtet, d. h., alle Verweise auf diesem Blog werden als ein einziger Backlink angesehen. Insgesamt spielt die Qualität der Links (Link Strength) mittlerweile eine sehr viel größere Rolle als die schiere Anzahl.

Zugriffe: 2
Linkprüfung

Linkprüfungen untersuchen Websites daraufhin, ob sie Hyperlinks enthalten, die nicht mehr auf das richtige oder auf kein Ziel verweisen. Insbesondere sogenannte Dead Links sind unbedingt zu vermeiden. Jeder Website-Betreiber sollte daran interessiert sein, Hyperlinks auf seinen Seiten stets aktuell zu halten. „Tote Links“ behindern die Erfassung einer Seite durch Webcrawler und führen wegen eingeschränkter Benutzerfreundlichkeit in der Regel zu Herabstufungen durch Suchmaschinen.
„Tote Links“ entstehen dadurch, dass die verlinkten Seiten verschoben oder gelöscht werden. Eine regelmäßige Prüfung aller Links auf einer Seite ist ebenso zu empfehlen wie der Test aller Links direkt nach Erstellung der Seite. Zur Automatisierung dieser Arbeit gibt es diverse Tools zur Linkprüfung, die alle Links einer Seite auf korrekte Funktion prüfen.

Zugriffe: 2
Linktausch

Bei einem Linktausch werden von zwei (oder mehreren) Websites Links gesetzt, die jeweils auf die andere Site führen. Hintergrund ist die Optimierung von Websites für Suchmaschinen, bei denen eine hohe Anzahl eingehender Links (Linkpopularität) die Platzierung in den Suchergebnissen verbessert. Die einfachste Art ist der reziproke Linktausch, bei dem sich zwei Sites gegenseitig verlinken.
Am nicht-reziproken Tausch sind mindestens drei Partner beteiligt, die sich nicht gegenseitig, sondern im Kreis verlinken. Je mehr Partner, desto schwieriger ist ein Linktausch für die Suchmaschinenalgorithmen erkennbar. Der Linktausch ist natürlich gegen die Regeln von Suchmaschinenbetreibern. Mittlerweile zählen die Algorithmen der Suchmaschinen nicht mehr einfach nur eingehende Links, sondern werten auch den Linktext aus und prüfen, ob die Sites inhaltlich zueinander passen.

Zugriffe: 2
Linktext

Der Linktext – auch Anker- oder Verweistext – ist der Text, der dem Leser in einem HTML-Dokument als Hyperlink präsentiert wird. Im Allgemeinen wird der Link farbig dargestellt; wenn er bereits von diesem User besucht wurde, weist er eine andere Farbe auf. Da der Leser normalerweise nichts mit der eigentlichen Adresse des Links anfangen kann, wird diese im dargestellten Text ersetzt.
Der Text soll den Leser darüber informieren, welche weitergehenden Informationen hinter dem Link liegen, und zum Kontext passen. Beim Ranking durch Suchmaschinen wird daher viel Wert auf aussagekräftige und passende Linktexte gelegt. Auch für die Barrierefreiheit spielen sinnvolle Linktexte eine große Rolle.

Zugriffe: 4
Local Rank

Local Rank ist eine spezielles Verfahren zur Bewertung von Suchergebnissen, auf das Google ein Patent hat. Hierbei geht es darum, ein bereits geordnetes Suchergebnis in einem zweiten Schritt durch Prüfung der Beziehungen der Suchergebnisse untereinander neu zu ordnen.
Für eine Suchanfrage wird mit den üblichen Algorithmen im ersten Schritt ein Ergebnis ermittelt (Ranking). Für einen Teil dieses Ergebnisses, zum Beispiel die ersten Tausend Einträge, wird anschließend geprüft, wie viele Inbound Links jede Site von den anderen 999 Sites hat, und daraus ein neues Ranking erstellt (Re-Ranking). Im letzten Schritt erfolgt die Berechnung eines neuen Ergebnisses aus dem Resultat der ersten beiden Schritte. Ob und wie Google diese Berechnung tatsächlich durchführt, ist nicht bekannt.

Zugriffe: 2
Log-Spam

Log-Spam oder Referrer-Spam gehört zu den Spammingmethoden, die auf Suchmaschinen abzielen. Dabei werden die Logfiles von Websites mit hoher Linkpopularität mithilfe eines Spiders  manipuliert. Dieser Spider besucht wiederholt Websites, wodurch in deren Logfiles Einträge generiert werden, die einen Link auf eine andere Site enthalten und damit Backlinks auf diese Site erzeugen.
Werten Suchmaschinen solche Logfiles aus, wirkt sich das positiv auf die verlinkte Site aus. Website-Betreiber können die Nutzung von Logfiles durch Suchmaschinen mit entsprechenden Maßnahmen verhindern. Vermutlich erkennt Google diese Art von Spam jedoch und wertet ihn nicht aus.

Zugriffe: 3
Logfile

Ein Logfile ist eine Protokolldatei, in der Programme üblicherweise Programmschritte, Ereignisse von außen und ungewöhnliche Zustände mitschreiben. Ein Webserver protokolliert im Logfile alle Abrufe einer Website und die an den Abrufer gesendete Antwort. Mitgeschrieben werden dabei unter anderem Datum und Uhrzeit, IP-Adresse des Besuchers sowie der Browsertyp, mit dem der Aufruf erfolgte.
Logfileanalysen sind ein wichtiger Bestandteil der Website-Optimierung für Suchmaschinen. Logfiles sind Textdateien und können in einem Editor direkt gelesen werden. Bei Websites mit hohem Traffic ist das allerdings viel zu aufwendig; dafür gibt es eine Reihe professioneller Werkzeuge und spezialisierte Dienstleister, die umfassende und grafisch aufbereitete Auswertungen liefern.

Zugriffe: 3
Longtail

Mit Longtail sind “erweiterte Keywordkombinationen“ gemeint. Longtail Keywords sind in der Regel so ausgelegt, dass sie einen Themenbereich möglichst breit und vollständig abdecken, um auch mit solchen thematisch relevanten Suchbegriffen in den SERPs aufzutauchen, die kein großes Suchvolumen aufweisen. Wenn eine Website beispielsweise auf das Keyword „Suchmaschinenoptimierung“ optimiert ist, lässt sich das Spektrum bzw. die „Breite“ der Website und damit auch die Auffindbarkeit mit Longtail Keywords erhöhen.

Hier ein Beispiel:

  • Hauptkeyword: Suchmaschinenoptimierung
  • Longtail Keyword 1: Suchmaschinenoptimierung online
  • Longtail Keyword 2: Suchmaschinenoptimierung online buchen

Eine solche Liste lässt sich beliebig erweitern und erhöht die Sichtbarkeit eines Webprojekts in der Regel deutlich. Zusammengefasst bedeutet Longtail also „Keyword mit mehr als einem Wort“.

Zugriffe: 5
Metatag

Metatags, auch Metaelemente, sind besondere HTML-Tags, die im Header eines Dokumentes stehen. Sie beinhalten allgemeine Informationen über das Dokument. Wichtig sind sie vor allem, weil sie automatisiert ausgewertet werden können. Metatags sollen die Durchsuchbarkeit des Web oder einer einzelnen Site verbessern. Auch die Steuerung von Suchmaschinencrawlern gehört zu ihren Aufgaben.
Mit dem Robotstag lässt sich zum Beispiel die Indizierung einer Website verhindern. Die Inhalte des Description-Metatags zeigen Suchmaschinen in den Ergebnissen an. Aussagekräftige Inhalte für das Title-Metatag jeder Site sind wichtig für die Suche, während Keyword-Metatags eher nicht ausgewertet werden. Grundsätzlich sind gute Metadaten auf jeden Fall sinnvoll, doch ihre Wirkung in Bezug auf SEO sollte nicht überschätzt werden.

Zugriffe: 3
Mobile Advertising

Mobiles Advertising konzentriert sich auf das Werben und die Nutzung von neuen Werbeformen auf mobilen Endgeräten, an welche die Werbebotschaften versendet werden. Dabei umfasst der Begriff Mobile Advertising den kompletten Bereich und alle Möglichkeiten der mobilen Werbung.

Zugriffe: 5
Mobile Websites

Mobile Websites sind in der Regel ganz normale Websites, die für die Anzeige auf mobilen Endgeräten wie Smartphones und Tablets optimiert wurden. Die Optimierung umfasst gewöhnlich die angezeigte Datenmenge und Anzeigeart. Statistiken zeigen, dass der Zugriff auf mobile Inhalte von Websites stetig zunimmt. Daher sollten Suchmaschinenoptimierer auch hier einen wirksamen Hebel sehen, um Haltezeiten und Benutzerfreundlichkeit zu erhöhen. Dank moderner Programmiersprachen, hier vornehmlich HTML5, lassen sich die Inhalte einer Website flexibel an das jeweils verwendete Endgerät ausliefern. Der Trend hin zu mobilen Endgeräten hält permanent an – eine mobile Version des eigenen Webprojekts sollte daher unbedingt bereitgestellt werden. Obwohl es keine Bedingung ist, kann eine Mobile Website als TLD (Top-Level-Domain) mit der Kennzeichnung „.mobil“ versehen sein.

Zugriffe: 6
Mod_Rewrite

Mod_Rewrite bezeichnet ein Modul für Apache Server, auf deren Grundlage enorm viele Websites basieren. Die Funktion des Moduls besteht darin, unleserliche URLs in ein für Menschen und Suchmaschinen lesbares und damit verwertbares Format zu bringen. Ohne Mod_Rewrite erscheinen URLs, die aus durch PHP generierten Sites entstehen, als unsauberer Code, der kaum les- oder verwertbar ist.

So funktioniert Mod_Rewrite (Beispiel):

Zugriffe: 4
Noframes-Bereich

Der Noframes-Bereich spielt bei Websites, die mit Frames arbeiten, eine wichtige Rolle. Zwar können Browser heute grundsätzlich Framesets darstellen, aber Suchmaschinen werten den Inhalt von Frames nicht aus. Daher empfiehlt es sich, im Noframes-Bereich zumindest die wesentlichen Teile des Inhaltes der Site zusammenzufassen und wichtige Keywords sowie wesentliche Links einzufügen, damit die Webcrawler zumindest ein paar Inhalte finden. Der Anwender sieht den Inhalt des Noframe-Bereichs nicht.
Die Nutzung von Frames wird heute nicht mehr empfohlen, da sie neben den Nachteilen für die Suchmaschinenoptimierung auch technische Probleme mit sich bringen. Der Frame-Tag ist in der HTML5-Spezifikation nicht mehr vorhanden. Stattdessen können Webmaster mit iFrames arbeiten, bei denen zumindest die technischen Probleme ausgeräumt sind.

Zugriffe: 3
Nonstop-Submissions

Bei der Nonstop-Submission handelt es sich um die ständig wiederholte Anmeldung einer Website bei einer oder mehreren Suchmaschinen. Ziel dieser Anmeldung ist eine möglichst häufige Überprüfung der Site durch die Crawler der Suchmaschinen. Allerdings werten die Suchmaschinenbetreiber die ständig wiederholte Anmeldung als Spam. Dies kann die Aufnahme der Website in den Index verhindern. Sinnvoll ist eine einmalige Anmeldung bei den Suchmaschinen, wenn eine neue Site nicht über einen externen Link erreichbar ist. In diesem Fall kann sich die Aufnahme in den Index der Suchmaschine durch die Anmeldung beschleunigen. Von Nonstop-Submission ist jedoch grundsätzlich abzusehen.

Zugriffe: 4
OffPage-Optimierung

OffPage-Optimierung ist einer der zwei Grundpfeiler sämtlicher Maßnahmen im Bereich der Suchmaschinenoptimierung. Dabei beschreibt das „OffPage“, dass sämtliche Aktionen und Tätigkeiten aus diesem Bereich überall im Internet durchgeführt werden – nur auf der eigenen Website nicht. Zu den bekanntesten OffPage-Optimierungsmaßnahmen gehören u. a.:

  • Linkbuilding
  • Seeding
Zugriffe: 5
OnPage-Optimierung

Mit der OnPage-Optimierung werden alle Maßnahmen beschrieben, die der Verbesserung in den SERPs dienen und auf der eigenen Website durchgeführt werden. Die OnPage-Optimierung ist der zweite relevante Grundpfeiler der Suchmaschinenoptimierung und ihre Möglichkeiten sollten zunächst größtenteils ausgeschöpft werden, bevor Webmaster mit der OffPage-Optimierung beginnen.

Wichtige Faktoren der OnPage-Optimierung sind beispielsweise:

  • Seitenladezeit
  • Hochwertige Inhalte (Text/Bildmaterial/sonstige Inhalte)
  • Interne Verlinkung
  • Verbesserung des Quellcodes
Zugriffe: 3
Organic Listing

Bei Organic Listing (engl., „organische Listung“) handelt es sich um das "natürliche" Ergebnis einer Suchanfrage bei einer Suchmaschine, das allein durch die von der Search Engine ermittelte Relevanz der aufgeführten Dokumente bestimmt wird. Als Gegenteil dieser organischen Listung gilt die bezahlte Listung, das Paid Listing, bei dem die Position eines Ergebnisses durch den Betreiber der entsprechenden Site "gekauft" wird. Es ist ein wesentliches Qualitätsmerkmal von Suchmaschinen, die Unterschiede in den Ergebnissen zu kennzeichnen. Ziel der Suchmaschinenoptimierung (SEO) von Websites ist es, die Site im Organic Listing möglichst weit nach vorn zu bringen. SEO-Maßnahmen beim Seiteninhalt haben keinen Einfluss auf den organischen Charakter der Suchergebnisse.

Zugriffe: 4
Orphan Page

Eine Orphan Page (engl., „verwaiste Seite“) ist eine Website, zu der es keinen Inbound Link gibt. Eine solche Site ist nur durch die Eingabe der korrekten URL in die Adresszeile des Browsers zu realisieren und wird in der Regel nicht von Suchmaschinen berücksichtigt. Das Fehlen eingehender Links ist in den meisten Fällen auf Fehler bei der Programmierung oder Wartung der Webpräsenz zurückzuführen und nicht gewollt. Dass die Site für einen bestimmten Kreis quasi nicht öffentlich zugänglich ist, kann aber natürlich auch vom Betreiber gewünscht sein. Für all diejenigen, die die URL genau kennen, ist die Website jedoch ohne Weiteres aufrufbar.

Zugriffe: 3
Outbound Link

Bei einem Outbound Link handelt es sich um einen Link von einer Website A zu einer anderen Website B aus der Sicht der Site A. Ein Outbound Link ist somit ein Weg, eine Site zu verlassen, den viele Betreiber nicht gern benutzen. Der Wert solcher Links wird im Netz viel und kontrovers diskutiert. Demnach können sich ausgehende Links negativ auf den Pagerank einer Site auswirken können. Daneben ist mit der Pflege und Kontrolle solcher Links auch ein gewisser Aufwand verbunden, weil sie auf gar keinen Fall im Nirgendwo landen dürfen. Andererseits repräsentieren solche Links die wesentliche Idee des World Wide Web, indem sie die Vernetzung und Verbreitung von Informationen erst ermöglichen. Die verlinkte Site sollte eine gewisse Autorität und eine hohe Linkpopularität aufweisen.

Zugriffe: 9
Over Optimization Penalty

Over Optimization Penalty (engl., „Überoptimierungsstrafe“) ist eine Sanktionierung von zu offensichtlichen SEO-Maßnahmen durch Suchmaschinen. Ziel dabei ist es, eine zu starke Ausrichtung des Inhalts einer Website auf die Anforderungen von Suchmaschinen statt auf die des Anwenders zu verhindern. So soll eine Förderung von gutem Inhalt gegenüber guter SEO erreicht werden. Suchmaschinenbetreiber leben davon, ihren Nutzern die relevantesten Dokumente als Ergebnis ihrer Anfrage ganz weit vorn zu präsentieren. Überoptimierte Sites, die aufgrund ihrer SEO ganz hoch von den Suchmaschinen bewertet werden, für den Anwender aber keinen Nutzen haben, sind schlecht für das Geschäft. Sichere Belege für die Anwendung solcher Strafen gibt es aber nicht.

Zugriffe: 3
Page Impressions (PI)

Die sogenannte Page Impressions oder kurz “PI” ist eine Kennzahl im Suchmaschinenmarketing. Dieser Wert gibt an, wie viele Website-Besucher sich in einem zu definierenden Zeitraum auf einer bestimmten Site aufgehalten haben. Auf der Grundlage dieser Angabe werden häufig Werbeverträge zwischen Unternehmen und Website-Betreibern geschlossen.

Grundsätzlich gilt:
Je höher die Page Impressions einer Site ausfällt, desto wertvoller wird die Site für potenzielle Unternehmen, die auf der Suche nach einer passenden Werbeplattform sind.

Zugriffe: 3
Page Popularity

Der Begriff Page Popularity (engl., „Beliebtheit einer Seite, Seitenpopularität“), auch „Site Popularity“, lässt sich anhand der Besucheranzahl einer Website bzw. auch durch die Klickrate auf den entsprechenden Link in den Ergebnissen von Suchanfragen messen. Häufig wird Page Popularity aber auch als Synonym für Linkpopularität verwendet, obgleich diese eine andere Bedeutung hat.

Zugriffe: 3
Pagejacking

Pagejacking oder Page Hijacking (engl., „Entführung von Seiten“) ist eine Methode des Suchmaschinenspammings, in dessen Rahmen der Inhalt einer Website inklusive aller Bilder kopiert wird. Das verstößt selbstverständlich gegen das Urheberrecht. Pagejacking soll die Besucherzahl der eigenen Website erhöhen. Eine andere Möglichkeit ist das Einschleusen eines JavaScript-Programms in die Originalwebsite, das den Anwender auf eine andere Site weiterleitet. In der Vergangenheit haben pornografische Sites häufig solche illegalen Methoden benutzt. Wenn eine Site den Inhalt einer anderen Site vollständig kopiert, entdecken die Suchmaschinencrawler Duplicate Content. Da aber immer nur eine Site im Ergebnis angezeigt wird, muss der Spammer versuchen, seine eigene Website in die Ergebnisliste zu bekommen.

Zugriffe: 3
Pagerank

Der Begriff Pagerank ist sehr oft anzutreffen. Dabei handelt es sich um eine Zahl zwischen 1 und 10, die angibt, für wie wichtig der Suchmaschinenriese Google die betreffende Website hält. Eine besonders wichtige Internetseite erhält dabei den Pagerank 10, eine relativ neue oder eher unwichtige Site dagegen zunächst den Pagerank 0. Allerdings wird dem Pagerank hinsichtlich der Anzeige einer Website in den Suchergebissen nicht mehr die frühere Bedeutung beigemessen.

Zugriffe: 3
Paid Followers

In einigen Fällen setzen Betreiber von Facebook-Seiten oder Twitter-Accounts darauf, dass Fans eingekauft werden. Es gibt diverse Quellen für „Fanpakete“, zum Beispiel eBay. Dort gibt es für relativ geringes Geld eine gewisse Zahl an Fans, die auf der eigenen Site „Gefällt mir“ drücken. Diese Fans haben für die Site aber kaum einen Mehrwert, da sie meist aus dem Ausland kommen und der deutschen Sprache nicht mächtig sind. Daher sollten Webmaster Abstand vom Thema Fankauf nehmen. Außerdem sinkt meist auch die Reputation der eigenen Site oder gar der eigenen Person, wenn ans Licht kommt, dass Fans gekauft worden sind.

Zugriffe: 2
Paid Listing

Paid Listing, auch gesponserter Link genannt, ist das Gegenstück zum Organic Listing. Beim Paid Listing wird die Anbietersite als Anzeige in den Ergebnisseiten der Suchmaschine dargestellt und hat nichts mit der ermittelten Relevanz der gefundenen Einträge in Bezug zur Anfrage zu tun.
Für bestimmte Keywords und Suchanfragen können Unternehmen bei Suchmaschinenbetreibern eine gute Position in den Suchergebnissen kaufen. Bei den meisten Suchmaschinen werden diese Paid Listings auch als Anzeigen gekennzeichnet und gesondert dargestellt. Das bekannteste solcher Werbeprogramme ist Google AdWords. Die Abrechnung der Werbung erfolgt in der Regel durch Pay-per-Click, also die Anzahl der tatsächlich durchgeführten Klicks auf die Werbung.

Zugriffe: 3
Paid Placement

Paid Placement (engl., „bezahlte Platzierung“) funktioniert ähnlich wie Paid Ranking; gebucht werden feste Positionen auf festgelegte Keywords. Der Verkauf erfolgt meist in Form von Auktionen. Im Gegensatz zum Paid Ranking werden die gekauften Links beim Paid Placement auf der Ergebnisseite auch als solche gekennzeichnet. Diese Methode wenden alle großen Suchmaschinenbetreiber an. Bezahlte Einträge werden meist mit den Begriffen "Anzeige" oder "Gesponserter Link" überschrieben. Für den Nutzer hat dieses Verfahren den Vorteil, dass er klar erkennen kann, welche Einträge im Ergebnis organisch zustande gekommen sind und welche gekauft wurden. Die Abrechnung dieser Werbemaßnahme erfolgt in der Regel durch Pay-per-Click.

Zugriffe: 3
Paid Ranking

Als Paid Ranking (engl., „bezahlte Positionierung“) wird die gekaufte Positionierung in den Ergebnissen von Suchmaschinen bezeichnet. Dabei wird allerdings nicht kenntlich gemacht, dass es sich um eine gekaufte Position handelt. Das Verfahren bieten primär kleinere Suchmaschinen an. In Europa wird es nur sehr selten angewendet. Dabei versteigert der Suchmaschinenbetreiber die Platzierungen; je höher die Position, desto höher der Preis. Für den Benutzer hat diese Form der Suchmaschinenergebnisse den Nachteil, dass nicht die für ihn relevantesten Dokumente ganz oben angezeigt werden, sondern die Website, die am meisten bezahlt hat. Daher verzichten Google und die meisten größeren Suchmaschinen auf diese Methode.

Zugriffe: 3
Paid Submission

Die Paid Submission bezeichnet eine kostenpflichtige Anmeldung einer Website bei einem Webverzeichnis oder Webdirectory. Der Betreiber der Site muss hier eine Gebühr dafür entrichten, dass seine Website innerhalb eines definierten Zeitrahmens durch den Verzeichnisdienst geprüft wird. Eine Garantie für die Aufnahme der Site in den Dienst gibt es damit allerdings nicht. Über die Aufnahme entscheiden die Redakteure.
Die Gebühr wird meist von Webkatalogen oder Webverzeichnissen für die Bearbeitung der Anmeldung sowie manchmal für eine bestimmte Laufzeit des Eintrages erhoben. Bekannte Beispiele für Webdirectorys sind DMOZ und Yahoo! Directory, das jedoch Ende 2014 eingestellt wurde. Bei den bekannten Suchmaschinen ist die Paid Submission nicht üblich.

Zugriffe: 2
Partnerprogramme

Partnerprogramme (siehe Affiliate)
Partnerprogramme bilden die Grundlage der Tätigkeit der sogenannten “Affiliates”.

Zugriffe: 2
Pay-per-Click

Pay-per-Click ist ein Abrechnungsverfahren im Onlinemarketing, bei dem pro Klick auf den dargestellten Link, d. h., pro Aufruf der Seite mit der entsprechenden Werbung, bezahlt wird. Meist erfolgt die Abrechnung von Sponsorenlinks oder Werbeanzeigen, die neben Suchergebnissen angezeigt werden, nach diesem Modell. Auch bei Google AdWords ist dieses Verfahren Standard. Das Problem bei diesem Verfahren ist die Qualität der Besuche. Anders als bei allen anderen Abrechnungsmodellen gibt es keine Anforderungen daran, was die Besucher tatsächlich auf der Site machen. Dieses Modell wird daher in der Regel nur zur Erhöhung der Reichweite einer Site angewendet – und nicht für Kampagnen, die dem direkten Produktverkauf dienen.

Zugriffe: 3
Pay-per-Lead

Pay-per-Lead ist eine Methode zur Abrechnung von Marketing- und Werbemaßnahmen im World Wide Web. Bei dieser Methode wird ein qualifizierter Kundenkontakt vergütet, der sich auf Basis einer Werbung ergibt.
Was genau ein „qualifizierter Kundenkontakt“ ist, müssen die Partner jeweils vertraglich vereinbaren. Beispiele dafür sind etwa die Newsletteranmeldung oder das Anfordern eines Katalogs durch den potenziellen Kunden. Wesentlich ist, dass der Interessent seine Kontaktadresse angibt. Häufig wird dieses Abrechnungsmodell mit Umfragen oder kostenlosen Gewinnspielen verbunden. Gezahlt wird ein fester Betrag pro Lead. Dabei ist unerheblich, ob am Ende tatsächlich ein Geschäft zwischen dem Werbenden und dem Interessenten zustande kommt.

Zugriffe: 3
Pay-per-Sale

Beim Abrechnungsmodell Pay-per-Sale wird eine Onlinewerbemaßnahme nach tatsächlichem Umsatz abgerechnet. In der Regel erhält der Werbepartner einen Anteil vom Umsatz. Dieses Modell stellt von allen Modellen die höchsten Ansprüche an die Aktion des Kunden bzw. des Interessenten. Dabei stellt sich immer die Frage des Zeitraumes, in dem der mögliche Kunde seine Bestellung tätigen muss.
Da Kunden erfahrungsgemäß vor einem Kauf erst Preisvergleichsseiten oder Testberichte konsultieren, ist eine Bestellung direkt nach Aufruf der Site aus der Werbung eher unwahrscheinlich. Daher wird häufig ein Zeitraum von 30 bis 90 Tagen nach dem Klick auf die Werbung bis zum Kauf vereinbart.

Zugriffe: 2
Pay-per-View

Beim Abrechnungsmodell Pay-per-View (engl., „Zahlung nach Ansicht“) wird die Werbung pro Einblendung des Werbemittels für einen User bezahlt, meist in Einheiten von Tausend. Dieses Abrechnungsmodell findet hauptsächlich bei Bannerwerbung Verwendung. Die Bezahlung erfolgt hier mittels festem Preis pro Tausend Einblendungen einer Werbung auf einer Werbefläche – unabhängig davon, ob der Benutzer die Werbung auch anklickt. Dieses Verfahren wird auch Cost-per-Impression (CPM) genannt, wobei das M für die römische Zahl 1.000 steht. Daher ist im Deutschen auch häufig die Abkürzung TKP für „Tausenderkontaktpreis“ geläufig. Die Methode hat sich als nicht sehr effektiv erweisen, weshalb sie heute eher selten genutzt wird.

Zugriffe: 2
Pay-per-Visit

Pay-per-Visit ist ein Abrechnungsmodell im Onlinemarketing, bei dem für jeden Besucher, der eine Website aufgrund eines Klicks auf eine Werbung auf einer anderen Website besucht, ein fester Betrag gezahlt wird. Eine Kontrolle der Aktionen der Besucher auf der werbenden Seite ist dabei nicht vorgesehen. Dieses Abrechnungsverfahren eignet sich in erster Linie für die Bekanntheitssteigerung (Reichweite) einer Website. Auch wenn die Besucheranzahl durch die Werbung hoch ist, kann der daraus entstehende Umsatz (aus Verkäufen) sehr niedrig sein. Für Werbemaßnahmen, die direkt dem Verkauf eines Produktes dienen, bieten sich daher eher andere Abrechnungsverfahren an. Ein anderer Name für dieses Verfahren ist Per-per-Click.

Zugriffe: 3
PHP

Die Abkürzung PHP ist ein rekursives Akronym und steht für PHP: Hypertext Preprocessor. PHP ist eine Scriptsprache, die bei der Erstellung von dynamischen Websites weit verbreitet und frei verfügbar ist. Entwickelt wurde PHP 1995 von dem dänischen Programmierer Rasmus Lerdorf. Mit der Entwicklung des World Wide Web ab Ende der 1990er Jahre wurde PHP immer beliebter als Programmiersprache dynamischer Websites, da es frei verfügbar und zudem leichter zu erlernen war als andere Sprachen wie zum Beispiel Perl, das in den Anfangsjahren des Web quasi der Standard für die Entwicklung war. PHP-Code wird auf dem Webserver verarbeitet. Das bedeutet, dass der Quelltext einer Site nicht direkt vom Server an den anfordernden Browser gesendet wird, sondern erst durch einen Interpreter bearbeitet wird.

Zugriffe: 4
Ping

Der Begriff Ping stammt ursprünglich aus dem militärischen Bereich: Beim Sonar wird ein Schallsignal ausgesendet, um U-Boote aufzuspüren. Dieses Signal nennt man Ping. In der Netzwerktechnik hat der Ping einen ähnlichen Zweck. Mit dem Programm setzt man ein Signal ab, um die Erreichbarkeit eines bestimmten Rechners in einem IP-Netzwerk zu prüfen. Hierfür benötigt das Programm die IP-Adresse des zu prüfenden Rechners oder einen Hostnamen (wie www.beispiel.com), der mittels Domain-Name-Service (DNS) in eine IP-Adresse aufgelöst werden kann. Ping misst nun die Zeit, bis der hinter der Adresse stehende Rechner eine Antwort gegeben hat, und gibt diese aus. Falls nach einer Wartezeit keine Antwort gekommen ist, wird eine entsprechende Meldung ausgegeben.

Zugriffe: 2
Portal

Ein Portal ist eine Seite, die sozusagen als "Eingang" für den Anwender in einen speziellen Themenbereich dient. Hier werden in der Regel Informationen, Nachrichten und Dienstleistungen zu einem abgegrenzten Thema präsentiert. Der Anwender bekommt einen Überblick über aktuelle Informationen und relevante Unterthemen sowie Anbieter. Häufig gehören auch Dienstleistungen wie Benutzerforen, Suchdienste, Blogs und Downloadbereiche zum Portal. Durch die Konzentration auf bestimmte Benutzergruppen mit definierten Interessen haben erfolgreiche Portale eine hohe Nutzerbindung und damit regelmäßigen Traffic, was wiederum Werbeanbieter anlockt, die entsprechende Interessen bedienen wollen. In den späten 1990ern wurden sogenannte Webportale von Internetdienstanbietern (ISP), Suchmaschinenbetreibern und anderen angeboten, die ihren Kunden damit über ihre Seite den einzigen Weg ins Internet bieten wollten.

Zugriffe: 5
Position Monitoring

Position Monitoring ist die „Überwachung der Position“. Im SEO-Kontext ist damit die systematische Überwachung der Rankingpositionen einer Website bei verschiedenen Suchmaschinen bezogen auf bestimmte Keywords und Suchphrasen gemeint. Position Monitoring ist eine Möglichkeit, die Auswirkungen von SEO-Maßnahmen zu überprüfen. Die daraus gewonnenen Erkenntnisse sind allerdings mit einigen Unwägbarkeiten behaftet und ermöglichen keine direkte Aussage zum Erfolg einer Website. Durch die Veränderung von Platzierungen kann aber die Wirksamkeit von Maßnahmen schnell überprüft und ggf. auch noch gegengesteuert werden. Neben spezieller Software für die Rankingkontrolle gibt es auch einige kostenlose Onlinetools, die diese Aufgabe erfüllen. Das automatisierte Position Monitoring ist allerdings umstritten. Siehe auch SEO-Tools.

Zugriffe: 2
Precision

Die Precision (engl., „Genauigkeit“) ist ein Parameter für die Beurteilung der Qualität von Ergebnissen eines Information Retrieval, also einer Recherche. Es geht dabei darum, ob gefundene Dokumente, etwa bei einer Suchmaschinenanfrage, im Sinne eines definierten Kriteriums relevant sind. Dafür werden die Parameter Trefferquote (recall), Genauigkeit (precision) und – weniger gebräuchlich – Ausfallquote (fallout) herangezogen. Precision ist dabei der Anteil tatsächlich relevanter Dokumente innerhalb der kompletten Ergebnismenge. Ein gutes Ergebnis sollte alle relevanten Dokumente – und nur diese – finden. Da die Parameter jedoch voneinander abhängen, sinkt die Precision bei steigender Trefferquote und umgekehrt. Ob Trefferquote oder Genauigkeit wichtiger sind, hängt vom jeweiligen Anwendungsfall ab.

Zugriffe: 2
Provider

Provider sind allgemein Unternehmen, die eine bestimmte Leistung zur Verfügung stellen (engl., „bereitstellen“). Internet Service Provider (ISP), in Deutschland häufig auch allgemein Provider genannt, stellen die Verbindung zum Internet zur Verfügung. Ein weiteres Feld der Provider ist das Hosting. Hierbei wird zwischen dem Domainhosting – der Registrierung und dem Betrieb einer Domain – und dem Webhosting – dem Betrieb einer Website auf einem Webserver des Providers – unterschieden. Beim Webhosting gibt es verschiedene Pakete, von der einfachen Website bis hin zu Contentmanagementsystemen, Datenbanken und Onlineshops. Provider offerieren auch andere Leistungen wie Server- oder Mailhosting, die Bereitstellung von Rechnerleistung oder von E-Mail-Diensten an. Ihre Kunden sind meist kleinere Unternehmen, die die erforderliche Infrastruktur und die für den Betrieb benötigten Ressourcen nicht selbst aufbauen wollen oder können.

Zugriffe: 3
Quellcode

Mit dem Quellcode einer Internetseite ist das Grundgerüst an Befehlen gemeint, mit dem eine Site aufgebaut ist. Der Quellcode kann dabei aus mehreren Darstellungs- oder Programmiersprachen (z.  B. HTML, CSS oder PHP) bestehen. Bei den meisten Internetseiten kann der Quellcode eingesehen werden, indem der Benutzer mit der rechten Maustaste auf einen freien Bereich der Website klickt und anschließend die Option „Quellcode anzeigen“ wählt. Neben den einzelnen Befehlen für die Darstellung der verschiedenen Website-Inhalte befinden sich im Quellcode zudem die sogenannten Metatags.

Zugriffe: 3
Query

Query bezeichnet eine Suchanfrage, die verschiedene Parameter beinhalten kann. Jeder, der eine Suchmaschine nutzt, startet mit seiner Suchanfrage auch zeitgleich ein Query – eine Datenbankabfrage, ob es Inhalte zu den eingegebenen Suchbegriffen gibt. Das Ergebnis des Query ist die Trefferliste der Suchergebnisse.

Zugriffe: 5
Ranking

Als Ranking wird die Reihenfolge bezeichnet, in der die Ergebnisse einer Suchmaschinenanfrage dargestellt werden. Die relevantesten Treffer sollten ganz oben in der Rangordnung stehen. Da alle Suchmaschinen ihre eigenen Algorithmen für das Ranking benutzen, ist das Ranking für die gleiche Anfrage bei verschiedenen Suchmaschinen wahrscheinlich nicht gleich.
Hauptziel der Suchmaschinenoptimierung ist es, das Ranking einer Website zu verbessern, sodass die optimierte Site möglichst auf den ersten Platz in den Ergebnissen einer Anfrage gelangt. Google berücksichtigt beim Ranking mehr als 200 Faktoren. Mittlerweile wird das Ranking immer stärker personalisiert; so berücksichtigt der Suchmaschinenriese z. B. den aktuellen Standort und die eigene Suchhistorie.

Zugriffe: 6
Rankingalgorithmus

Der Rankingalgorithmus ist die Formel, nach der eine Suchmaschine die Gesamtheit der auf eine Suchanfrage gefundenen Dokumente wertet und positioniert. Dabei hat jede Suchmaschine ihren eigenen Algorithmus, sodass die gleiche Anfrage bei verschiedenen Suchmaschinen unterschiedliche Ergebnisse erzielt. Der bekannteste Rankingalgorithmus ist der Pagerank-Algorithmus von Google, der mehr als 100 Faktoren berücksichtigt.
Ziel der Suchmaschinenoptimierung ist es, eine Site möglichst so zu optimieren, dass sie bei allen Suchmaschinen gut rankt. Durch fortschreitende Technik (zum Beispiel semantische Analysen) und Trends (mobile Devices) unterliegen die Algorithmen ständigen Veränderungen. Die Details der Algorithmen gehören zu den bestgehüteten Betriebsgeheimnissen der Suchmaschinenbetreiber.

Zugriffe: 3
Rankinganalyse

Eine Rankinganalyse ist ganz allgemein die Auswertung der Ergebnisse einer Suchanfrage. Ziel ist es, herauszufinden, wie die Algorithmen von Suchmaschinen arbeiten, um die Möglichkeiten der Suchmaschinenoptimierung zu verbessern. Da die Algorithmen, nach denen Suchmaschinen ihre Ergebnisse auf eine Anfrage werten, nicht veröffentlicht werden, werden Rankinganalysen durchgeführt. Dazu werden häufig Tausende Anfragen bei verschiedenen Suchmaschinen gestellt und ihre Ergebnisse automatisiert ausgewertet. Werden dabei Muster erkannt, lässt dies Rückschlüsse auf die Arbeitsweise der Algorithmen zu. Diese werden dann wiederum bei SEO-Maßnahmen angewendet. Als Rankinganalyse wird auch die Auswertung einer einzelnen Site nach verschiedenen Kriterien bezeichnet. Diese bieten verschiedene SEO-Dienstleister auch online an, um potenzielle Kunden vom Nutzen der Suchmaschinenoptimierung zu überzeugen.

Zugriffe: 2
Recall

Der Recall ist ein Kriterium für die Beurteilung der Qualität von Suchergebnissen, also ein Maß für Suchmaschinen. Ein Recall (engl., „Trefferquote“) gibt an, wie groß die Menge der tatsächlich relevanten Dokumente in einem Suchergebnis ist, und misst damit die Vollständigkeit des Ergebnisses. Das Gegenteil von Recall ist der Fallout, der die Menge der irrelevanten Suchergebnisse darstellt. Das Recallkriterium wird durch die tatsächlichen Klicks der Anwender im Suchergebnis ermittelt. Je höher der Recall, desto besser die Qualität der Suchmaschine. Ein optimales Suchergebnis sollte möglichst alle relevanten und möglichst keine irrelevanten Dokumente enthalten. Da jedoch beide Größen voneinander abhängen, enthalten Suchergebnisse immer auch eine Menge an irrelevanten Einträgen.

Zugriffe: 2
Recency Bonus

Als Recency Bonus, auch Fresh Bonus oder Neuigkeitenbonus, wird die Tatsache bezeichnet, dass neue Websites zunächst ein sehr gutes Ranking von Google erhalten, das im Laufe der Zeit aber wieder schlechter wird. Das liegt wohl daran, dass die Suchmaschinenbetreiber daran interessiert sind, ihren Nutzern möglichst aktuelle Ergebnisse auf deren Anfragen zu präsentieren. Eine weitere Ausprägung des Recency Bonus ist der häufigere Besuch von ständig aktualisierten Websites durch die Suchmaschinenspider. Auch hier ist es für Google & Co essenziell, immer die neuesten Inhalte präsentieren zu können. Häufig erscheint bei den Suchergebnissen der Fresh-Tag. Dieser gibt an, wann dieser Eintrag aktualisiert wurde.

Zugriffe: 3
Reconsideration Request

Der Reconsideration Request ist eine Möglichkeit, Websites wieder in den Suchindex von Suchmaschinen aufnehmen zu lassen. Diese Möglichkeit wird genutzt, wenn seitens der Suchmaschinenbetreiber eine Abstrafung erfolgt ist. Der primäre Grund für eine Abstrafung sind Spammaßnahmen oder andere Optimierungsversuche aus dem Black-Hat-Bereich. Eine Wiederaufnahme der betroffenen Site über einen Reconsideration Request ist möglich, wenn vorher alle markanten Punkte, die zur Abstrafung geführt haben, beseitigt wurden. Wenn die Site bereit ist, wieder in den Index aufgenommen zu werden, schickt der Betreiber eine E-Mail mit dem Betreff „Reconsideration Request“ an folgende E-Mail-Adresse: „Webmaster [at] google.de“. Es empfiehlt sich, die Adressaten darauf hinzuweisen, dass alle bemängelten Positionen beseitigt wurden und die Site erneut aufgenommen werden soll. Ein freundlicher, sachlicher Umgangston kann sehr hilfreich sein. Als SEO muss man im Hinterkopf behalten, dass kein Rechtsanspruch auf die Wiederaufnahme der Site(s) in den Suchmaschinenindex besteht, weshalb ein freundliches Auftreten sicherlich vorteilhaft ist.

Zugriffe: 3
Redirect

Das englische Wort “Redirect” bedeutet übersetzt “Umleitung” und steht für den Vorgang, einen Website-Besucher über eine Umleitung zu einer bestimmten Website zu führen, ohne dass dieser das bewusst wahrnimmt. Dies geschieht entweder direkt beim Aufruf der Site oder nach einer vordefinierten Verzögerung. Es gibt unterschiedliche Wege, diesen Effekt umzusetzen – und nicht all diese Wege sind bei Suchmaschinen gerne gesehen. Wenn aber konforme technische Optionen genutzt werden (bspw. via .htaccess), um eine permanente Weiterleitung zu nutzen (ohne www / mit www), ist das aus Optimierungssicht immer sehr zu begrüßen und stellt keine Gefahr dar.

Zugriffe: 3
Redundanz

Unter Redundanz versteht man das mehrfache Vorkommen von Informationen, Systemen oder technischen Geräten. Im technischen Sinne ist Redundanz häufig als Sicherheit gegen Ausfall bei kritischen Systemen (zum Beispiel Stromversorgung, Datenhaltung) gewollt. Bei Websites ist mit Redundanz mehrfach vorhandener Content gemeint und somit unerwünscht. Seiten wie Doorway Pages, die nur Duplicate Content enthalten, stufen Suchmaschinen als Spam ein, da sie keinerlei Informationswert haben. Bei einer Website sind Redundanzen innerhalb der Site auf jeden Fall zu vermeiden, wenn es sich um Inhalte handelt. Handelt es sich dagegen um redundante Informationen bezüglich der Navigation auf Unterseiten, kann das sogar hilfreich für die Suchmaschinenoptimierung sein.

Zugriffe: 3
Referral Marketing

Referral Marketing kann Bestandteil des Online-Marketings eines Unternehmens sein. Beim Referral Marketing handelt es sich um echtes Empfehlungsmarketing, das dem Begriff Mundpropaganda sehr nahe kommt. Referral Marketing dient dem Zweck, die Konversionsrate zu erhöhen und gleichzeitig mehr Kunden für eigene Projekte und Dienstleistungen zu begeistern. Dadurch steigt auch die Verkaufsrate. Vor allem geht es jedoch ums Branding, denn durch Referral Marketing wird eine Marke vor allem gestärkt, da positive Aspekte erzeugt werden. Gerade für Startups ist Referral Marketing zu empfehlen, da sich der Kundenstamm hierdurch innerhalb kürzester Zeit stark vergrößern kann.

Zugriffe: 2
Referrer

Der Referrer (engl., „verweisen“) ist die Internetseite, von der aus der Benutzer durch einen Link zur aktuellen Site gekommen ist. Dieses Datenfeld ist ein optionaler Teil einer HTTP-Anfrage an einen Webserver. Bei allen gängigen Browsern ist die Übermittlung des Referrers voreingestellt. Da der angefragte Webserver jede Anfrage protokolliert, kann ausgewertet werden, von welcher Website ein Besucher auf die eigene Site gekommen ist. Das Feld Referrer kann unter Umständen sowohl für Spam (Referrer-Spam) als auch für Täuschungsversuche (Referrer-Spoofing) verwendet werden. Problematisch ist die Übermittlung des Referrers insbesondere beim Aufruf einer fremden Site aus einer sicheren HTTP-Sitzung: Dabei können personenbezogene Daten aus nicht-öffentlichen Systemen in andere Systeme gelangen.

Zugriffe: 3
Relativer Link

Ein Link kann grundsätzlich mit einer relativen oder einer absoluten Zieladresse angegeben werden. Der relative Link enthält nur den Teil der Pfadangabe zur Zieldatei, der sich vom aktuellen Pfad unterscheidet. Wird in einem Dokument auf ein anderes Dokument im gleichen Ordner verlinkt, ist für den relativen Link nur der Dateiname erforderlich. Bei einem absoluten Link wird immer der komplette Pfad zur Datei mit angegeben. Der Vorteil relative Links liegt in erster Linie in der kürzeren Schreibweise. Werden ganze Ordner mit untereinander verlinkten Dateien verschoben oder kopiert, müssen die Links nicht geändert werden. Relative Links sind nur innerhalb einer Domain bzw. innerhalb eines Dateisystems möglich. Bei einem Link auf eine andere Website ist immer ein absoluter Link anzugeben.

Zugriffe: 2
Relevanz

Relevanz (lat.,„Bedeutung" oder „Wichtigkeit") bezieht sich in der Regel auf die Einschätzung einer Sache in einem definierten Kontext (z. B. Fachgebiet). Im Zusammenhang mit der Suchmaschinenoptimierung gibt die Relevanz an, wie wichtig ein Dokument im Kontext der Suchanfrage ist, und dementsprechend, wie es in den Ergebnissen der Anfrage positioniert wird. Google definiert die Relevanz einer Onlineanzeige in AdWords damit, wie gut die Elemente der Kampagne dazu passen, was ein Anwender wahrscheinlich sucht. Dazu müssen Keywords zum Beispiel möglichst gut zu den Inhalten der beworbenen Website passen. Die Relevanz ist ein Teil des Qualitätsfaktors, den Google errechnet, um den Mehrwert einer Anzeige für potenzielle Kunden zu ermitteln.

Zugriffe: 5
Reziproke Verlinkung

Der Begriff "Reziproke Links“ beschreibt die gegenseitige Verlinkung zwischen zwei Websites. Damit ist in der Regel folgende Verlinkungsart gemeint:

  • Website A verlinkt zu Site B
  • Website B verlinkt zu Site A

Diese Vorgehensweise wird häufig als negativ betrachtet, weil bei dieser Art der Verlinkung häufig ein unnatürlicher Linkaufbau unterstellt wird. Obwohl das natürlich nicht gänzlich von der Hand zu weisen ist, sollten reziproke Links nicht grundsätzlich schlechtgeredet werden. In bestimmten Bereichen ist die reziproke Verlinkung sogar äußerst sinnvoll und kann das Linkprofil deutlich aufwerten. Das gilt in erster Linie, wenn beide Sites zwar das gleiche Grundthema bearbeiten, aber verschiedene Aspekte beschreiben. So kann Site A eine hervorragende inhaltliche Ergänzung für Website B darstellen, während Site B eine sehr gute inhaltliche Ergänzung zu Site A ist.

Zugriffe: 2
Richtlinien

Ganz allgemein werden als Richtlinien Handlungs- oder Ausführungsvorschriften bezeichnet, die von einer Institution herausgegeben werden. Eine Richtlinie hat nicht die gleiche Verbindlichkeit wie ein Gesetz, ihre Regelungswirkung kann jeweils nur im Einzelfall beurteilt werden. Die wesentlichen Richtlinien bezüglich der kommerziellen Nutzung des World Wide Web gibt der Suchmaschinenbetreiber Google heraus. Daran muss sich niemand halten, doch wer wirtschaftliche Interessen verfolgt, sollte die Einhaltung dieser Richtlinien gewährleisten. Die wichtigsten Grundregeln für die formale und technische Gestaltung von Websites hat Google in den Richtlinien für Webmaster zusammengefasst. Hier gibt es neben Hinweisen für gutes Design und Inhalte auch genaue Anweisungen für die technische Ausführung und nicht zuletzt Vorschriften, die Missbrauch und Täuschung verhindern sollen.

Zugriffe: 9
Robots Tester

Beim Robots Tester handelt es sich um einen Begriff, der auf die Möglichkeit hinweist, die wichtige Webserverdatei „Robots.txt“ auf seine korrekte Funktion zu prüfen. Robots Tester werden von verschiedenen SEO-Tool-Anbietern offeriert und sind nützliche Helfer, um bei einer Website-Analyse Probleme mit dieser Datei direkt ausschließen zu können. In der Regel zeigen diese Tools an, ob die Suchmaschinen mit ihren Crawlern auf die Inhalte der Website zugreifen können oder nicht.

Zugriffe: 4
Robots.txt

Die Datei Robots.txt kann der Website-Betreiber nutzen, um zu beeinflussen, welches Verhalten die Roboter der Suchmaschinen beim Scannen seiner Site an den Tag legen sollen. Es gibt keine Festlegung eines Gremiums, mit der Name, Ort oder Inhalt der Robots.txt definiert werden, das hat sich als Standard historisch entwickelt. Das Verhalten der Suchmaschinencrawler kann auch durch Metatags in HTML-Dateien beeinflusst werden. Das gilt dann aber jeweils nur für diese Datei oder durch Verweise erreichbare Sites. Durch die Nutzung einer zentralen Robots.txt können ganze Verzeichnisstrukturen festgelegt werden. Browser werten die Robots.txt nicht aus. Die Suchmaschinencrawler halten sich in der Regel an die Vorgaben aus der Robots.txt. Nur Robots, die in böser Absicht unterwegs sind, halten diese nicht ein.

Zugriffe: 3
Root Directory

Das Root Directory oder Stammverzeichnis ist das höchste Verzeichnis einer Struktur. Es ist das einzige Verzeichnis, das in keinem anderen vorhanden ist. Der Begriff Root stammt aus dem Englischen und bedeutet Wurzel; das Root-Directory ist die Wurzel einer Baumstruktur aus Verzeichnissen.

Im Root Directory einer Website liegt die Datei, die beim Aufruf der URL im Browser angezeigt wird, in der Regel index.html. Besteht die Website aus vielen Unterseiten, werden diese meist in einer Struktur von Unterverzeichnissen abgelegt. Auch Bild- oder Videodateien werden häufig in einem Unterverzeichnis gespeichert. Die Struktur der Verzeichnisse wird durch die internen Links der Website abgebildet. Wichtige Dateien wie robots.txt mit Angaben für Suchmaschinencrawler müssen im Root Directory liegen.

Zugriffe: 2
Root URL

Die Root URL ist die grundlegende URL einer Website, auf die weitergeleitet wird, wenn eine Site ohne spezifische Angaben aufgerufen wird. Die Root URL greift auf das oberste Verzeichnis (Root-Directory) der Ordnerstruktur des Webservers zu. Ein Schrägstrich am Ende gehört prinzipiell zur Root URL dazu, ist aber nicht zwingend notwendig. Ohne den Schrägstrich erfolgt automatisch ein Redirect (Weiterleitung), was für den Server allerdings einen Zusatzaufwand bedeutet. Wichtig zu wissen ist, dass beispiel.de und www.beispiel.de zwei unterschiedliche URLs sind und potenziell verschiedene Inhalte haben können, da www tatsächlich nur eine Subdomain ist – allerdings die mit Abstand am häufigsten benutzte. Welche davon als Root URL festgelegt wird, kann relevant für die Suchmaschinenoptimierung sein.

Zugriffe: 2
Search Engine

Eine Search Engine (engl., „Suchmaschine“) ist ein System von Computerprogrammen, das dazu dient, das World Wide Web nach Informationen zu durchsuchen. Die gefundenen Ergebnisse werden in der Regel in sogenannten Search Engine Result Pages (SERP) dargestellt. Im Unterschied zu Web Directories, die von Menschen gepflegt werden, funktionieren Search Engines vollautomatisch.
In den Anfangszeiten des World Wide Web gab es lediglich ein einziges Verzeichnis von Webservern, die auf dem Webserver des CERN (europäisches Kernforschungszentrum) gehostet wurde. Von hier aus konnte man zur gesamten Information im Netz gelangen. Anfang der 90er Jahre entstanden die ersten Programme zur Suche im Web. Etwa um das Jahr 2000 herum wurde die Search Engine von Google populär, insbesondere durch die Erfindung des Pagerank-Algorithmus.

Zugriffe: 4
SEM

Suchmaschinenmarketing (Search Engine Marketing, SEM) umfasst als Teilgebiet des Onlinemarketings alle Aktivitäten zur Erhöhung der Besucherzahlen auf Websites über Suchmaschinen. Das ist zum einen das SEA (Search Engine Advertising), also die Werbung auf Suchmaschinenseiten, und zum anderen die SEO (Search Engine Optimization), also die Suchmaschinenoptimierung von Websites.
Ziel des Suchmaschinenmarketings ist eine prominente Platzierung eines Artikels, einer Marke oder einer Site auf Ergebnisseiten für Suchanfragen, die bestimmte Keywords enthalten. Ob diese Platzierung im organischen Teil des Suchergebnisses oder in einem Werbeblock ist, entscheiden die angewendeten Methoden des SEM. Die Werbeeinblendungen sind dabei keine Konkurrenz zu den organischen Ergebnissen, wenn – wie bei den großen Suchmaschinen üblich – beide Teile in der Darstellung getrennt werden.

Zugriffe: 4
Semantik

In der Sprachwissenschaft ist Semantik ein zentrales Element. Dieser Begriff umschreibt den Umstand, dass es zu jedem Wort einen Sinn geben muss. Dieser Sinn lässt sich meist auch mit alternativen Worten und Aussagen treffen. An diesem Punkt wird der Bezug zur Suchmaschinenoptimierung hergestellt: Bei Inhalten sollte der Sinn herausgearbeitet und leicht verständlich präsentiert werden. Der Aspekt der Semantik verlangt dabei, dass nicht nur eine, sondern möglichst verschiedene Ansichten zur gleichen Sache ausgearbeitet werden.
Vereinfacht ausgedrückt bedeutet dies, dass ein Thema von möglichst vielen verschiedenen Seiten beleuchtet werden muss, um es umfassend darzustellen. Je detaillierter man bei der Ausarbeitung vorgeht, desto spezifischer wird der Inhalt – dadurch erhalten die so erstellten Inhalte einen deutlich erkennbaren Mehrwert für die Website-Besucher, was sich positiv in den SERPs niederschlägt.

Zugriffe: 5
Semantische Analyse

Die Semantik ist die Lehre von der Bedeutung von Worten und Zeichen. Eine semantische Analyse im Sinne von Suchmaschinenoptimierung ist die Untersuchung des Inhaltes einer Website und seiner Bedeutung. Die Bedeutung der semantischen Analyse nimmt im World Wide Web stetig zu. Der Inhalt einer Website wird von Suchmaschinen semantisch analysiert, um seine Bedeutung möglichst genau erfassen und einordnen zu können. Damit kann anschließend auch zum Thema passende Werbung eingeblendet werden. Für die SEO ist es wichtig, den semantischen Kontext des Inhaltes der Site möglichst gut zu kennen und möglichst viele dafür relevante Begriffe einzubauen. Auch das Linkbuilding zu Sites mit hoher Relevanz im gleichen Themengebiet kann damit unterstützt werden.

Zugriffe: 2
SEO

Search Engine Optimization (SEO) umfasst zahlreiche Maßnahmen, um eine Website so zu gestalten, dass sie bei gegebenen Suchbegriffen möglichst weit oben in den Suchergebnissen angezeigt wird. SEO gehört zum Suchmaschinenmarketing (SEM). Man unterscheidet zwischen der OnPage-Optimierung und der OffPage-Optimierung. Auch die Einbindung sozialer Medien gehört mittlerweile zur Suchmaschinenoptimierung. Ganz allgemein geht es bei SEO heute vor allem um die Sichtbarkeit auf allen Kanälen.

Zugriffe: 10
SERP

SERP ist die gängige Abkürzung für “Search Engine Ranking Position” und steht für die Platzierung des gewünschten Webprojekts in Bezug auf das gesuchte Keyword bzw. die gesuchte Keywordphrase (vgl. Longtail Keyword). Ziel der Suchmaschinenoptimierung ist es, die betreuten Webinhalte durch verschiedenste Maßnahmen in diesen Suchergebnislisten in der Platzierung nach vorne zu bringen, damit Suchmaschinennutzer sie besser wahrnehmen können. Je nach Keyword und Thematik kann es enorm aufwendig sein, auf der ersten Seite der SERPs zu erscheinen. Diverse Fallstudien haben aber gezeigt, dass es sich lohnt, auf den ersten fünf Plätzen der Suchergebnisliste zu stehen. Die Klickzahl erhöht sich deutlich mit jedem Platz, den man in der Liste steigt (ausgehend von Platz 10-1 in der Ergebnisliste).

Zugriffe: 5
SERPS Pollution

Search Engine Results Pages Pollution (engl., „Verschmutzung der Ergebnisseiten einer Suchanfrage“) bezeichnet die Tatsache, dass Ergebnisseiten häufig auch vollkommen nutzlose Sites enthalten, die bestenfalls entfernt mit der eingegebenen Suchanfrage zu tun haben und dementsprechend irrelevant sind. Diese Ergebnisse enthalten keinen relevanten Inhalt, etwa wie Doorway Pages, Linklisten oder Affiliate-Seiten. Für den Anwender sind sie also eine Verschmutzung des erwarteten Ergebnisses. Die Betreiber von Suchmaschinen treiben einen sehr hohen Aufwand, um solche Ergebnisse zu vermeiden, doch die Anbieter finden immer wieder neue Möglichkeiten, die Algorithmen der Suchmaschinen auszutricksen. Werden solche Offerten erkannt und gemeldet, entfernen die Suchmaschinenbetreiber sie in der Regel aus dem Index.

Zugriffe: 2
Server

Der Begriff Server wird sowohl im Zusammenhang mit Hardware als auch mit Software benutzt. Ein Server ist ein Dienstleister oder Dienstanbieter, und in den meisten Fällen ist das heute eine Kombination von Hard- und Software. Ein Server im Sinne von Webserver ist ein leistungsfähiger Computer oder ein Verbund von mehreren Computern mit spezieller Software.Über eine Schnittstelle (Port) kann ein beliebiger Client, in der Regel ein Browser, mit dem Server Kontakt aufnehmen und seine Dienste in Anspruch nehmen. Diese Dienste bestehen dann meistens aus dem Bereitstellen von Internetseiten, die vom Client angezeigt werden. Der Server kann im Verlauf einer Session, zum Beispiel eines Einkaufsvorganges, auch die Dienste von weiteren Servern (zum Beispiel Datenbankserver) in Anspruch nehmen.

Zugriffe: 3
Session ID

Eine Session ID (Session Identifier oder Sitzungsbezeichner), dient dazu, bei Clientanfragen an einen Webserver zusammengehörende Anfragen eines Benutzers zu erkennen und zuzuordnen. Das im World Wide Web benutzte Übertragungsprotokoll http ist zustandslos, was bedeutet, dass jede Anfrage an den Server behandelt wird, als sei sie die erste. Um Dienste anbieten zu können, die komplexere Transaktionen mit einer Vielzahl von Anfragen an den Server beinhalten (zum Beispiel Onlineshops), wird bei der ersten Anfrage eines Clients eine eindeutige Session ID vom Server erzeugt und an den Client zurückgesendet. Diese Session ID sendet der Client nun mit jeder weiteren Anfrage an den Server mit, sodass der Zustand der Sitzung mitgeführt werden kann.

Zugriffe: 2
Session Length

Als Session Length wird die Dauer eines Besuches einer Website bezeichnet. Sie kann als Erfolgskontrolle für Werbung benutzt werden. So werden Besuche einer Website nach einer Bewertungsmethode erst dann gezählt, wenn der Besuch mindestens eine Minute gedauert hat. Eine Session oder Sitzung kann man als Container für alle Aktionen eines Benutzers auf der Website ansehen. Die Session Length wird in der Regel so begrenzt, dass eine Session vom Server aus beendet wird, wenn der Nutzer eine definierte Zeit lang (zum Beispiel 30 Minuten) keine Aktion mehr durchgeführt hat. Nach jeder Benutzeraktion wird der Timer neu gestartet. Um die Session Length messen zu können, ist eine Session ID erforderlich.

Zugriffe: 3
Sitelinks

Sitelinks sind zusätzliche Links in einem Suchergebnis. Es handelt sich dabei um Links zu Unterseiten der gefundenen Website, die ein Algorithmus als hilfreich für die Navigation innerhalb der gefundenen Site ermittelt hat. Zurzeit nutzt nur Google einen solchen Algorithmus. Die zusätzlichen Links innerhalb des Suchergebnisses werden direkt unter der gefundenen Hauptseite angezeigt. Damit soll dem Benutzer die Navigation auf der Site erleichtert werden. Sitelinks werden automatisch ermittelt, falls der Algorithmus sinnvolle Links findet. Später soll möglicherweise auch Input der Webmaster berücksichtigt werden. Laut Expertenmeinung geben Sitelinks den Suchergebnissen mehr Gewicht; zumindest haben sie den Effekt, darunterliegende Suchergebnisse weiter nach unten zu verschieben.

Zugriffe: 4
Sitemap

Eine Sitemap ist sozusagen die Landkarte einer Website. Sie zeigt im Idealfall die Verlinkungsstruktur aller Dokumente der Website an, ist aber weder Inhaltsverzeichnis noch Index, sondern nur eine Übersicht. Für die Benutzerfreundlichkeit einer Website spielt die Sitemap eher eine untergeordnete Rolle, da bereits eine sinnvolle Navigation und eine Suchfunktion den Anwender dahin bringen, wo er hin will. Für die Suchmaschinenoptimierung hingegen spielen Sitemaps eine wichtige Rolle, da sie sicherstellen, dass alle Unterseiten tatsächlich erreichbar sind. Außerdem benutzen die Suchmaschinencrawler vorhandene Sitemaps, um alle Seiten einer Webpräsenz zu erfassen. Die Sitemap selbst ist ein Dokument wie jede andere Unterseite auch. Handelt es sich um eine standardisierte Sitemap auf Basis von XML, wird dadurch die Durchsuchbarkeit der Website für Suchmaschinen verbessert.

Zugriffe: 7
Slow Death

Mit diesem englischen Begriff wird der langsame Tod einer Website beschrieben. Im Grunde bedeutet es, dass eine bestimmte Website langsam, aber sicher aus den Ergebnislisten großer Suchmaschinen wie Google verschwindet, bis sie schließlich gar nicht mehr im Index vorhanden ist. Bei Google beginnt dieses Phänomen beispielsweise damit, dass die einzelnen Seiten der Website in den Ergebnislisten nicht mehr mit Beschreibung angezeigt werden, sondern als nackte URL. Die Ursachen dafür sind nicht genau geklärt, aber eine der häufigsten Gründe ist anscheinend das Vorhandensein von Duplicate Content auf der Website. Eine weitere Möglichkeit ist, dass die Site mittels Hijacking gekapert wurde und potenzielle Website-Besucher umgeleitet werden.

Zugriffe: 2
Social Marketing

Social Marketing unterscheidet sich stark vom normalen Marketing. Hierbei geht es nicht darum, Produkte und Dienstleistungen mit Gewinnabsicht bekannt zu machen, sondern darum, soziale Kompetenz aufzubauen. Social Marketing wird daher in der Regel von nicht-gewinnorientierten Einrichtungen, staatlichen und gemeinnützigen Organisationen genutzt.

Zugriffe: 2
Social Tagging

Social Tagging heißt, frei übersetzt, soziale Verschlagwortung. Hierbei werden in bestimmten Portalen Schlagwörter als Lesezeichen genutzt, um so bestimmte Sites schnell wiederfinden zu können. Social Tagging ist heute kaum noch verbreitet, da es von vielen Suchmaschinenoptimierern zum Linkaufbau genutzt wurde. Heute finden wir Social Tagging vor allem noch in Weblogs in Form von sogenannten Tagwolken. Dabei werden häufig verwendete Keywords in einer Wolke aufgelistet. Die am häufigsten genutzten Keywords werden dabei größer dargestellt. So wird gleichzeitig eine Relevanz suggeriert.

Zugriffe: 3
Spam

Mit dem Begriff Spam werden in der Regel unerwünschte, meist elektronisch übertragene Werbebotschaften bezeichnet. Im Zusammenhang mit Suchmaschinenoptimierung spricht man von Spam oder Spamdexing, wenn versucht wird, die Algorithmen der Suchmaschinenbetreiber auszutricksen, um ein höheres Ranking in den Suchergebnissen zu erhalten. Es gibt unzählige Versuche und immer wieder neue Möglichkeiten, die Vorschriften von Suchmaschinenbetreibern wie Google zu umgehen, um bei Websites eine möglichst hohe Rankingposition zu erzielen. Ebenso optimieren die Suchmaschinen ihre Algorithmen permanent, um solche Täuschungsversuche besser zu erkennen. Websites, bei denen Spamdexing erkannt wurde, können zeitweise oder dauerhaft abgewertet oder komplett ausgelistet werden.

Zugriffe: 6
Spam-Report

Google und andere Suchmaschinenbetreiber versuchen mit hohem Aufwand, Spamdexing, also Verstöße gegen die eigenen Richtlinien durch Website-Betreiber, technisch zu verhindern. Das gelingt natürlich nicht in jedem Einzelfall. Daher bietet Google seinen Nutzern eine Möglichkeit, Sites zu melden, die ihrer Meinung nach Spamming betreiben. Hierfür gibt es den sogenannten Spam-Report. Mittels dieser Funktion kann jeder angemeldete Googlenutzer die entsprechenden Daten eingeben. Laut Google wird der Report direkt an die Techniker weitergeleitet, die entsprechende Gegenmaßnahmen definieren und einleiten können. Offenbar sucht Google in nahezu allen Fällen eine technische Lösung. In besonders schweren Fällen könnte aber auch eine organisatorische Lösung (Delisting der betreffenden Site) sinnvoll sein.

Zugriffe: 2
Spambot

Ein Spambot ist ein autonom agierendes Programm, das im World Wide Web entweder E-Mail-Adressen sammelt, damit diese für unerwünschte Werbebotschaften genutzt werden können, oder das selbst massenhaft Werbung verbreitet. Zum einen gibt es die sogenannten E-Mail-Harvester(engl., „Ernte“), die nach Internetadressen suchen, um später Spam an diese zu versenden. Daneben gibt es Programme, die unerwünschte Werbung (Spam) oder Links in Internetforen oder Gästebüchern hinterlassen. Auch das Hinterlassen von Werbung in den Logfiles von Webservern durch eine gefälschte Browserkennung wird durch solche Programme durchgeführt. Ziel ist entweder die Verbreitung von Werbung oder der massenhafte Aufbau von externen Links, um eine bestimmte Website im Suchmaschinenranking nach vorne zu bringen.

Zugriffe: 2
Spider

Spider oder Crawler sind automatisierte Programme, die im World Wide Web Sites durchsuchen, um sie zu analysieren und dem Index von Suchmaschinen zuzuführen. Spider sind Bots (Kurzform von Robots), da sie ihre Aufgaben unabhängig von jeder Benutzerinteraktion durchführen. Die Suchmaschinenbetreiber nutzen Spider für unterschiedliche Aufgaben. Da sie auf aktuellste Informationen aus dem World Wide Web angewiesen sind, müssen sie die Inhalte und Links im Web permanent scannen und in ihrem Index aktualisieren. Diese enorme Aufgabe erfordert naturgemäß einen Automatisierungsgrad von 100 Prozent, was die Spider gewährleistet. Spider werden aber zum Beispiel auch eingesetzt, um Adressen für das Versenden von Spam zu sammeln.

Zugriffe: 5
Splash Page

Häufig wird bei Websites als Einführungsseite nur eine Animation oder Grafik angezeigt. Hierbei handelt es sich um eine Splash Page. Ursprünglich wurden Splash Screens als Platzhalter während des Ladens eines Programmes eingesetzt, um dem Anwender sofort zu zeigen, dass etwas passiert. Die Meinungen über Splash Pages gehen weit auseinander. Viele Firmen benutzen sie als Möglichkeit der Präsentation. Ein Teil der Nutzer verlässt eine Website mit einer Splash Page aber umgehend wieder. Die Vorteile einer Splash Page sind das extrem schnelle Laden und die Möglichkeit, dem Benutzer eine Auswahl zu geben, wie er die Site sehen will (mit/ohne Flash etc.). Ein gravierender Nachteil sind allerdings Probleme mit Suchmaschinen, da Splash Pages keine relevanten Inhalte haben.

Zugriffe: 2
Sponsored Listing

Sponsored Listings sind bezahlte Einträge in den Ergebnisseiten von Suchmaschinen. Sie sind das Gegenstück zum Organic Listing, also den aufgrund des Seiteninhalts gefundenen Ergebnissen. Sponsored Listings oder Links werden anders dargestellt als die organischen Ergebnisse und sind so als Anzeigen erkennbar. Abgerechnet werden diese Anzeigen in der Regel durch das Pay-per-Click-Verfahren, bei dem nur die Besucher bezahlt werden, die tatsächlich durch einen Klick auf die Anzeige zur Website gelangt sind. Sponsored Listing gehört zu den wichtigsten Maßnahmen im Onlinemarketing. In der Regel wird die Suchmaschinenwerbung zusammen mit der Suchmaschinenoptimierung durchgeführt, um ein optimales Ergebnis für die gewünschten Keywords zu erhalten.

Zugriffe: 2
Spoofing

Unter Spoofing (engl., „Verschleierung, Vortäuschung“) versteht man die Verschleierung der eigenen Identität in einem Computernetzwerk. Spoofing wird im World Wide Web zum Beispiel benutzt, um Authentifizierungsverfahren zu unterlaufen. Auch Phishing, das "Abfischen" von Passworten, wird im Zusammenhang mit der Verschleierung der Adresse (in diesem Fall meist einer E-Mail-Adresse) betrieben. Spoofing kann allerdings auch für legale Zwecke eingesetzt werden. So decken Suchmaschinenbetreiber mittels Spoofing das verbotene Cloaking auf. Daneben kommt Spoofing auch bei Lasttests zum Einsatz, wenn damit eine nicht vorhandene Anzahl von Computern simuliert wird.

Zugriffe: 4
SSI

SSI steht für Server Side Includes (engl., „serverseitige Einbindungen“) sind in HTML-Dokumenten eingebundene Befehle, die auf dem Webserver ausgeführt werden, bevor die Site an den Client gesendet wird. Damit ist es auf relativ einfache Weise möglich, dynamische Seiteninhalte zu erzeugen, ohne Programmiersprachen zu verwenden, die ganze Dokumente dynamisch erzeugen, wie zum Beispiel PHP oder Perl. Eingeführt wurde SSI als Erweiterung für den Apache-Webserver. Mittlerweile wird SSI aber auch von anderen Webservern unterstützt. Der Umfang der Befehle wurde bewusst sehr klein gehalten. Mit SSI lässt sich eine statische Datei oder die Ausgabe eines Programms in ein Dokument einfügen. So ist es zum Beispiel auf einfache Weise möglich, eine Website zu internationalisieren.

Zugriffe: 2
SSL

SSL steht für Secure Sockets Layer und ist ein Verschlüsselungsprotokoll für die Datenübertragung im Internet. Die Abkürzung ist weithin bekannt und wird auch heute noch benutzt, obwohl SSL seit geraumer Zeit unter dem neuen Namen TLS (Transport Layer Security) weiterentwickelt wird. Die SSL- bzw. TLS-Verschlüsselung wird insbesondere im HTTPS (HTTP Secure) Protokoll verwendet. Nachdem der Client (Browser) die Verbindung zu einem Server aufgenommen hat, identifiziert dieser sich gegenüber dem Client mit einem Zertifikat. Der Client überprüft, ob das Zertifikat vertrauenswürdig ist und ob der Servername mit dem Zertifikat übereinstimmt. Ist das der Fall, wird auf Basis eines Schlüsselaustausches eine symmetrische Verschlüsselung für die auszutauschenden Nachrichten ermittelt. Ein gültiges Zertifikat wird im Browser in der Regel durch ein Symbol in der Adresszeile angezeigt.

Zugriffe: 3
Stemming

Stemming – im Bereich der Suchmaschinenoptimierung meist „Keyword Stemming“ genannt – kommt aus der Sprachwissenschaft. Der Begriff beschreibt, wie die jeweiligen Wortstämme aus Worten herausgebildet werden können. Im Ergebnis soll das Stemming die Suchergebnisse der Suchmaschinen verbessern. Obwohl dieses „Verfahren“ primär für Suchmaschinen interessant ist, kann auch ein Suchmaschinenoptimierer von dieser Vorgehensweise profitieren. So erreichen beispielsweise Themenwebsites, die nicht nur das spezifische Keyword, sondern gleich den ganzen dazugehörigen Wortstamm bearbeiten, in der Regel eine bessere Platzierung als Sites, die nur das Keyword nutzen. Das Kernthema dabei ist die thematische Abdeckung in der gesamten Keywordbreite.

Zugriffe: 3
Stop Word

Als Stop Word (engl., „Stoppwort“) werden alle Worte bezeichnet, die in praktisch jedem Dokument sehr häufig vorkommen und keine relevanten Informationen liefern. Zu den Stop Words gehören neben bestimmten und unbestimmten Artikeln, Konjunktionen und Präpositionen auch Satzzeichen wie Punkt, Komma oder Strichpunkt. Stop Words haben in erster Linie grammatikalische oder Syntaxfunktionen und sind daher irrelevant für den Informationsgehalt eines Dokuments. Durch Listen mit Stop Words können Suchmaschinen ihre Arbeit effizienter durchführen. Würden alle oben genannten Worte bei der Ermittlung von Suchergebnissen berücksichtigt, könnte fast jedes Dokument als Treffer für eine entsprechende Suchanfrage gelten, was für den Anwender nutzlos wäre.

Zugriffe: 2
Subdomain

Eine Domain ist ein Namensraum im Internet. Das System der Domains ist hierarchisch aufgebaut. In der ersten Ebene unterhalb der sogenannten Root-Domain werden die Top-Level-Domains wie .com, .de oder .org geführt. Die zweite Ebene besteht aus den Second-Level-Domains wie zum Beispiel www.beispiel.org. Diese werden im allgemeinen Sprachgebrauch als Domains bezeichnet. Per Definition sind aber auch sie Subdomains: im vorliegenden Fall Subdomain der Top-Level-Domain .org. Erst die nächste Ebene, die Third-Level-Domain, und alle darunterliegenden Hierarchiestufen werden allgemein als Subdomains bezeichnet. Damit werden zum Beispiel verschiedene Dienste wie Webserver (www.), Mailserver (mail., smtp., ...) und andere logisch und/oder physisch getrennt. Aber auch eine Aufteilung auf Standorte einer Firma oder Behörde kann mit Subdomains abgebildet werden, wenn es sinnvoll ist.

Zugriffe: 3
Suchmaschine

Eine Suchmaschine ist ein komplexes System zur Unterstützung der Informationsgewinnung in einem Netzwerk. Suchmaschinen im World Wide Web speichern gefundene Dokumente in eigenen Datenbanken, indizieren und sortieren sie für entsprechende Nutzeranfragen. Die Beschaffung der Daten, ihre Speicherung und Indizierung geschieht vollkommen automatisch. Für Indizierung und Sortierung (Ranking) in Bezug auf Suchbegriffe verwenden die Betreiber jeweils eigene, permanent verbesserte Algorithmen mit einer großen Anzahl von Parametern. Die Suchmaschinenoptimierung (SEO) beschäftigt sich damit, sich diesen – nicht öffentlich zugänglichen – Algorithmen möglichst gut anzupassen, um im Ranking weit oben platziert zu werden. Für Betreiber kommerzieller Websites ist es heute lebenswichtig, gut bei den Suchmaschinen, insbesondere natürlich Google, zu ranken.

Zugriffe: 8
Syntax

Die Syntax ist ein Teilgebiet der Grammatik von natürlichen Sprachen, das sich mit der Zusammenfügung (der Begriff stammt aus dem Griechischen und ist zusammengesetzt aus "zusammen" und "Ordnung") von Worten zu größeren Einheiten wie Sätzen beschäftigt. Bei einer Anfrage an eine Suchmaschine spielt ihr Zusammenhang neben den einzelnen Begriffen eine wesentliche Rolle. Auf welche Weise Worte und Wortgruppen miteinander zu verknüpfen sind, hat einen großen Einfluss auf das Suchergebnis, auch wenn die einzelnen Worte die gleichen sind. Die meisten Suchmaschinen bieten neben der einfachen auch eine erweiterte Suchfunktion an, mit der sich eine Kombination von gesuchten Begriffen oder Phrasen sehr genau eingrenzen lässt.

Zugriffe: 2
Tag

Ein Tag ist übersetzt so etwas wie ein Etikett, ein Anhänger, Aufkleber oder Kennzeichen. Also etwas, das Auskunft über das Objekt gibt, zu dem es gehört. In Informationssystemen ist ein Tag ein Begriff oder Schlüsselwort zu einer Information wie etwa einem Bild, einem Text oder auch nur einem digitalen Lesezeichen, mit dem sich Informationen markieren, kurz beschreiben und eventuell gruppieren lassen.
Bekannt sind Tags vor allem als Elemente von Auszeichnungssprachen wie HTML oder XML. Hier werden sie in der Regel als Start- und End-Tags benutzt und zeichnen den dazwischenliegenden Text in bestimmter Weise aus. Beispielsweise kennzeichnet das Tagpaar <h1> ... </h1> den dazwischenliegenden Text als Überschrift der Ebene 1.

Zugriffe: 5
Theme Based Websites

Theme Based Websites oder themenbasierte Websites sind Sites, deren Inhalt einem bestimmten Thema zuzuordnen ist. Suchmaschinen bewerten die thematische Zuordnung einer Website und vor allem deren Inbound Links sehr hoch. Dabei prüfen sie nicht nur auf der Site platzierte Keywords, sondern auch die semantische Nähe des Inhalts. Bei Google AdWords wird diese Technik benutzt, um Anzeigen zu platzieren, die eine thematische Nähe zur Website haben. Eindeutig themenbasierte Websites sollen ein höheres Ranking erhalten als andere. Auch für die Verlinkung von Sites ist die Themenrelevanz von großer Bedeutung. Links von Seiten mit dem gleichen Thema werden höher bewertet als solche themenfremder Sites.

Zugriffe: 3
Themenrelevanz

Die Themenrelevanz ist ein sehr wichtiger Bestandteil jeglicher Suchmaschinenoptimierung. Dies gilt sowohl für OnPage- als auch für OffPage-Optimierungsmaßnahmen. Die Kunst, eine gut besuchte und damit florierende Website zu führen, basiert nicht zuletzt auf der Grundlage der thematischen Relevanz. Je eingehender sich eine Website mit einem speziellen Thema befasst, desto höher ist die Wahrscheinlichkeit, zu wichtigen und thematisch relevanten Suchbegriffen gefunden zu werden. Selbiges gilt auch für Verlinkungen, die man von außen erhält und für die der Webmaster selbst verantwortlich ist (bspw. Gastartikel etc.). Auch hier ist  auf die Themenrelevanz der linkgebenden Site zu achten. Internetseiten, die zu oberflächlich oder zu allgemein informieren, haben kaum eine Chance, in den vorderen Rängen der Suchmaschinenergebnisse mitzuwirken.

Zugriffe: 4
Tracking

Der Begriff Tracking stammt aus dem Englischen und bedeutet übersetzt “Spuren lesen”. Mittels Tracking werden die einzelnen Schritte von Website-Besuchern verfolgt, um potenzielle Schwachstellen des Internetauftritts herausfinden zu können. So lassen sich mithilfe diverser Trackingmethoden die verschiedensten Informationen über die Besucher herausfiltern, die Webmaster je nach gewünschtem Verwendungszweck auslegen und nutzen können. Eines der wohl bekanntesten Tracking-Tools ist Google Analytics.
Durch das Einbinden eines Tracking-Codes in die Webpräsenz lassen sich alle Schritte eines Website-Besuchers lückenlos nachvollziehen. Der Webmaster erfährt, auf welcher Landing Page der User angekommen ist, was er gesucht hat und über welchen Weg der Besucher die Site wieder verlassen hat. Diese und noch viele weitere Informationen sind sehr wichtige Grundfaktoren, um eine Site attraktiver für Besucher und damit auch wirtschaftlicher zu machen.

Zugriffe: 3
TrustRank

Mit dem TrustRank-Algorithmus lässt sich die Qualität von Websites bewerten. TrustRank basiert auf der Idee, dass von einer vertrauenswürdigen Site keine Links auf eine Spamwebsite gesetzt werden. Das bedeutet im Umkehrschluss, dass eine Website, die einen Inbound Link von einer vertrauenswürdigen Site hat, kein Spam ist und daher selbst vertrauenswürdig wird.
Als Grundlage des Verfahrens muss eine kleine Menge an Sites manuell als vertrauenswürdig eingestuft werden. Der weitere Ablauf erfolgt automatisch. Sites, die von mindestens einer der ursprünglichen Websites verlinkt werden, erben sozusagen die Bewertung der Site, die verlinkt. Je weiter die Site vom Pool der ursprünglichen Sites weg liegt, desto kleiner wird das vererbte Vertrauen. Der TrustRank wird am Ende aufgrund der Linkstruktur zu einer Site berechnet.

Zugriffe: 4
Unbubble

Ähnlich wie MetaGer in der Vergangenheit ist auch die SuchmaschineUnbubble“ eine sogenannte Metasuchmaschine. Der Unterschied zu gewöhnlichen Suchmaschinen wie Google, Alta Vista oder Yahoo ergibt sich aus dem einfachen Umstand, dass Metasuchmaschinen ihre Ergebnisse aus anderen Suchmaschinen erhalten und sie dann aufbereiten. Unbubble wirbt damit, besonders „neutrale“ Suchergebnisse zu präsentieren. Diese Neutralität soll über die internen Filtermechanismen erreicht werden, die das Themenumfeld der gesuchten Begriffe durchleuchten und die Neutralität der Quellen abgleichen.
User Generated Content (UGC)    User Generated Content (UGC) bedeutet nichts anderes, als dass Nutzer einer Website neben dem Ersteller und Inhaber als Publisher auftreten. Das ist nicht immer der Fall gewesen. In der Anfangszeit des Internets waren es noch die Eigentümer einer Website, die eigenständig für die Inhalte verantwortlich waren. Das war auch kaum anders möglich, da die Inhalte statisch bereitgestellt wurden.

Zugriffe: 3
Unique Visitor

Der Unique Visitor ist ein einzelner Besucher. Um die Zugriffshäufigkeit einer Website zu ermitteln, wird in der Regel der Unique Visit (einzelner Besuch) einer Webeite gezählt. Dazu wird jede IP-Adresse eines Besuchers in einem definierten Zeitraum nur einmal gezählt – im Gegensatz zu den Visits (Besuchen), bei denen jeder Aufruf einer Site mitgezählt wird. Zu beachten ist dabei der Zeitraum, in dem ein Besuch nur einmal gezählt wird. Dieser kann stark variieren. Außerdem muss eine IP-Adresse nicht unbedingt eine einzelne Person sein. Nutzer von Anonymisierungsdiensten wie etwa Tor können bei jedem Zugriff eine andere IP-Adresse haben, verschiedene Besucher aus dem gleichen lokalen Netzwerk weisen dagegen die gleiche IP-Adresse auf.

Zugriffe: 4
URL

Der Uniform Resource Locator (URL) ist eine Identifikation einer Ressource wie beispielsweise einer Website. Dazu gehört das benutzte Protokoll, zum Beispiel http oder ftp sowie der Ort der Ressource in einem Computernetzwerk, der eine IP-Adresse bzw. ein Name ist, der über den Domain-Name-Service in eine solche aufgelöst werden kann. Im deutschen Sprachgebrauch werden URLs auch als Webadresse oder Internetadresse bezeichnet.
Das vom normalen Browsernutzer in die Adresszeile eingegebene www.example.com ist für sich noch kein URL. Dazu wird es erst, weil automatisiert das Schema (die Zugriffsmethode oder das Protokoll) davor und ein Standardport für das jeweilige Protokoll dahinter gesetzt wird. Wurde keine Datei angegeben, entscheidet der Webserver, welche Datei an den Browser zurückgegeben wird.

Zugriffe: 5
URL-Hijacking

Beim URL-Hijacking wird eine Website sozusagen aus dem Index von Suchmaschinen entführt. Das Problem entsteht durch temporäre Weiterleitungen von einer Site auf eine andere. Leitet eine Site A temporär auf eine Website B weiter, gehen Suchmaschinen davon aus, dass der Inhalt von A momentan zwar unter B zu finden ist, später aber wieder bei A. Daher wird A in den Index der Suchmaschine aufgenommen, B aber nicht bzw. sogar daraus gelöscht. Je höher der Pagerank der weiterleitenden Site im Vergleich zur Zielsite ist, desto größer wird die Wahrscheinlichkeit des Hijackings, weil ein hoher Pagerank für Vertrauenswürdigkeit steht und damit für die Suchmaschine anzunehmen ist, dass es sich tatsächlich um eine vorübergehende Weiterleitung handelt.

Zugriffe: 4
User Agent

Als User Agent wird die Identifikation des Programms bezeichnet, das in einem Netzwerk Anfragen an einen Server richtet. Es gibt im World Wide Web drei Gruppen von Programmen, die solche Anfragen stellen: Webbrowser, Webapplikationen wie zum Beispiel Streaming- oder Videoclients oder Programme zur Contentpflege sowie Spider oder Crawler, die für die Suchmaschinen automatisiert das Web nach neuen und geänderten Dokumenten durchsuchen.
Der User Agent im Kopf der Anfrage besteht aus einer Zeichenkette mit verschiedenen Informationen, zum Beispiel Name und Version des Browsers plus Typ und Version des Betriebssystems, oder Adresse und Version des Robots bei einem Spider. Durch selektive Rückgabe von Informationen vom Server in Abhängigkeit vom User Agent wurde zeitweilig versucht, den Spidern andere Websiteinhalte auszuliefern als den Benutzern.

Zugriffe: 4
User Generated Content

User Generated Content bedeutet nichts anderes, als das Nutzer einer Website neben dem Ersteller und Inhaber als Publisher auftreten. Das ist noch nicht immer so der Fall gewesen. In der Anfangszeit des Internets waren es noch die Eigentümer einer Website, die für die Inhalte komplett verantwortlich waren. Das war auch kaum anders möglich, da die Inhalte statisch bereitgestellt wurden.

Zugriffe: 3
Validierung

Die Validierung ist in der Informatik ein Nachweis darüber, dass ein System praxistauglich ist, oder dass externe Daten den Anforderungen einer Verarbeitung genügen. Im Zusammenhang mit Websites bezieht sich diese Prüfung auf den Quellcode einer Site, also auf die Korrektheit der HTML-Syntax und ihrer Konformität mit den Anforderungen der W3C-Standards.Aus historischen Gründen sind die meisten Browser in der Lage, auch nicht zu Hundert Prozent korrekten HTML-Code irgendwie darzustellen. Im Zweifelsfall wird ein Teil, der nicht interpretiert werden kann, einfach weggelassen. Für einen Benutzer ist das manchmal unschön, aber akzeptabel. Für die Spider von Suchmaschinen verursacht falsches HTML allerdings Probleme, die zu ungewünschten Effekten im Ranking führen können. Eine Validierung sollte also unbedingt durchgeführt werden.

Zugriffe: 4
Verbrannte Domain

Eine verbrannte Domain bedeutet, dass die entsprechende Domain von Google aus dem Index verbannt wurde. In der Regel geschieht dies durch manuelle Strafmaßnahmen seitens der Google-Mitarbeiter. Ursachen für das Verbrennen einer Domain sind in der Regel SEO-Maßnahmen aus dem Black-Hat-Bereich (Spam, Keyword-Stuffing, offensichtlich gekaufte Links in großer Anzahl etc. und auch Kombinationen aus diesen Faktoren). Eine verbrannte Domain wieder in den Index zu bekommen, ist keinesfalls leicht und kann sogar dauerhaft scheitern – trotz aller Maßnahmen. Wenn die Ursachen für die Deindexierung gefunden und beseitigt sind, können Webmaster bei Google eine nochmalige Prüfung der Domain beantragen.

Zugriffe: 4
Visits

Visits sind Besuche einer Website. Dabei geht es nur um den tatsächlichen Aufruf der Site, d. h., es wird nicht unterschieden, ob jemand eine Site mehrere Male hintereinander aufruft oder wie lange sich ein Benutzer auf einer Website aufhält. Die Visits geben nur die Besucheranzahl einer Website an und nicht, wie viele Unterseiten der jeweilige Anwender aufgerufen hat. Diese Zahl nennt man Page Views oder Page Impressions. Weiterhin ist zwischen Visits und Unique Visitors zu unterscheiden. Bei den Unique Visitors wird nicht der Besuch, sondern der Besucher gezählt. Wenn jemand innerhalb eines definierten Zeitraumes eine Site mehrfach aufruft, wird er – im Gegensatz zu den Visits – nur einmal als einzigartiger Besucher gezählt.

Zugriffe: 4
W3C

W3C ist die Abkürzung für World Wide Web Consortium, eine Mitgliedsorganisation, die für die Standardisierung der im World Wide Web genutzten Technologien zuständig ist. Das W3C wurde 1994 am MIT in Cambridge, Massachusetts, gegründet und hat mehr als 400 Mitgliedsorganisationen, von Unternehmen über Regierungs- und Nicht-Regierungsorganisationen bis hin zu Forschungseinrichtungen. Das W3C ist keine zwischenstaatlich anerkannte Organisation und daher nicht berechtigt, Standards festzulegen. Daher werden W3C Recommendations (engl., „Empfehlungen“) herausgegeben, die aber häufig die Basis für Standards bilden. Das W3C verwendet ausschließlich Technologien, deren Nutzung frei von Patentgebühren ist. Bekannte W3C-Empfehlungen sind zum Beispiel HTML, XHTML, XML, SOAP oder das Document Object Model (DOM).

Zugriffe: 4
Webcrawler

Webcrawler sind von Suchmaschinen automatisiert und eigenständig arbeitende Roboterprogramme, die das Internet permanent nach neuen Inhalten durchsuchen, um diese in den bestehenden Suchmaschinenindex aufzunehmen. Zudem arbeiten Webcrawler bereits im Index befindliche Sites immer wieder neu ab, um veränderte Inhalte ebenfalls erfassen zu können. Webcrawler orientieren sich in der Regel an Links, denen sie folgen. Daher ist eine gute interne Verlinkung für eigene Websites sehr wichtig – Webcrawler müssen sämtliche Inhalte schnell finden können. Die Regel für eine webcrawler-freundliche interne Verlinkung sagt, dass die Verlinkung nicht über mehr als drei Ebenen erfolgen soll. Dies gilt allerdings nur für kleine bis mittlere Projekte – sehr große Portale können auch tiefere Ebenen anbieten, ohne Nachteile befürchten zu müssen.

Zugriffe: 4
WhoIs

Über den WhoIs-Dienst (engl., „Wer ist“) können Informationen zu Domains und IP-Adressen abgefragt werden. Damit lässt sich zum Beispiel prüfen, ob eine Domain vergeben oder noch frei ist. Welche Informationen in welcher Struktur von einem Anbieter eines Whols-Dienstes geliefert werden, ist nicht standardisiert. Die Lookups sind Sache der jeweils für die Top-Level-Domain zuständigen NIC.
Informationen über Eigentümer von .de-Domains können aus Datenschutzgründen nicht einfach über WhoIs abgefragt werden. Die Daten von .de-Domaininhabern kann man nur direkt über eine Seite der Denic erfragen. Dabei ist sichergestellt, dass keine automatisierten Abfragen möglich sind. Zurückgegeben werden Name und Adressdaten des Domaininhabers sowie von administrativen und technischen Ansprechpartnern.

Zugriffe: 4
XHTML

XHTML (Extensible HTML) ist eine textbasierte Auszeichnungssprache wie HTML. XHTML verwendet XML als Sprachgrundlage; das bedeutet, XHTML-Dokumente müssen den Syntaxregeln von XML genügen. Viele der im World Wide Web verbreiteten HTML-Dokumente sind nicht wirklich standardkonform. Die HTML-Parser der gängigen Browser sind daher sehr fehlertolerant, damit jedes Dokument irgendwie angezeigt werden kann. Für eine automatisierte Datenverarbeitung, Speicherung oder Datenaustausch ist die fehlende Standardkonformität aber sehr schlecht. Daher versuchte man, auf Basis von HTML 4.01 mit XHTML eine Neuformulierung der Sprache mit strengeren Syntaxregeln und einer klareren Struktur (Trennung von Inhalt und Layout) einzuführen. In der Zwischenzeit wurde HTML 5 eingeführt und die Entwicklung von XHTML eingestellt.

Zugriffe: 4
XML

XML steht für Extensible Markup Language (engl., „erweiterbare Auszeichnungssprache“). Mit XML werden Daten hierarchisch strukturiert und sind unabhängig von Technik, Plattform oder Implementierung zwischen Computersystemen austauschbar. Ein XML-Dokument besteht aus Text und enthält keine Binärdaten. Die Spezifikation der Sprache gibt das W3C heraus. XML ist eine Metasprache, auf deren Basis anwendungsspezifische Sprachen und Inhalte definiert werden, daher die Bezeichnung extensible (erweiterbar).XML-Dokumente bestehen aus Elementen, die wiederum Elemente, Texte oder andere Informationen enthalten. Es gibt strenge Regeln für Wohlgeformtheit und Gültigkeit, deren Einhaltung einen Datenaustausch zwischen verschiedenen Systemen erlaubt. Zur manuellen Erstellung von XML-Dokumenten können spezielle XML-Editoren benutzt werden. Für die Speicherung und Verwaltung von XML-Dokumenten gibt es XML-Datenbanken. Heute ist eine große Anzahl von Sprachen und Formaten für verschiedene Anwendungsgebiete, die auf XML basieren, vorhanden.

Zugriffe: 4
Zielgruppe

Ein Kernpunkt für eine erfolgreiche Vermarktung von Internetinhalten jeglicher Art ist eine möglichst optimale Zielgruppenansprache. Vorab muss die Zielgruppe möglichst präzise definiert werden. Der Begriff Zielgruppe an sich beschreibt eine bestimmte Gruppe von Marktteilnehmern, die sich speziell für das zu bewerbende Thema interessiert. Man spricht dabei auch von homogenen Marktteilnehmern in Bezug auf das gewünschte Thema.
Durch eine möglichst präzise Zielgruppenkenntnis lassen sich Streuverluste bei der Werbung reduzieren, was langfristig sowohl Kosten als auch Arbeitsaufwand eindämmt. Zielgruppenkenntnisse sind daher auch für die Suchmaschinenoptimierung wichtig – es gilt, die richtige Ansprache und die richtige Inhaltspräsentation zu finden, um die gewünschte Zielgruppe angemessen und nachhaltig anzusprechen.

Zugriffe: 3

© 2016 by mybestseo.de ein Projekt von Frank Hartung