Header 2a

Begriff Definition
Search Engine

Eine Search Engine (engl., „Suchmaschine“) ist ein System von Computerprogrammen, das dazu dient, das World Wide Web nach Informationen zu durchsuchen. Die gefundenen Ergebnisse werden in der Regel in sogenannten Search Engine Result Pages (SERP) dargestellt. Im Unterschied zu Web Directories, die von Menschen gepflegt werden, funktionieren Search Engines vollautomatisch.
In den Anfangszeiten des World Wide Web gab es lediglich ein einziges Verzeichnis von Webservern, die auf dem Webserver des CERN (europäisches Kernforschungszentrum) gehostet wurde. Von hier aus konnte man zur gesamten Information im Netz gelangen. Anfang der 90er Jahre entstanden die ersten Programme zur Suche im Web. Etwa um das Jahr 2000 herum wurde die Search Engine von Google populär, insbesondere durch die Erfindung des Pagerank-Algorithmus.

Zugriffe: 23
SEM

Suchmaschinenmarketing (Search Engine Marketing, SEM) umfasst als Teilgebiet des Onlinemarketings alle Aktivitäten zur Erhöhung der Besucherzahlen auf Websites über Suchmaschinen. Das ist zum einen das SEA (Search Engine Advertising), also die Werbung auf Suchmaschinenseiten, und zum anderen die SEO (Search Engine Optimization), also die Suchmaschinenoptimierung von Websites.
Ziel des Suchmaschinenmarketings ist eine prominente Platzierung eines Artikels, einer Marke oder einer Site auf Ergebnisseiten für Suchanfragen, die bestimmte Keywords enthalten. Ob diese Platzierung im organischen Teil des Suchergebnisses oder in einem Werbeblock ist, entscheiden die angewendeten Methoden des SEM. Die Werbeeinblendungen sind dabei keine Konkurrenz zu den organischen Ergebnissen, wenn – wie bei den großen Suchmaschinen üblich – beide Teile in der Darstellung getrennt werden.

Zugriffe: 19
Semantik

In der Sprachwissenschaft ist Semantik ein zentrales Element. Dieser Begriff umschreibt den Umstand, dass es zu jedem Wort einen Sinn geben muss. Dieser Sinn lässt sich meist auch mit alternativen Worten und Aussagen treffen. An diesem Punkt wird der Bezug zur Suchmaschinenoptimierung hergestellt: Bei Inhalten sollte der Sinn herausgearbeitet und leicht verständlich präsentiert werden. Der Aspekt der Semantik verlangt dabei, dass nicht nur eine, sondern möglichst verschiedene Ansichten zur gleichen Sache ausgearbeitet werden.
Vereinfacht ausgedrückt bedeutet dies, dass ein Thema von möglichst vielen verschiedenen Seiten beleuchtet werden muss, um es umfassend darzustellen. Je detaillierter man bei der Ausarbeitung vorgeht, desto spezifischer wird der Inhalt – dadurch erhalten die so erstellten Inhalte einen deutlich erkennbaren Mehrwert für die Website-Besucher, was sich positiv in den SERPs niederschlägt.

Zugriffe: 18
Semantische Analyse

Die Semantik ist die Lehre von der Bedeutung von Worten und Zeichen. Eine semantische Analyse im Sinne von Suchmaschinenoptimierung ist die Untersuchung des Inhaltes einer Website und seiner Bedeutung. Die Bedeutung der semantischen Analyse nimmt im World Wide Web stetig zu. Der Inhalt einer Website wird von Suchmaschinen semantisch analysiert, um seine Bedeutung möglichst genau erfassen und einordnen zu können. Damit kann anschließend auch zum Thema passende Werbung eingeblendet werden. Für die SEO ist es wichtig, den semantischen Kontext des Inhaltes der Site möglichst gut zu kennen und möglichst viele dafür relevante Begriffe einzubauen. Auch das Linkbuilding zu Sites mit hoher Relevanz im gleichen Themengebiet kann damit unterstützt werden.

Zugriffe: 12
SEO

Search Engine Optimization (SEO) umfasst zahlreiche Maßnahmen, um eine Website so zu gestalten, dass sie bei gegebenen Suchbegriffen möglichst weit oben in den Suchergebnissen angezeigt wird. SEO gehört zum Suchmaschinenmarketing (SEM). Man unterscheidet zwischen der OnPage-Optimierung und der OffPage-Optimierung. Auch die Einbindung sozialer Medien gehört mittlerweile zur Suchmaschinenoptimierung. Ganz allgemein geht es bei SEO heute vor allem um die Sichtbarkeit auf allen Kanälen.

Zugriffe: 34
SERP

SERP ist die gängige Abkürzung für “Search Engine Ranking Position” und steht für die Platzierung des gewünschten Webprojekts in Bezug auf das gesuchte Keyword bzw. die gesuchte Keywordphrase (vgl. Longtail Keyword). Ziel der Suchmaschinenoptimierung ist es, die betreuten Webinhalte durch verschiedenste Maßnahmen in diesen Suchergebnislisten in der Platzierung nach vorne zu bringen, damit Suchmaschinennutzer sie besser wahrnehmen können. Je nach Keyword und Thematik kann es enorm aufwendig sein, auf der ersten Seite der SERPs zu erscheinen. Diverse Fallstudien haben aber gezeigt, dass es sich lohnt, auf den ersten fünf Plätzen der Suchergebnisliste zu stehen. Die Klickzahl erhöht sich deutlich mit jedem Platz, den man in der Liste steigt (ausgehend von Platz 10-1 in der Ergebnisliste).

Zugriffe: 16
SERPS Pollution

Search Engine Results Pages Pollution (engl., „Verschmutzung der Ergebnisseiten einer Suchanfrage“) bezeichnet die Tatsache, dass Ergebnisseiten häufig auch vollkommen nutzlose Sites enthalten, die bestenfalls entfernt mit der eingegebenen Suchanfrage zu tun haben und dementsprechend irrelevant sind. Diese Ergebnisse enthalten keinen relevanten Inhalt, etwa wie Doorway Pages, Linklisten oder Affiliate-Seiten. Für den Anwender sind sie also eine Verschmutzung des erwarteten Ergebnisses. Die Betreiber von Suchmaschinen treiben einen sehr hohen Aufwand, um solche Ergebnisse zu vermeiden, doch die Anbieter finden immer wieder neue Möglichkeiten, die Algorithmen der Suchmaschinen auszutricksen. Werden solche Offerten erkannt und gemeldet, entfernen die Suchmaschinenbetreiber sie in der Regel aus dem Index.

Zugriffe: 12
Server

Der Begriff Server wird sowohl im Zusammenhang mit Hardware als auch mit Software benutzt. Ein Server ist ein Dienstleister oder Dienstanbieter, und in den meisten Fällen ist das heute eine Kombination von Hard- und Software. Ein Server im Sinne von Webserver ist ein leistungsfähiger Computer oder ein Verbund von mehreren Computern mit spezieller Software.Über eine Schnittstelle (Port) kann ein beliebiger Client, in der Regel ein Browser, mit dem Server Kontakt aufnehmen und seine Dienste in Anspruch nehmen. Diese Dienste bestehen dann meistens aus dem Bereitstellen von Internetseiten, die vom Client angezeigt werden. Der Server kann im Verlauf einer Session, zum Beispiel eines Einkaufsvorganges, auch die Dienste von weiteren Servern (zum Beispiel Datenbankserver) in Anspruch nehmen.

Zugriffe: 18
Session ID

Eine Session ID (Session Identifier oder Sitzungsbezeichner), dient dazu, bei Clientanfragen an einen Webserver zusammengehörende Anfragen eines Benutzers zu erkennen und zuzuordnen. Das im World Wide Web benutzte Übertragungsprotokoll http ist zustandslos, was bedeutet, dass jede Anfrage an den Server behandelt wird, als sei sie die erste. Um Dienste anbieten zu können, die komplexere Transaktionen mit einer Vielzahl von Anfragen an den Server beinhalten (zum Beispiel Onlineshops), wird bei der ersten Anfrage eines Clients eine eindeutige Session ID vom Server erzeugt und an den Client zurückgesendet. Diese Session ID sendet der Client nun mit jeder weiteren Anfrage an den Server mit, sodass der Zustand der Sitzung mitgeführt werden kann.

Zugriffe: 15
Session Length

Als Session Length wird die Dauer eines Besuches einer Website bezeichnet. Sie kann als Erfolgskontrolle für Werbung benutzt werden. So werden Besuche einer Website nach einer Bewertungsmethode erst dann gezählt, wenn der Besuch mindestens eine Minute gedauert hat. Eine Session oder Sitzung kann man als Container für alle Aktionen eines Benutzers auf der Website ansehen. Die Session Length wird in der Regel so begrenzt, dass eine Session vom Server aus beendet wird, wenn der Nutzer eine definierte Zeit lang (zum Beispiel 30 Minuten) keine Aktion mehr durchgeführt hat. Nach jeder Benutzeraktion wird der Timer neu gestartet. Um die Session Length messen zu können, ist eine Session ID erforderlich.

Zugriffe: 15
Sitelinks

Sitelinks sind zusätzliche Links in einem Suchergebnis. Es handelt sich dabei um Links zu Unterseiten der gefundenen Website, die ein Algorithmus als hilfreich für die Navigation innerhalb der gefundenen Site ermittelt hat. Zurzeit nutzt nur Google einen solchen Algorithmus. Die zusätzlichen Links innerhalb des Suchergebnisses werden direkt unter der gefundenen Hauptseite angezeigt. Damit soll dem Benutzer die Navigation auf der Site erleichtert werden. Sitelinks werden automatisch ermittelt, falls der Algorithmus sinnvolle Links findet. Später soll möglicherweise auch Input der Webmaster berücksichtigt werden. Laut Expertenmeinung geben Sitelinks den Suchergebnissen mehr Gewicht; zumindest haben sie den Effekt, darunterliegende Suchergebnisse weiter nach unten zu verschieben.

Zugriffe: 13
Sitemap

Eine Sitemap ist sozusagen die Landkarte einer Website. Sie zeigt im Idealfall die Verlinkungsstruktur aller Dokumente der Website an, ist aber weder Inhaltsverzeichnis noch Index, sondern nur eine Übersicht. Für die Benutzerfreundlichkeit einer Website spielt die Sitemap eher eine untergeordnete Rolle, da bereits eine sinnvolle Navigation und eine Suchfunktion den Anwender dahin bringen, wo er hin will. Für die Suchmaschinenoptimierung hingegen spielen Sitemaps eine wichtige Rolle, da sie sicherstellen, dass alle Unterseiten tatsächlich erreichbar sind. Außerdem benutzen die Suchmaschinencrawler vorhandene Sitemaps, um alle Seiten einer Webpräsenz zu erfassen. Die Sitemap selbst ist ein Dokument wie jede andere Unterseite auch. Handelt es sich um eine standardisierte Sitemap auf Basis von XML, wird dadurch die Durchsuchbarkeit der Website für Suchmaschinen verbessert.

Zugriffe: 27
Slow Death

Mit diesem englischen Begriff wird der langsame Tod einer Website beschrieben. Im Grunde bedeutet es, dass eine bestimmte Website langsam, aber sicher aus den Ergebnislisten großer Suchmaschinen wie Google verschwindet, bis sie schließlich gar nicht mehr im Index vorhanden ist. Bei Google beginnt dieses Phänomen beispielsweise damit, dass die einzelnen Seiten der Website in den Ergebnislisten nicht mehr mit Beschreibung angezeigt werden, sondern als nackte URL. Die Ursachen dafür sind nicht genau geklärt, aber eine der häufigsten Gründe ist anscheinend das Vorhandensein von Duplicate Content auf der Website. Eine weitere Möglichkeit ist, dass die Site mittels Hijacking gekapert wurde und potenzielle Website-Besucher umgeleitet werden.

Zugriffe: 12
Social Marketing

Social Marketing unterscheidet sich stark vom normalen Marketing. Hierbei geht es nicht darum, Produkte und Dienstleistungen mit Gewinnabsicht bekannt zu machen, sondern darum, soziale Kompetenz aufzubauen. Social Marketing wird daher in der Regel von nicht-gewinnorientierten Einrichtungen, staatlichen und gemeinnützigen Organisationen genutzt.

Zugriffe: 13
Social Tagging

Social Tagging heißt, frei übersetzt, soziale Verschlagwortung. Hierbei werden in bestimmten Portalen Schlagwörter als Lesezeichen genutzt, um so bestimmte Sites schnell wiederfinden zu können. Social Tagging ist heute kaum noch verbreitet, da es von vielen Suchmaschinenoptimierern zum Linkaufbau genutzt wurde. Heute finden wir Social Tagging vor allem noch in Weblogs in Form von sogenannten Tagwolken. Dabei werden häufig verwendete Keywords in einer Wolke aufgelistet. Die am häufigsten genutzten Keywords werden dabei größer dargestellt. So wird gleichzeitig eine Relevanz suggeriert.

Zugriffe: 14
Spam

Mit dem Begriff Spam werden in der Regel unerwünschte, meist elektronisch übertragene Werbebotschaften bezeichnet. Im Zusammenhang mit Suchmaschinenoptimierung spricht man von Spam oder Spamdexing, wenn versucht wird, die Algorithmen der Suchmaschinenbetreiber auszutricksen, um ein höheres Ranking in den Suchergebnissen zu erhalten. Es gibt unzählige Versuche und immer wieder neue Möglichkeiten, die Vorschriften von Suchmaschinenbetreibern wie Google zu umgehen, um bei Websites eine möglichst hohe Rankingposition zu erzielen. Ebenso optimieren die Suchmaschinen ihre Algorithmen permanent, um solche Täuschungsversuche besser zu erkennen. Websites, bei denen Spamdexing erkannt wurde, können zeitweise oder dauerhaft abgewertet oder komplett ausgelistet werden.

Zugriffe: 21
Spam-Report

Google und andere Suchmaschinenbetreiber versuchen mit hohem Aufwand, Spamdexing, also Verstöße gegen die eigenen Richtlinien durch Website-Betreiber, technisch zu verhindern. Das gelingt natürlich nicht in jedem Einzelfall. Daher bietet Google seinen Nutzern eine Möglichkeit, Sites zu melden, die ihrer Meinung nach Spamming betreiben. Hierfür gibt es den sogenannten Spam-Report. Mittels dieser Funktion kann jeder angemeldete Googlenutzer die entsprechenden Daten eingeben. Laut Google wird der Report direkt an die Techniker weitergeleitet, die entsprechende Gegenmaßnahmen definieren und einleiten können. Offenbar sucht Google in nahezu allen Fällen eine technische Lösung. In besonders schweren Fällen könnte aber auch eine organisatorische Lösung (Delisting der betreffenden Site) sinnvoll sein.

Zugriffe: 11
Spambot

Ein Spambot ist ein autonom agierendes Programm, das im World Wide Web entweder E-Mail-Adressen sammelt, damit diese für unerwünschte Werbebotschaften genutzt werden können, oder das selbst massenhaft Werbung verbreitet. Zum einen gibt es die sogenannten E-Mail-Harvester(engl., „Ernte“), die nach Internetadressen suchen, um später Spam an diese zu versenden. Daneben gibt es Programme, die unerwünschte Werbung (Spam) oder Links in Internetforen oder Gästebüchern hinterlassen. Auch das Hinterlassen von Werbung in den Logfiles von Webservern durch eine gefälschte Browserkennung wird durch solche Programme durchgeführt. Ziel ist entweder die Verbreitung von Werbung oder der massenhafte Aufbau von externen Links, um eine bestimmte Website im Suchmaschinenranking nach vorne zu bringen.

Zugriffe: 11
Spider

Spider oder Crawler sind automatisierte Programme, die im World Wide Web Sites durchsuchen, um sie zu analysieren und dem Index von Suchmaschinen zuzuführen. Spider sind Bots (Kurzform von Robots), da sie ihre Aufgaben unabhängig von jeder Benutzerinteraktion durchführen. Die Suchmaschinenbetreiber nutzen Spider für unterschiedliche Aufgaben. Da sie auf aktuellste Informationen aus dem World Wide Web angewiesen sind, müssen sie die Inhalte und Links im Web permanent scannen und in ihrem Index aktualisieren. Diese enorme Aufgabe erfordert naturgemäß einen Automatisierungsgrad von 100 Prozent, was die Spider gewährleistet. Spider werden aber zum Beispiel auch eingesetzt, um Adressen für das Versenden von Spam zu sammeln.

Zugriffe: 22
Splash Page

Häufig wird bei Websites als Einführungsseite nur eine Animation oder Grafik angezeigt. Hierbei handelt es sich um eine Splash Page. Ursprünglich wurden Splash Screens als Platzhalter während des Ladens eines Programmes eingesetzt, um dem Anwender sofort zu zeigen, dass etwas passiert. Die Meinungen über Splash Pages gehen weit auseinander. Viele Firmen benutzen sie als Möglichkeit der Präsentation. Ein Teil der Nutzer verlässt eine Website mit einer Splash Page aber umgehend wieder. Die Vorteile einer Splash Page sind das extrem schnelle Laden und die Möglichkeit, dem Benutzer eine Auswahl zu geben, wie er die Site sehen will (mit/ohne Flash etc.). Ein gravierender Nachteil sind allerdings Probleme mit Suchmaschinen, da Splash Pages keine relevanten Inhalte haben.

Zugriffe: 11
Sponsored Listing

Sponsored Listings sind bezahlte Einträge in den Ergebnisseiten von Suchmaschinen. Sie sind das Gegenstück zum Organic Listing, also den aufgrund des Seiteninhalts gefundenen Ergebnissen. Sponsored Listings oder Links werden anders dargestellt als die organischen Ergebnisse und sind so als Anzeigen erkennbar. Abgerechnet werden diese Anzeigen in der Regel durch das Pay-per-Click-Verfahren, bei dem nur die Besucher bezahlt werden, die tatsächlich durch einen Klick auf die Anzeige zur Website gelangt sind. Sponsored Listing gehört zu den wichtigsten Maßnahmen im Onlinemarketing. In der Regel wird die Suchmaschinenwerbung zusammen mit der Suchmaschinenoptimierung durchgeführt, um ein optimales Ergebnis für die gewünschten Keywords zu erhalten.

Zugriffe: 9
Spoofing

Unter Spoofing (engl., „Verschleierung, Vortäuschung“) versteht man die Verschleierung der eigenen Identität in einem Computernetzwerk. Spoofing wird im World Wide Web zum Beispiel benutzt, um Authentifizierungsverfahren zu unterlaufen. Auch Phishing, das "Abfischen" von Passworten, wird im Zusammenhang mit der Verschleierung der Adresse (in diesem Fall meist einer E-Mail-Adresse) betrieben. Spoofing kann allerdings auch für legale Zwecke eingesetzt werden. So decken Suchmaschinenbetreiber mittels Spoofing das verbotene Cloaking auf. Daneben kommt Spoofing auch bei Lasttests zum Einsatz, wenn damit eine nicht vorhandene Anzahl von Computern simuliert wird.

Zugriffe: 15
SSI

SSI steht für Server Side Includes (engl., „serverseitige Einbindungen“) sind in HTML-Dokumenten eingebundene Befehle, die auf dem Webserver ausgeführt werden, bevor die Site an den Client gesendet wird. Damit ist es auf relativ einfache Weise möglich, dynamische Seiteninhalte zu erzeugen, ohne Programmiersprachen zu verwenden, die ganze Dokumente dynamisch erzeugen, wie zum Beispiel PHP oder Perl. Eingeführt wurde SSI als Erweiterung für den Apache-Webserver. Mittlerweile wird SSI aber auch von anderen Webservern unterstützt. Der Umfang der Befehle wurde bewusst sehr klein gehalten. Mit SSI lässt sich eine statische Datei oder die Ausgabe eines Programms in ein Dokument einfügen. So ist es zum Beispiel auf einfache Weise möglich, eine Website zu internationalisieren.

Zugriffe: 10
SSL

SSL steht für Secure Sockets Layer und ist ein Verschlüsselungsprotokoll für die Datenübertragung im Internet. Die Abkürzung ist weithin bekannt und wird auch heute noch benutzt, obwohl SSL seit geraumer Zeit unter dem neuen Namen TLS (Transport Layer Security) weiterentwickelt wird. Die SSL- bzw. TLS-Verschlüsselung wird insbesondere im HTTPS (HTTP Secure) Protokoll verwendet. Nachdem der Client (Browser) die Verbindung zu einem Server aufgenommen hat, identifiziert dieser sich gegenüber dem Client mit einem Zertifikat. Der Client überprüft, ob das Zertifikat vertrauenswürdig ist und ob der Servername mit dem Zertifikat übereinstimmt. Ist das der Fall, wird auf Basis eines Schlüsselaustausches eine symmetrische Verschlüsselung für die auszutauschenden Nachrichten ermittelt. Ein gültiges Zertifikat wird im Browser in der Regel durch ein Symbol in der Adresszeile angezeigt.

Zugriffe: 13
Stemming

Stemming – im Bereich der Suchmaschinenoptimierung meist „Keyword Stemming“ genannt – kommt aus der Sprachwissenschaft. Der Begriff beschreibt, wie die jeweiligen Wortstämme aus Worten herausgebildet werden können. Im Ergebnis soll das Stemming die Suchergebnisse der Suchmaschinen verbessern. Obwohl dieses „Verfahren“ primär für Suchmaschinen interessant ist, kann auch ein Suchmaschinenoptimierer von dieser Vorgehensweise profitieren. So erreichen beispielsweise Themenwebsites, die nicht nur das spezifische Keyword, sondern gleich den ganzen dazugehörigen Wortstamm bearbeiten, in der Regel eine bessere Platzierung als Sites, die nur das Keyword nutzen. Das Kernthema dabei ist die thematische Abdeckung in der gesamten Keywordbreite.

Zugriffe: 12
Stop Word

Als Stop Word (engl., „Stoppwort“) werden alle Worte bezeichnet, die in praktisch jedem Dokument sehr häufig vorkommen und keine relevanten Informationen liefern. Zu den Stop Words gehören neben bestimmten und unbestimmten Artikeln, Konjunktionen und Präpositionen auch Satzzeichen wie Punkt, Komma oder Strichpunkt. Stop Words haben in erster Linie grammatikalische oder Syntaxfunktionen und sind daher irrelevant für den Informationsgehalt eines Dokuments. Durch Listen mit Stop Words können Suchmaschinen ihre Arbeit effizienter durchführen. Würden alle oben genannten Worte bei der Ermittlung von Suchergebnissen berücksichtigt, könnte fast jedes Dokument als Treffer für eine entsprechende Suchanfrage gelten, was für den Anwender nutzlos wäre.

Zugriffe: 10
Subdomain

Eine Domain ist ein Namensraum im Internet. Das System der Domains ist hierarchisch aufgebaut. In der ersten Ebene unterhalb der sogenannten Root-Domain werden die Top-Level-Domains wie .com, .de oder .org geführt. Die zweite Ebene besteht aus den Second-Level-Domains wie zum Beispiel www.beispiel.org. Diese werden im allgemeinen Sprachgebrauch als Domains bezeichnet. Per Definition sind aber auch sie Subdomains: im vorliegenden Fall Subdomain der Top-Level-Domain .org. Erst die nächste Ebene, die Third-Level-Domain, und alle darunterliegenden Hierarchiestufen werden allgemein als Subdomains bezeichnet. Damit werden zum Beispiel verschiedene Dienste wie Webserver (www.), Mailserver (mail., smtp., ...) und andere logisch und/oder physisch getrennt. Aber auch eine Aufteilung auf Standorte einer Firma oder Behörde kann mit Subdomains abgebildet werden, wenn es sinnvoll ist.

Zugriffe: 19
Suchmaschine

Eine Suchmaschine ist ein komplexes System zur Unterstützung der Informationsgewinnung in einem Netzwerk. Suchmaschinen im World Wide Web speichern gefundene Dokumente in eigenen Datenbanken, indizieren und sortieren sie für entsprechende Nutzeranfragen. Die Beschaffung der Daten, ihre Speicherung und Indizierung geschieht vollkommen automatisch. Für Indizierung und Sortierung (Ranking) in Bezug auf Suchbegriffe verwenden die Betreiber jeweils eigene, permanent verbesserte Algorithmen mit einer großen Anzahl von Parametern. Die Suchmaschinenoptimierung (SEO) beschäftigt sich damit, sich diesen – nicht öffentlich zugänglichen – Algorithmen möglichst gut anzupassen, um im Ranking weit oben platziert zu werden. Für Betreiber kommerzieller Websites ist es heute lebenswichtig, gut bei den Suchmaschinen, insbesondere natürlich Google, zu ranken.

Zugriffe: 32
Syntax

Die Syntax ist ein Teilgebiet der Grammatik von natürlichen Sprachen, das sich mit der Zusammenfügung (der Begriff stammt aus dem Griechischen und ist zusammengesetzt aus "zusammen" und "Ordnung") von Worten zu größeren Einheiten wie Sätzen beschäftigt. Bei einer Anfrage an eine Suchmaschine spielt ihr Zusammenhang neben den einzelnen Begriffen eine wesentliche Rolle. Auf welche Weise Worte und Wortgruppen miteinander zu verknüpfen sind, hat einen großen Einfluss auf das Suchergebnis, auch wenn die einzelnen Worte die gleichen sind. Die meisten Suchmaschinen bieten neben der einfachen auch eine erweiterte Suchfunktion an, mit der sich eine Kombination von gesuchten Begriffen oder Phrasen sehr genau eingrenzen lässt.

Zugriffe: 13

© 2016 by mybestseo.de ein Projekt von Frank Hartung