Header 2a

Seo FaktenWer sich mit dem Thema SEO befasst, sieht sich früher oder später zahlreichen Mythen gegenübergestellt.

So heißt es einerseits „SEO ist tot!“, andererseits wird dies jedoch lautstark dementiert.

 

Auf jeden Fall ist die Diskussion zu diesem Thema sehr umfangreich – einige Mythen lassen sich jedoch aufklären:


Wer SEO betreibt, fördert die Usability nicht.

Nicht immer stehen sich Nutzererfahrung und SEO-Nutzen im Weg. Eher ist es andersherum, und die SEO-Maßnahmen bewirken ein besseres Handling der Website. So lässt sich die Absprungrate beispielsweise durch SEO reduzieren, was dafür spricht, dass die Nutzer die entsprechend gesuchten Inhalte auf der Website finden.


Der PageRank hat keinerlei Bedeutung mehr.

Um die Qualität einer Website einzuschätzen, ist der PageRank nicht ausreichend. Allerdings entscheidet er darüber, wie häufig Google-Crawler die Website besuchen und durchsuchen – je höher der PageRank ist, umso öfter kommt ein Crawler vorbei. Dies kann insbesondere bei größeren Websites ein wichtiger Faktor sein.


Webkataloge können eine Website pushen.

Webkataloge finden noch immer Verwendung von – überwiegend unseriösen – SEO-Agenturen. Und das, obwohl Google den dort erwerbbaren Links kaum mehr einen Wert zurechnet. Ein solcher Link kann stattdessen auch negative Folgen für eine Website haben, daher können Webmaster getrost darauf verzichten.


In den Meta-Tags sollten Webmaster Keywords verwenden.

Keywords tragen nicht maßgeblich zur Optimierung des Rankings bei. Google liest die Tags, bezieht sie jedoch nicht mit in die Bewertung ein. Es kann sich allerdings als vorteilhaft erweisen, die Keywords zum Beispiel in der Description unterzubringen – dies dient aber auch eher den Snippets, in denen Google Keywords fett darstellt, wodurch sich die Aufmerksamkeit der Nutzer erhöhen kann.


Viele Sites im Index sind auf jeden Fall wichtig.

Sicherlich: Ist guter Content vorhanden, sind indexierte Sites sehr wichtig. In anderen Fällen hat eine Vielzahl an Websites im Index jedoch keine hohe Relevanz. Somit lässt sich diese Aussage keinesfalls allgemein bestätigen.


In der robots.txt blockierte Sites gelangen nicht in den Index.

Ein sich immer noch haltender Mythos besagt, dass Einträge der URL in der robots.txt Websites aus dem Index ausschließen können. Damit hat die robots.txt allerdings gar nichts zu tun; diese sagt einzig im Bereich des Crawlings etwas aus. Die URL kennt Google aber in jedem Fall, daher kann sie auch indexiert werden.


Die Keyworddichte ist zwingend zu berücksichtigen.

Die Keyworddichte hat nicht oberste Priorität. Es gibt keine einheitliche Standardisierung; verschiedene Prozentzahlen kommen zum Einsatz. Zwar sollten Webmaster die Keywords in einem angemessenen Rahmen nutzen, eine zwingend einzuhaltende Dichte gibt es aber nicht.


Webmaster sollten Links auf andere Sites vermeiden.

Die Abneigung gegenüber Links auf fremde Sites hat in der Vergangenheit immer mehr zugenommen. Dabei sind externe Links grundsätzlich kein Problem, solange sie relevant und themennah sind. Eine sinnvolle Verlinkung lässt zudem vermuten, dass sich der Webmaster mit der Materie auseinandergesetzt und entsprechende Recherchen angestellt hat.


Guter Content macht die Suchmaschinenoptimierung überflüssig.

Ein guter Inhalt ist eine gute Stütze und die Basis für eine Website. Dennoch ist SEO nicht irrelevant, sondern trägt im Idealfall dazu bei, dass die Website ihr Potenzial voll ausschöpfen kann. Dies gilt im OnPage- und  OffPage-Bereich gleichermaßen.

© 2016 by mybestseo.de ein Projekt von Frank Hartung