, ,

SEO-Wissen: von richtigen Keyword-Dichten

Keyworddichte

KeyworddichteDie sogenannten Keyworddichte spielt für die SERP (Search Engine Result Pages) Optimierung eine nicht unbeträchtliche Rolle. Ideal funktioniert ein Suchalgorithmus bekanntlich dann, wenn er Informationen respektive Texte möglichst ähnlich wie ein menschlicher Leser bewertet – aber von einer Annäherung der maximalen Keyworddichte an natürlichsprachliche Bedingungen kann noch lange keine Rede sein.

SEO Profis können übrigens getrost direkt bis zum letzten Teil dieses Postings springen – wer den Begriff Keyworddichte schon mal gehört hat, aber nix damit anfangen kann, findet im ersten Teil eine Erklärung dieses wichtigen Webseiten-Parameters.

Zum besseren Verständnis ist ein Blick in die frühe Webgeschichte hilfreich: als die Suchmaschinen-Algorithmen noch jung und dumm waren und Larry Page das nach ihm benannte Ranking-System noch nicht erfunden hatte, gingen Suchmaschinenbetreiber davon aus, dass eine Seite umso relevanter sein müsste, je häufiger das gesuchte Keyword respektive die betreffende Keywordkombination im jeweiligen Text vorkommt. Dieser allzu simple quantitative Ansatz evozierte in weiterer Folge das sogenannten „Keywordstuffing“: eine Seite, auf der einfach nur 10.000 Mal das Wort „Keyworddichte“ stand, hätte viel besser gerankt als beispielsweise ein Text, der erklärt, was Keyworddichte ist. Googles Pagerank-Verfahren löste dieses Problem zumindest teilweise: den die Anzahl der Backlinks als Ranking-Kriterium lässt sich nicht durch simples Keywordstuffing überlisten. Aber erstens gab’s und gibt’s – man glaubt es kaum – neben Big G noch andere Suchmaschinenbetreiber, und zweitens verlässt man sich ungern auf ein einzelnes Kriterium; denn der Pagerank lässt sich ja wiederum durch gekaufte Backlinks und/oder Linknetzwerke immer noch sehr gut „überlisten“. Also spielt die Keyworddichte auch weiterhin eine beträchtliche Rolle, wenn auch unter völlig verändern Vorzeichen.

Denn anstatt die bloße Quantität zu werten, gehen Algorithmen von statistischen natürlichen Keyworddichten aus – selbstverständlich werden dabei nur die Inhalte ohne HTML-Tags etc. gezählt. Die zugrunde liegenden Zahlen resultieren aus quantitativen Analysen riesiger Textmengen, die sich bekanntlich problemlos automatisiert durchführen lassen. Weiß man also beispielsweise, dass in statistisch durchschnittlichen Artikel über Winston Churchill dessen Name beispielsweise zweimal pro hundert Wörtern vorkommt, so bedeutet dies eine Keyworddichte von 2%. Natürlich lässt sich dieses Verfahren mittels zusätzlicher (semantischer) Kriterien verfeinern, aber grosso modo kann man durchaus sagen, dass die Keyworddichten-Analyse in erster Linie ein Mittel gegen Keywordstuffing darstellt. Wie stark die einzelnen Suchmaschinen diesen Faktor in ihrer Gesamtbewertung nun tatsächlich gewichten, ist im Detail nicht bekannt – dass er eine Rolle spielt, allerdings schon.

Die tatsächliche optimale Dichte…

…liegt immer noch, und das ist das Problem, weit über der „natursprachlichen“ oder semantischen Dichte. Jedem Journalismus-Studenten wird beigebracht, Wortwiederholungen zu vermeiden, skurrilerweise allerdings sehen SM-Scripts immer noch liebend gerne eine Keyworddichte von drei bis zu fünfzehn (!) Prozent. Das muss man sich mal auf der Stil-Zunge zergehen lassen: in einem mittel-langen Posting von 300 Worten über das Thema Keyworddichte müsste besagter Begriff bei einer Keyworddichte von 10 Prozent nicht weniger als 30 Mal vorkommen! Für SEOs bedeutet das natürlich, bei der Optimierung der Webseiten-Texte auf ausreichende Keyworddichte zu achten – was in der Regel der flockigen Lesbarkeit von Texten nicht gerade zuträglich ist. Ein paar kleinere Experimente meinerseits haben allerdings zweifelsfrei ergeben, dass man sozusagen die Wahl hat zwischen Fokus aus lesefreundlichem Stil oder eben auf optimale Keyworddichte – irgendwie hab ich ganz und gar nicht das Gefühl, dass die vorgegebenen optimalen Keyworddichten auch nur annähernd auf elaborierten semantischen Kriterien beruhen. Zum Glück ist die Keyworddichte allerdings nur ein Faktor unter vielen – also besser nicht übertreiben, aber auch nicht unterhalb der Wahrnehmungsgrenze dahinsurfen: die Minimalhürde von 2% sollte jeder auf Besucher bedachte Web-Publisher sehr wohl überspringen. Weitere Meinungen dazu interessieren mich natürlich brennend.

Die Keyworddichte analysieren

Online findet man zahlreiche Keyword-Analyse-Tools. Die meisten davon liefern unsinnige und fehlerhafte Ergebnisse oder funktionieren erst gar nicht – uneingeschränkt empfehlen kann ich allerdings das Keyword-Density Tool von Sistrix – es liefert valide Ergebnisse, auf die sich der besorgte Webmaster durchwegs verlassen kann. Wer mehr Parameter checken möchte, muss auf die kostenpflichtigen SEOmoz Profi-Tools zurückgreifen: mit dem Term Target Tool und dem Keyword Difficulty Checker gelingt so manches Kunststück.

PS: Selbstverständlich ist auch dieser Artikel über Keyworddichte nicht bloß ein Posting, sondern ein teilnehmendes Experiment. Aufmerksamen LeserInnen dürfte durchwegs nicht entgangen sein, dass dieser Beitrag den Begriff Keyworddichte wesentlich öfter enthält als üblich :mrgreen:


Fotocredits: Schlüssel von Name Gabi Schoenemann / Pixelio
22 comments
Rudi
Rudi

Hallo Robert, da muss ich jetzt etwas schmunzeln. Ich bin jetzt auch dazu übergegangen meine Seiten so zu machen, wie ich das will und für richtig halte. Einfach einen natürlichen Text und meine Geschichte so gut wie möglich rüber bringen. Und mit den Suma-Ergebnissen, man ist halt einfach abhängig davon. Aber wenn ich dann sehe, dass manche Seiten oben sind, die fast gar nicht das besagte Key im Text haben, geschweige denn fast keinen Text, dann bin ich überzeugt, dass das letztendlich etwas anderes ist, dass man gut platziert wird. Was ist falsch und was ist richtig? Das ist eben die Kunst, das herauszufinden. Ich denke, das solche Neulinge wie ich, nach ein paar Jahren darüber noch mehr schmunzeln, über was man sich heute Gedanken macht. Wir werden sehen was in ein paar Jahren ist. Es bleibt zu hoffen. Aber wenn ein Key eben hart umkämpft ist, dann kann die richtige Keyword-Dichte vielleicht das Tüpfelchen auf dem i sein.

Robert
Robert

Ich hänge mich mal weit aus dem Fenster und behaupte, daß Google eines Tages auch schlauer wird und extreme Keyword-Dichte eher unangenehm bewertet, so wie der menschliche User eben auch. Um also langfristig im Suma-Markt gut platziert zu sein, sollte man am besten für den User optimieren, denn der steht ja auch für die Sumas im Mittelpunkt und an diesen sollten ja auch die Bewertungskriterien ausgerichtet werden. Wann dieses allerdings annähernd perfekt erreicht ist, bleibt dahingestellt.

Rudi
Rudi

Das ich mich bei der Diskussion noch beteilige hat den Grund, der indirekt mit der Keyworddichte zu tun hat. Das ich ein SEO Spezialist bin, mag ich zu bezweifeln mit meinen erst 2 Jahren Erfahrung. Ich denke mal, das man auch 15 Prozent an Keyworddichte schaffen kann und der natürlich gewachsene Text trotzdem noch einigermaßen gut lesbar bleibt. Ich jedenfalls habe meine eigene Prozentzahl für mich festgelegt. Ich denke mal dabei nicht ganz falsch zu liegen, da meine Seite oft von einem Robot besucht wird, der meine Keywords ausspäht. Das macht dieser Robot nicht von alleine, es ist ein Tool, das andere Webmaster für sich nutzen, um die Konkurenz auszuspähen. Dafür bezahlen die auch noch Geld. Natürlich lässt mich das nicht kalt und bin stinksauer darüber, zumal manche meinen, man könnte doch gleich noch am besten alle guten Texte samt Keywords kopieren, um sie auf seine eigene Webseite zu machen. Meist bekomme ich ja schnell heraus wer meine Texte und Keywords auf seine Seite einfügt, doch bis dahin haben die meine Webseite bei, wie Ihr sagt, Big G geschädigt. Ich bin schon am vermuten, das diese kleineren Seiten die meine Keywords und Texte klauen, in irgendeiner Weise mit den Seiten in Verbindung stehen könnten, die in den Serps mit meinen wichtigsten Keywords ganz oben stehen. Normalerweise prüft ein Webseitenbetreiber zuerst mal einen gesetzten Link einer anderen Seite, bevor er diesen freigibt. Letzendlich bin ich auch davon überzeugt, das die Keyworddichte für die Suchergebnisse von großer Bedeutung sind. Ich werde weiterhin meine Erfahrungen machen auch in Bezug auf Keyword in der URL und der Keyworddichte in der Beschreibung sowie dem Titel der Seite. Ich hatte Eueren Blog überhaupt erst bei der Suche nach dem Begriff, SEO-Wissen gefunden. Ich bleibe Euch mal eine Weile treu, lasse mir auch die neuen Post´s, auf meine Mail schicken und mache noch ein Lesezeichen. Gruß aus der Pfalz, Rudi

Paul
Paul

Gerald hat es doch schon richtig getroffen im Beitrag :mrgreen:

adgo
adgo

Bin auch der Meinung, dass die Keyworddichte kein sonderlich wichtiges Kriterium mehr ist. Klar, das Keyword sollte paar mal auf der Zielseite auftauchen, aber ein zusätzlicher Link dürfte größeren Einfluss auf das Ranking haben als eine 1% höhere Keyworddichte.

Korbi
Korbi

Der Witz an der Keywortdichte ist doch, dass ein guter Artikel nur eine sehr niedrige Dichte hat. Jeder Fachartikel wird auf Teufel komm raus versuchen das Thema des Artikels so weit wie möglich mit verschiedenen Worten zu vermeiden. Ergo wird Google sicher viel Wert auf die Keywortdichte legen, allerdings auf einen Wert deutlich unter 2%. Nicht vergessen sollte man beim Keywordstuffing allerdings auch falsche Schreibweisen zu berücksichtigen, was ich netterweise gleich mal für Dich gemacht habe :-)

Olafkolbrueck
Olafkolbrueck

Okay, das erklärt mir wie es der Welt gelingt bei Google abzusahnen. Allerdings finde ich nicht zwingend, das wortwiederholungen der lesebarkeit schaden, für manch einen leser eher im gegenteil. macht den text vielleicht nur ein wenig langweiliger.

Gerald
Gerald

die kommentare versauen am ende noch die keyworddichte. besser abschalten ;-)

Andreas Bergmann
Andreas Bergmann

Ich kann mir ehrlich gesagt schwer vorstellen dass Google immer noch Keyword-Dichten über 2% bevorzugt. Das ist dann offensichtlich kein lesbarer Text mehr und für Google ist es leicht im Algorithmus diese Grenze runterzusetzen. Die haben soviele Faktoren, warum sollten sie einen offensichtlich falschen Faktor beibehalten, der noch dazu so leicht zu beheben ist? Andere Suchmaschinen spielen sowieso kaum eine Rolle, aber für die gilt prinzipiell dasselbe.

yaph
yaph

Interessant, dass die Keyworddichte also solche bei den Search Ranking Factors auf SEOmoz keine Berücksichtigung findet. Am ehesten noch unter dem Punkt Topic Analysis. Die Verwendung wichtiger Keywords im Titel und in Überschriften spielt sicher eine viel größere Rolle. Ob die Dichte bei 1%, 2% oder 5% liegt, macht kaum den entscheidenden Unterschied aus. Die Keyworddichte und andere interessante Informationen können Firefox-Benutzer auch mit der Extension Search Status anzeigen.

Webdesignblogger
Webdesignblogger

Hey, also ich denke schon dass die Keyworddichte sehr wichtig ist, denn umso höher setzt Google die Prioriät des Keywords. Natürlich sollte man aufpassen den Text trotzdem lesenwert zu lassen. Sonst ist der Traffic schnell wieder weg. mfg Sebastian

felix
felix

Ähm willkommen im Jahr 2005. Keyword-Dichte spielt fast keine Rolle mehr und jeder der seine Texte danach "optimiert" verschwendet seine Zeit. Schau dir das mal an: http://www.seomoz.org/article/search-ranking-factors und verwechsel "Keyword Use in Body Text" nicht mit Keyword-Dichte.

mark
mark

Wow - trotz der vielen Wiederholungen und Eintrag im Metatag bzw. Metadescription nur eine Keyworddichte von fast 2%. Echt schwierig einen hohen Wert zu schaffen, ohne die Leser zu verärgern. Ich verwende übrigens SEOQuake, da gibts auch einen brauchbaren DensityChecker im Paket.

weana
weana

keyworddichten gilt auch?

Walter
Walter

Ich optimiere Texte lieber für Menschen. Aber ein gewisser Kompromiss wird wohl (derzeit noch) unumgänglich sein. Mein Beitrag: Keyworddichte ;-)