,

Google PageRank: Multi-Datacenter Abfrage

Mit dem Google Pagerank ist das so eine Sache: meilenweit von einer Live-Wertung entfernt zeigt der Wert zwischen 0 und 10 an, wie viele Backlinks auf eine Seite verweisen. In mehr oder weniger regelmäßigen Intervallen aktualisiert Google die Daten – demnächst dürfte es wieder so weit sein.

Über den genauen Algorithmus und die Zeitpunkte der Updates hält sich der Suchmaschinengigant sehr bedeckt. Ein deutliches Anzeichen für ein in Bälde bevorstehendes Update sind kurzfristige Pagerank-Schwankungen, denn Google betreibt mehrere Datacenter, die nicht alle gleichzeitig mit den neuen Daten versorgt werden. Wer sich nicht auf König Zufall verlassen will, dem hilft dieses praktische SEO-Tool, das eine ganze Reihe von Datencentern abfragt und über allfällige Divergenzen informiert. [via Dimido]

Hintergrund zum Pagerank

Wie ein ungetauftes Baby ist eine neue Seite schutzlos allein Teufeleien des Netzes ausgesetzt: erst wenn der Webmaster der dunklen Seite der Macht (zumindest scheinbar) abschwört und alles weitgehend so macht, wie Big G das für richtig hält, bekommt die neue http:// Adresse einen Rank von 0, vorher hat sie gar keinen. Damit der weiter steigt, müssen möglichst viele andere Seiten mit möglichst hohem Pagerank auf die Ursprungsseite verlinken – in der Theorie nimmt der Pagerank pro Verlinkung um den Betrag eins ab, das heißt: eine PR6-Seite, die auf eine PR4-Seite linkt, „vererbt“ dieser eine Pagerank von fünf. Wie der erste Pagerank entstanden ist, weiß aber nur der Erfinder, dafür muss sich die ganze Netzwelt mit Googles eigenwilligem Maßfaktor herumschlagen.

Exzellente weiterführende Infos zum (ursprünglichen) Pagerank Algorithmus finden sich bei efactory, in der Wikipedia und beim Suchmaschinen-Doktor. Auf die kürzestmögliche Formel gebracht:

PR(A) = (1-d) + d (PR(T1)/C(T1) + … + PR(Tn)/C(Tn))

Hierbei ist:
PR(A) der PageRank einer Seite A, PR(Ti) der PageRank der Seiten Ti, von denen ein Link auf die Seite A zeigt, C(Ti) die Gesamtanzahl der Links auf Seite Ti und d ein Dämpfungsfaktor (Damping Factor), wobei 0

Dazu kommen noch einige Besonderheiten wie etwa die Anzahl der Links und ein sogenannter „Dämpfungsfaktor“, der wohl mit der „Vertrauenswürdigkeit“ einer Seite, worin auch immer die bestehen mag, zusammenhängt:

Der PageRank der Seiten Ti, die auf eine Seite A verlinken, fließt nicht gleichmäßig in den PageRank von Seite A ein. Der PageRank einer Seiten T wird stets anhand der Anzahl C(T) der von Seite T ausgehenden Links gewichtet. Das bedeutet, dass je mehr ausgehende Links eine Seite T hat, umso weniger PageRank gibt sie an Seite A weiter. Schließlich wird die Summe der gewichteten PageRanks der Seiten Ti mit dem Dämpfungsfaktor d, der stets zwischen 0 und 1 liegt multipliziert. Hierdurch wird das Ausmaß der Weitergabe des PageRanks von einer Seite auf einer andere verringert.

Grau ist ohnehin alle Theorie, und komplex die Praxis: im Gegensatz zur Meinung vieler Webmaster ist der Page Rank kein Kriterium, das über die Reihung bei Google entscheidet, sondern vielmehr ein Indikator unter mehreren für die Suchmaschinenplatzierung bei Google. Was den Pagerank wirklich wichtig macht, sind diverse Drittanbieter: Dienste wie Linklift, Text-Link-Ads oder Trigami setzen den Wert eines Backlinks bzw. eines Beitrags unter anderem oder sogar primär nach der Höhe des Pageranks fest. Ein Pagerank-Update von 5 auf 6 etwa führt mit drastisch erhöhten Preisen bei Linklift durchaus zu Einkommenszunahmen von mehreren 100 oder 1000 Euros pro Jahr.

Reichten vor wenigen Jahren noch simple Spam-Kataloge, um Google zu verwirren, so haben die Algorithmus-Nerds die ganze Sache in den letzten Jahren immer weiter verbessert. Von Manipulations-Sicherheit zu sprechen wäre zwar grenzenlose Übertreibung – man muss die Backlinks bloß besser verstecken als früher… Aber wie man’s auch dreht und wendet: letztlich ist der ganze Pagerank-Hype verantwortlich für einen Großteil gängiger SEO-Maßnahmen. Und weil die Berechnung wie jeder anständige Algorithmus auf einer exponentiellen Skala beruht, wird die Luft von Pagerank zu Pagerank immer dünner, und die Anzahl der benötigten Backlinks immer größer.

Die Kernidee des Algorithmus, dass jene Seiten, auf die viele andere Adressen verweisen, irgendwie wichtig sein müssen, leuchtet sofort ein. In einer perfekten Welt gäbe es keine Manipulation, und das Wahre Schöne Gute schaffte es ganz von allein, sich durchzusetzen. Aber die Konkurrenz schläft nun mal nicht, und so arbeiten viele Webmaster mit mehr oder weniger radikalen Methoden zur gezielten Pagerank-Manipulation – auf Dauer allerdings lassen sich „organische“, also echte Backlinks von gut besuchten und schon lange existierenden Seiten durch nichts – aber auch wirklich gar nichts – ersetzen. Also läuft’s schon wieder auf die alte Formel hinaus: interessante Inhalte veröffentlichen, auf Interesse hoffen und Daumen drücken vorm Pagerank Update…