Beiträge

ds Videopodcast #2: WordPress und das nofollow-Attribut

Das nofollow-Attribut wurde von Google eingeführt, um die gezielte Beeinflussung des Pagerank-Algorithmus durch Spammer zu erschweren. Dabei kann sein Einsatz durchwegs kontraproduktiv sein – im zweiten Videopodcast gibt’s für WordPress-Blogger dazu einige Anregungen.

YouTube Preview Image

Links: Für WordPress exisitieren verschiedenste Plugins, die nofollow entweder ganz abdrehen oder gezielte Einstellungen erlauben: WP-Nofollow, Dofollow und Nofollow Case-by-Case gehörten zu den beliebtesten Lösungen.

An Feedback und Themenwünschen für zukünftige Folgen bin ich natürlich sehr interessiert! In diesem Sinne: schönen Blog-Wochenbeginn.

Hallimash: für Cash bloggen

hallimashtrigami bekommt Konkurrenz im deutschsprachigen Raum: mit Hallimash tritt ein neuer Anbieter auf den Plan, der sich dem gleichen Business-Modell widmet: Blogger werden dafür bezahlt, Produkte zu rezensieren. Wie die Schweizer Konkurrenz setzt Hallimash auf Transparenz und verlangt eine deutliche Kennzeichnung aller Postings – im Gegensatz zu den meisten US-Anbietern, die nicht in erster Linie Reviews, sondern versteckte Backlinks verkaufen:

Selbstverständlich sind Sie beim Verfassen Ihrer Rezensionen (posts) in Ihrer Meinung frei und unabhängig, die Einhaltung unseres Verhaltenscodex ist jedoch Ehrensache. Blog Marketing muss transparent sein! Ihre Rezensionen (posts) müssen stets eindeutig und klar erkennbar als “Dies ist ein durch hallimash vermittelter, honorierter Eintrag” veröffentlicht werden.

Der Preisrange bewegt sich dabei auf gewohntem Niveau: je nach Bloggröße und -bekanntheit legt der Auftraggeber für eine Rezension derzeit zwischen 10 und 300 Euro ab. Über die nofollow-Thematik habe ich im oben erwähnten Verhaltenscodex keine konkreten Informationen gefunden – ein Absatz deutet allerdings darauf hin, dass die Entscheidung den Bloggern selbst überlassen bleibt:

Hallimash selbst wird Sie in keinster Weise darin beschränken, wie Sie Ihre eigene, ehrliche Meinung, Ihre Erfahrungen oder Ihre Gedanken zu einem Produkt, einer Dienstleistung oder einem Unternehmen veröffentlichen.

Der Erfolg einer solchen Plattform steht und fällt mit der Zahl der etablierten Kampagnen – ich habe mich mal registriert und datenschmutz eingetragen und bin neugierig auf die eintrudelnden Angebote. Blogpay und Reviewme.com taugen wenig für deutschsprachige Blogs; nur in seltenen Ausnahmefällen tauchen Angebot für non-en Blogs auf. Die Rate von Blogpay hab ich nicht im Kopf, Reviewme nimmt allerdings happige 50% für die Vermittlungstätigkeit – meiner Meinung nach viel zu viel. Hallimash behält ebenso wie trigami 30% ein und bezahlt 70% des Auftragsvolumens an die beteiligten Blogger aus. Ein Partnerprogramm wird ebenfalls angeboten, die Höhe der Vergütung richtet sich nach der Einstufung des geworbenen Blogs:

Wählen Sie einfach eins der unten aufgeführten Werbemittel aus und binden Sie den HTML-Code, wie abgebildet, komplett an der entsprechenden Stelle in Ihrem Blog ein. Für jeden über dieses Werbemittel neu registrierten Blog in unserem System, schreiben wir Ihnen eine einmalige Provision von EUR 5,- bis EUR 55,- auf Ihrem hallimash-Konto gut, sobald dieser seine erste Rezension geschrieben hat.

datenschmutz ist jedenfalls mal eingetragen – genaueres weiß ich nach der Freischaltung. Prinzipiell find ich’s sehr sinnvoll, bei möglichst vielen solchen Brokern registriert zu sein: denn je mehr Aufträge eintrudeln, umso besser kann man sich die Perlen rauspicken.

Robots.txt Tricks für WordPress-Blogs

Mittlerweile existieren für WordPress zahlreiche Plugins, die sich des Problems “Duplicate Content” annehmen. Google mag’s nämlich ganz und gar nicht, wenn ein- und dieselben Inhalte unter der gleichen Adresse abzurufen sind und reagiert mit Abwertung.

Dass der duplicate content in den letzten Monaten gesteigerte Bedeutung erlangte, hat nicht zuletzt mit der steigenden Verbreitung von Splogs, also Spam-Blogs, zu tun*. Man muss jedenfalls eine Menge Vorkehrungen treffen, damit unter der eigenen Domain jeder Artikel nur einmal aufscheint. Duplicate Content Cure oder Meta Robots lösen die gröbsten Troubles (ich verwende beide Erweiterungen), effektivere Resultate erreicht man mit der direkten Aussperren von Bots in der robots.txt: diese Datei liegt gemeinhin im Rootverzeichnis und enthält Anweisungen für Crawler – und die Big Three (Google, MS, Yahoo) halten sich auch dran.

Word of Warning: Mit Manipulationen an der robots.txt-Datei kann man sich eine gut funktionierende SERP-Struktur im Nu abfucken. Außerdem spielt die Frage, ob man z.B. in der Tag- und Category-Ansicht Exzerpte verwendet eine beträchtliche Rolle – ebenso wie die Entscheidung, welche Einzelpages gut indiziert werden sollen. An Impressum und Kontaktformular möchte ich z.B. lieber keinen Linkjuice verschwenden. In solchen Fällen machen interne nofollow-Links hochgradig Sinn, aber das ist eine andere SEO-Geschichte und soll ein andermal erzählt werden…

Word of even more Warning: Die nachfolgende angegebenen Tipps beziehen sich auf *meine* Permalinkstruktur. Wer keine sprechenden Permalinks verwendet oder stark abweichende Einstellungen, kann mit den folgenden php-Wildcards Crawlern den Zugriff auf Beiträge komplett verunmöglichen. Also in jedem Fall ein Backup der robots-Datei anlegen und testen, testen, testen! Sehr hilfreich dabei: das kürzlich erwähnte Crawler-Tracker Plugin.

Exclusions im robots.txt

Einige reguläre Ausdrücke sind im robots.txt erlaubt, $ steht in Regex-Terminologie dabei für das Ende des Dateinamens. Die Syntax “.php$” erfasst also alle Dateien, die auf *.php enden. Man kann damit zum Beispiel den Crawler-Zugriff auf alle pdfs, exe-Dateien und Bilder sperren:

Disallow: /*.pdf$
Disallow: /*.jpeg$
Disallow: /*.jpg$
Disallow: /*.gif$
Disallow: /*.png$
Disallow: /*.exe$

Daraus ergeben sich zahlreiche weitere Möglichkeiten, die man ja nach eigener Präferenz frei kombinieren kann:

Disallow: /*? – alle URLs mit Fragezeichen drin werden geblockt. Kann natürlich nur dann verwendet werden, wenn in den Standard-URLs kein Fragezeichen vorkommt.

Disallow: /*.php$ – blockiert alle php-Files
Disallow: /*.inc$ – verhindert den Zugriff auf include-Dateien.
Disallow: /*.css$ – verbirgt Stylesheet-Dateien (falls mehr als eine in Verwendung ist.)
Disallow: */feed/ – verhindert das Einlesen des Feeds.
Disallow: */trackback/ – verhindert das Indizieren der Trackback-URLs.
Disallow: /tag/ – Tag-Pages ausschließen
Disallow: /category/ – Kategorie-Seiten ausschließen.
Disallow: /2006/ – Disallow: /2007/ – Disallow: /2008/ – Zugriff auf Jahresarchive verbieten

Möchte man nun aus irgendwelchen Gründen den Zugriff auf eine der oben ausgeschlossenen Seite explizit erlauben, kommt dazu folgende Syntax zum Einsatz:

Allow: /category/meineseite.php – erlaubt den Zugriff auf die angegebene Adresse, auch wenn /category/ als Pfad gesperrt ist.

Sollte man nun besser die oben angegebenen Plugins oder die robots.txt-Methode verwenden? Um die Unterschiede zu verstehen, muss man ein weniger tiefer in SEO-Welten abtauchen: während die beschriebenen Plugins die von Google vorgesehene Syntax noindex bzw. nofollow in den Header der betreffenden Dateien einfügen, sorgt die robots.txt-Variante dafür, dass überhaupt nie auf die betreffenden Seiten zugegriffen wird. Ob die beiden Varianten in der Praxis einen Unterschied machen, darüber streiten derzeit die SEO-Experten – siehe auch die Diskussion zum betreffenden Eintrag bei Shoemoney.

Außerdem ist davon auszugehen, dass Google mittlerweile WP-Installationen erkennt und selbst Vorkehrungen gegen Duplicate Content trifft – aber diese Gleichung enthält eine Menge Variablen, und nachteilig ist’s ganz gewiss nicht, wenn man sich als Seitenbetreiber selbst drum kümmert, dass der Crawler ausschließlich unique content serviert bekommt.


* Viele Scraper stehlen einfach automatisiert Inhalte von anderen Blogs und schicken dann auch noch Trackbacks. Die Beiträge beginnen immer mit “xy wrote an interesting article today:” Dürfte wohl irgendeine Scraper-Software from Hell sein. Beruhigend zu wissen ist nur, dass solche “Strategien” langfristig niemals aufgehen.

Ich fälsche also Besucherzahlen…

…behauptet itstoolong. Und nachdem mein Kommentar dort trotz Captcha in der Mod-Schleife landet, kann ich das nicht unwidersprochen hinnehmen. Obwohl: schön wär’s ja, wenn ich derlei über-digitale Fähigkeiten besäße – aber mir das zuzutrauen, ist nun wirklich zu viel der Ehre. Leider weiß ich wirklich nicht, wie man Analytics austrixxen sollte.

Die Überschrift Zu wenige Leser – Blogger fälscht Besucherzahlen ist wohl einer Mischung aus Gehässigkeit und mangelnder Sachkenntnis zuzurechnen. Es geht nämlich um den sogenannten Mogelversuch, der zwar schon einen langen Bart hat, aber dennoch: der Manipulationsvorwurf bezog sich auf die Technorati-Authority, was doch ein gar nicht kleiner, aber umso feinerer Unterschied ist. Wenn nun itstoolong schon nicht in der Lage ist, zwischen den beiden Parametern zu unterscheiden, dann sollte ich seinen Beitrag eigentlich nicht ernst nehmen – schad’ um den nofollow-Link. Aber wie heißt’s nochmal so schön in der Bibel? “Den Schweinen verbiegt der Herr ein Schaf”, oder?

Und was die “zuwenigen Leser” betrifft: erstens bitteschön LeserInnen und zweitens: kann man denn wirklich “genug” BlogleserInnen haben? Also ich nicht. Zwar freu ich mich mittlerweile durchaus über die 2000+ Unique Clients am Tag, aber gegen 10k oder 100k hätt ich, um ehrlich zu sein, auch nicht das Geringste. Insofern: ja, gut erkannt, ich hab zu wenig LeserInnen. Und daran wird sich auch trotz Aufwärtstrend bei den Zugriffen nie was ändern.

Die Blogi***eljaged spammt sich quer durchs Netz – 1 Pamphlet über Blogs

ds StammleserInnen wissen, dass der Autor dieses Blogs, also meine Wenigkeit, exzessiver gegenseitiger Verlinkung zwischen Bloggern ganz und gar nicht abgeneigt ist. So sehr ich nix für real-life Karnevale übrig habe, so sehr mag ich Blogparaden. Die nächste Technorati-Kette? Count me in. Aber wenn Start-Ups aufdringliche Gewinnspiele mit Verlinkungspflicht einführen, dann find ich das nicht besonders originell.

Das Uri Geller Tricks aufgedeckt Blog, beschreibt die Mechanik des Spiels kurz und knapp:

5 Webseiten (Hitflip, MyVideo, Erento, verwandt.de und Hitmeister) haben zusammen ein Gewinnspiel mit unglaublichen Preisen ausgedacht: Man muss als Besitzer einer Webseite / eines Blogs einen Beitrag schreiben, wo die 5 versteckten Logos auf den 5 Webseiten sind. Dann schreibt man noch etwas über das ganze, gibt einen Kommentar auf der Gewinnspiel-Seite ab, und schon ist man dabei!

Lustig auch die TNBs:

  1. Wenn man mehrere Blogs / Homepages hat, kann man auch mit mehreren mitmachen. Jeder Blog / jede Homepages zählt als ein “Los” für das Gewinnspiel.
  2. Nofollow und Affiliate-Links sind OK und schließen nicht von der Teilnahme aus.
  3. Die Kommentare und Trackbacks sind Nofollow-frei so das die Blog**zeljagd auch SEOs Spaß machen sollte.

Punkt 1 ist klar, Punkt 2 verdient nähere Betrachtung: die alte These “nofollow Links sind nicht völlig irrelevant beim Google-Ranking” ist komplett richtig; seit dem letzten Update hat Google entweder einige Anpassungen am Algorithmus durchgeführt oder lässt händisch korrigieren (ich tippe eher auf ersteres), dass nofollow-Links mittlerweile das Ranking beeinflussen, sollte eigentlich jeder SEO sehen können, der Augen im Kopf und Spaß an Experimenten hat. Punkt 3 dagegen verblüfft: eine nofollow-Trackback Link von einer Aggregatorseiten mit am Ende +100 Outgoings bringt in der Tat nix… aber das sind schon die Feinheiten, back to basics:

Wie schon in der Einleitung angedeutet, find ich’s fein, wenn sich BloggerInnen gegenseitig Verlinkung. Im Gegensatz zu allen “Alteingesessenen”, die davon überzeugt sind, die Moralgesetze der Blogosphäre höchstselbst fest in Stein gemeißelt zu haben, glaube ich steif und fest daran, dass die Grenze zwischen thematisch motiviertem Backlink und Selbstzweck eine extrem fließende ist… panta rhei eben. Aber dieser Grund ist bei weitem nicht der einzige: seit wir Early Adopters uns im Internet rumtreiben, reden wir davon, dass das Netz Chancengleichheit für alle bietet… diesem hehren Ideal stehen breite ökonomische Hürden entgegen, aber zumindest in einem winzig kleinen Bereichen haben Open Source (Blog)Publishing Systeme die Karten zwischen “professionellen” Medienhäusern und One-Woman/Man-Show-BloggerInnen definitiv neu verteilt: jede/r InternetUserIn kann publizieren und mit der nötigen Ausdauer und Bereitschaft zum Lernen ein unglaublich großes Publikum finden. Dass mittlerweile dank hochbezahlter SEO-Agenturen old school Bewerber in der Ökonomie der Aufmerksamkeit finanzielle Mittel haben, um clevere Early Adopters auszustechen, spricht in meinen Augen dafür, dass letzere sich gegenseitig unterstützen. Das ist (neben einem stark florierenden Interesse am Geschreibsel der anderen) einer Hauptgründe für meine Serie “Blogvorstellungen”… und genau aus diesem Grund sehen die TNBs meiner eigenen Gewinnspiele auch Extra-Chancen für Co-Blogger vor, die drüber schreiben, und eben deswegen trage ich zu allen virtuellen Galas stolz meine Blogpiraten-Kapitänsmütze. “It’s a thin line between love and rape”, wie Public Enemy weiland am großartigsten ihrer Alben mal so treffen rappten.

Bei besagter Blogitz*ljagd jedenfalls geht’s nicht nur darum, dass alle auf die fünf Veranstalter verlinken, auf deren Seiten ist auch noch das Logo versteckt – selbiges zu suchen, soll den beteiligten SchreiberInnen “Spaß” machen (und auf Seiten der Sponsoren ein paar Ad Impressions und Pageviews generieren). Ich alter Sack schreib zwar immer noch beim gap (obwohl meine Kolumne letzthin von der Chefredaktion als “unverständlich” bezeichnet wurde), hab aber selbstverständlich keinerlei Ahnung von der Jugend von heute und alle meine jüngeren Kumpels sind offensichtlich hochgradig unrepräsentativ: meine und deren Vorstellung von Spaß ist eine andere als Logos auf Webseiten zu suchen – da lob ich mir doch direkt mein OneTrack auf Facebook. Wie auch immer: Scheiß auf den EiPod Tatsch – ich bewirb mich mit diesem Beitrag hiermit offizielle für den Meinungsmacher Spezialpreis.
Ach ja, darum geht’s.

Top-KommentatorInnen: PR5 Backlink abstauben

Vor einiger Zeit habe ich auf der datenschmutz Startseite das Top Commentators Plugin eingebaut: es zeigt auf der Startseite eine dynamisch generierte Liste jener 10 datenschmutz BesucherInnen an, die in den letzten 30 Tagen die meisten Kommentare gepostet haben – unabhängig davon, ob der betreffende User am Blog registriert ist.

Die Usernamen sind dabei mit der vom Kommentator eingetragenen Homepage verlinkt, selbstverständlich ohne nofollow und Google-lesbar. Zwar verwende ich, wie schon mehrmals erwähnt, auch für die normalen Kommentare kein nofollow. (Frank, Elias, Christian, Thorsten und das Bloggeramt sehen die Sache übrigens ganz ähnlich.)

Freilich hat nur die Startseite Pagerank 5 – und sollte damit speziell für SEO-beachte Webmaster besonders attraktiv sein. Mit nur drei Kommentaren innerhalb eines Monats ist man derzeit dabei, und ich bin durchaus überrascht darüber, dass nicht mehr Gerangel um die Gratis-Startseitenlinks herrscht :-)

Natürlich will ich niemanden auffordern, um des Backlinks willen zu posten; wer inhaltlich nix zur Diskussion beizutragen hat und nur Linkspamming betreibt, wird dafür natürlich nicht belohnt. Andererseits sind Kommentare eine der wichtigsten Ingredienzien des Bloggens, und StammleserInnen, die sich regelmäßig aktiv beteiligen, sollten dafür natürlich belohnt werden – daher halte ich die Top Commentator Liste auch für ein geniales Plugin. Die meisten Untersuchungen gehen ja davon aus – und meine Erfahrungen hier auf datenschmutz bestätigen das absolut – dass in der Blogosphäre weit über 99% der BlogleserInnen passiv “lurken”, also niemals einen Kommentar hinterlassen. Da datenschmutz aufgrund der vielen Web 2.0 affinen Beiträge aber eine überdurchschnittlich hohe Dichte an Co-BloggerInnen innerhalb der Leserschaft aufweist, möchte ich die Gelegenheit beim Zopf ergreifen und nochmal explizit darauf hinweisen, dass es ganz einfach ist, in die prominent platzierte Topliste reinzukommen.

10 große Alphablogger: …da waren’s nur noch 9

Da waren’s nur noch neun. Yup, das mittlerweile unsingbare Kinderlied hat mich zu einer kleinen, rein fiktiven Ode inspiriert. Sprache ist ein fluides Ding, immer im Wandel, und zum Glück (dieses Gefühl habe ich zumindest) hat sich in punkto Rassismus-Sensibiltität in den letzten Jahren viel Positives getan.

Mag sein, dass ich mich in einem unrepräsentativen Umfeld bewege, aber “Negerbrot”, das vor weniger als 10 Jahren in österreichischen Supermärkten im Regal stand, würde heute niemand mehr verkaufen. Wir haben den bewussten Abzählt-Reim-Song damals vor 1000 Jahren in meiner Kindheit jung, naiv und ohne böse Hintergedanken gesungen und auch eigene Varianten erdichtet. “10 kleine Negerlein” wird wohl mittlerweile hoffentlich in keinem Kinder-Gesangsbuch mehr abgedruckt sein. Das Original stammt übrigens aus den USA (siehe Wikipedia) und inspirierte Agatha Christie zu ihrem gleichnamigen Romantitel.

Wie auch immer: sprachliche Rassismen sind Scheiße, der Sprachrhythmus und die Idee des Runterzählens sind aber trotzdem genial, also hab ich mir erlaubt, aus den originalen Protagonisten 10 große Alphablogger zu machen. Müsste korrekterweise natürlich BloggerInnen heißen, aber in dem Fall stört’s den Flow empfindlich. Aber es reimt sich, also muss es Literatur sein, und die widersetzt sich hier einmal mehr hartnäckig gesellchaftlichen Utopien. Außerdem sterben die Alphablogger auch nicht auf martialisch-explizite Weise, sondern werden einfach zu Beta-Bloggern. Wie gesagt: Freiheit der Kunst und so, rein erfunden, fiktiv, ohne jeglichen Bezug zum jenem kollektiven Konstrukt, das manche von uns Realität und wieder andere Wirklichkeit nennen :-)

10 große Alphablogger konnten sich an tausenden Besuchern freun’n –
einer verkaufte Linklift Links, da waren’s nur noch neun.

9 große Alphablogger haben für trigami Reviews gemacht –
einer hat nofollow vergessen, da waren’s nur noch acht.

8 große Alphablogger wollten, dass ihre Leser sie lieben –
einer hat’s mit Uri Geller übertrieben: da waren’s nur noch sieben.

7 großte Alphablogger tranken ein paar Shots auf Ex –
einer hat Fotos auf Facebook gestellt, da waren’s nur noch sechs.

6 große Alphablogger schrieben über Supermodels und ihre Strümpf’ –
einer hat pornographische Bilder gepostet, da waren’s nur noch fünf.

5 große Alphablogger kannten ihr Revier –
einer schrieb zu deviant, da waren’s nur noch vier.

4 große Alphablogger hassten den Einheitsbrei –
einer wechselte zur FAZ, da waren’s nur noch drei.

3 große Alphablogger dissten Konken und fühlten sich frei –
einen hat er wegen übler Nachrede verklagt, da waren’s nur noch zwei.

2 große Alphablogger sagten: groß wird neben uns keiner!
der das sagte, hatte einen Servercrash, da war’s nur noch einer.

1 großer Alphablogger wollte seine Erfolge iterieren –
doch das gelang ihm nicht, er hatte ja niemaden mehr zum Kopieren.

trigami von der anderen Seite kennenlernen

trigamiAls Blogger bin ich ja schon längere Zeit bei trigami aktiv und war immer sehr zufrieden mit Auftragsabwicklung und Service des Schweizer Dienstleisters. Dieser Tage habe ich das System erstmals von der anderen Seite kennen gelernt und meine erste Kampagne als Auftraggeber eingestellt.

Ich halte trigami für ein sehr gut funktionierendes und kostenmäßig enorm effizientes Marketingtool – daher empfehle ich meinen Kunden bei allen Themen, wo verstärkte Blog-Präsenz Sinn macht, entsprechende Kampagnen zu schalten. Der Eindruck, den ich bisher von trigami hatte, bestätigte sich vollauf: kompetente Beratung, hervorragender Service und allfällige kleinere Unklarheiten sind schnell aus dem Weg geräumt… irgendwie scheint das mit der Schweizer Präzision wohl doch kein bloßes Klischee zu sein.

Einige bloggende KollegInnen halten trigami aus ganz unterschiedlichen Gründen für die Ausgeburt des Online-Leibhaftigen schlechthin. Meine Meinung dazu ist ganz schnell erklärt: wer sein Blog werbefrei halten möchte, dem steht der Verzicht auf trigami ja sowieso frei, aber letztlich urteilen die LeserInnen. Und irgendwie hab ich die Steintafel, auf der steht, dass Weblogs non-commercial media sein sollten, übersehen. Aber ich vermute ohnehin stark, dass ich als Teilzeitjournalist und seit 15 Jahren bezahlter Schreiberling generell weniger Probleme mit bezahlten Rezes habe als so mancher Idealist.

Aber wie auch immer, wirklich ärgerlich war für viele Blogger der kürzlich erfolgte Pagerank-Verlust. Zahlreiche Trigamisten (hehe! neues Fav-Word) wurden abgewertet oder erhielten gar einen Pagerank von Null komma nada. trigami reagierte souverän und schreibt ab sofort in allen Kennzeichnungen und Rezensionen das nofollow-Attribut vor, wie Remo Uherek in einer Aussendung bekannt gab:

In naher Zukunft werden wir unsere Regeln und Richtlinien diesbezüglich aktualisieren. Per sofort wird im Briefing aller neuen Kampagnen eine Passage hinzugefügt, dass die teilnehmenden Blogger alle Links mit “nofollow” zu kennzeichnen haben.

Bislang durften die Blogger selbst entscheiden, ob sie die nofollow-Kennzeichnung verwenden oder nicht. Ich halte diese Vorgehensweise ebenso wie Remo grundsätzlich für absolut ausreichend – zumal ich selbst durch einige Reviews auf Services gestoßen bin, die auch ohne Bezahlung verlinken würde, wie zum Beispiel LaFraise. Aber Google macht nun mal die Regeln und will strikte Trennung bezahlter Links.

Allen ge-google-nullten BloggerInnen empfiehlt trigami den nachträglichen nofollow-Einbau und die anschließende reumütige Bekanntgabe via Webmaster Tools – bei Angi und Conny hat die Zauberkur bereits gewirkt.

Das neue Modell hat noch einen weiteren unbestreitbaren Vorteil: dem Vorwurf der versteckten Linkhändlerei, wird sich trigami in Zukunft nicht mehr ausgesetzt sehen. Die Kampagnen richten sich sowieso primär an menschliche LeserInnen, nicht an Suchmaschinenalgorithmen: und da Blogs im deutschen Sprachraum einen zwar noch kleinen, aber deutlich zunehmenden Anteil vom Medienkuchen ausmachen, reicht diese Zielgruppe an Attraktivität für Werbekunden meiner Meinung nach völlig aus.

SL: Wong-Werbung statt Mercedes-Schlitten

Seit einigen Wochen vercheckt der virtuelle Asiate, dem schon mal rassistische Verunglimpfung vorgeworfen wurde, über die Seite Wong SL Textanzeigen, die direkt oberhalb der Tags angezeigt werden.

Wong SL steht dabei keineswegs für “super lame”. Zwar dürften in erster Linie (Möchtegern) SEOs für die hektische Aktivität auf der an sich lahmen und nutzerunfreundlichen Bookmarking-Plattform verantwortlich sein (schöne Grüße an die Beschreibungstext-Begrenzung!), aber immerhin kann man der Seite eine gewissen kritische Masse nicht absprechen. Dennoch büßte der Service seit der Einführung von nofollow nicht nur für Spammerlinge deutliche an Attraktivität ein.

Dafür plante man ursprünglich die wertvollen sm-lesbaren Links über besagte Wong SL Seite zu verkaufen, kam aber von dem Plan wohl aufgrund von Googles Anti-Linkkauf-Kreuzzug schnell wieder ab. So wurde nix aus dem schönen Plan “Monetarisierung gut indizierter Tagseiten”, das nofollow purzelte und die Anzeigenpreise ebenfalls:

Die Preise wurden radikal gesenkt. Ich zahle für meinen Link jetzt statt 56,- Euro nur noch 3,48 Euro.
[...]
Die Preise liegen je nach Traffic für eine 30-Tage-Buchung zwischen 0,99 Euro und 120 Euro.

Somit wandelte sich der Werbeservice sozusagen zum inhouse AdWords System. Auf Dauer, so geht die Fama um, wolle man sich nicht auf eigene 3-Mio-User/Monat Plattform konzentrieren, sondern auch anderen Web 2.0 Plattformen das Googlewasser abgraben den eigenen Vermarktungsservice schmackhaft machen.

Google mit neuen Spielregeln

Vor einigen Wochen sorgte das aktuelle Google Pagerank-Update für Aufregung unter Webmastern: erstmals reagiert die größte Suchmaschine der Welt auf das Businessfeld “Linkverkauf” mit Straf-Maßnahmen. [Ö1 Netzkulturkolumne, zuerst veröffentlicht auf oe1.orf.at]

Maßgeblich mitverantwortlich für den Erfolg der Suchmaschine, deren Slogan “Do no evil” schon längst nicht mehr unwidersprochen stehen bleibt, ist der sogenannte Pagerank-Algorithmus. Google bemisst die Wichtigkeit einer Seite an den eingehenden Links: je mehr themenaffine Seiten auf eine bestimmte Adresse verweisen, desto höher deren Relevanz – und die wirkt sich wiederum auf den die Platzierung in den Suchergebnissen aus. Da die überwiegende Mehrheit der Surfer bei der Websuche erst gar nicht auf die zweite Ergebnisseite navigiert, kommt einer Platzierung möglichst weit entsprechend große Bedeutung zu.

Google aktualisiert die weltweiten verteilten Datenbanken ständig, errechnet allerdings in mehr oder weniger regelmäßigen Abständen – bislang zumeist viermal pro Jahr – eine Maßzahl, welche Auskunft geben soll über die Wertigkeit einer Seite. Daraus resultiert der sogenannte “Pagerank”, eine Zahl zwischen 0 und 10, die auf einen Blick die Bedeutung einer Webadresse verraten soll. Seiten mit hohem Pagerank “vererben” einen Teil ihrer Google-Relevanz, wenn sie auf andere Seiten verlinken. Dieses Prinzip stellt seit Jahren die Basis von Googles Businesserfolg dar. Doch mit steigender Bedeutung der Onlinewirtschaft wurden die Methoden zur Manipulation des Pagerank immer ausgefeilter und ein neues Businessmodell erblickte das Licht der Netzwelt: sogenannte Link Trader schufen Online-Marktplätze für die “Linkvermietung”. Wer bereits eine gut indizierte und bewertete Seite betreibt, kann gegen ein monatliches Entgelt dort Links publizieren, der Preis richtet sich dabei nach dem Pagerank der Seite. Diese Form der Online-Werbung richtet sich keineswegs an die menschlichen Besucher einer Webseite, sondern soll ihr lediglich zu einer besseren Google-Platzierung verhelfen.

Im deutschen Sprachraum machten Anbieter wie Teliad oder Linklift dieses Vermietungsbusiness zu einer attraktiven Einnahmequelle, die vor allem Bloggern häufig ein höheres monatliches Einkommen sicherte, also über klassische Online-Werbung möglich wäre – und wurde damit zur Konkurrenz für Adsense, Googles monetäres Zugpferd.

Das Adsense Geschäftsmodell

Die größte Suchmaschine der Welt deckt in der westlichen Welt rund 90% aller privaten Suchanfragen ab. Das eigentliche Kerngeschäft des Konzerns ist jedoch die Vermarktung der Adsense-Werbung: mit diesem Produkt revolutionierte Google vor Jahren den Online-Werbemarkt und löste Bannerschaltungen durch die sogenannte CPC (Cost per Click) Werbung ab. Kunden, die Google Adsense Anzeigen schalten, müssen sich nicht um die Auswahl geeigneter Werbeseiten kümmern: Adsense findet thematisch passende Webseiten und schaltet die eigenen Anzeigen automatisch. Für die bloße Anzeige fallen keine Kosten an, der Kunde bezahlt erst dann, wenn ein Surfer auch tatsächlich auf die Anzeige klickt.

Die Links in Adsense-Anzeigen sind mit dem Attribut “nofollow” gekennzeichnet, was sie für Suchmaschinen “unsichtbar” macht, denn Google möchte sein eigenes Bewertungskonzept nicht durch bezahlte Werbeanzeigen verfälschen. Die oben beschriebene Vermietung von Links verbietet Google in seinen Nutzungsbedingungen. Aufgrund der starken marktbeherrschenden Situation des Anbieters wagen es die wenigsten Webmaster, die Spielregeln des Branchenprimus zu brechen und halten sich an die Vorgaben. Wer das nicht tat, erlebte beim aktuellen Pagerank eine böse Überraschung: zwar existiert wie stets keine aktuelle Stellungnahme, dennoch deuten alle Anzeichen darauf hin, dass sämtliche “Linkverkäufer” durch einen um ein bis zwei Punkte niedrigeren Pagerank “bestraft” wurden.

Diese Vorgehensweise verringert nicht nur das Einkommen der betroffenen Blogger, sondern ist wohl auch als eine Art Warnung zu verstehen: wer die Spielregeln Googles nicht einhält, fliegt eben raus. Damit macht die aktuelle Pagerank-Runde vor allem eines deutlich: ist das Quasi-Monopol erst einmal zementiert, kann ein einzelner Player ohne viel Widerspruch die Spielregeln des gesamten Online-Marktes vorgeben. Ob dies der Netz-Ökonomie auf Dauer gut tut, ist mehr als fraglich.

Dofollow vs. Nofollow: Neues Plugin

Meine Meinung zur altbekannten dofollow vs. nofollow Debatte habe ich auf datenschmutz in der Vergangenheit wiederholt kund getan; was als Versuch der Spambekämpfung begann, ist gescheitert und hat in Blog-Kommentaren meistens nix verloren – schließlich sollen die BesucherInnen ja zum Kommentieren motiviert werden. Aber manchmal möchte man lieber doch ein “nofollow”, und hier kommt Nofollow Case by Case sehr gelegen.

Bisher habe ich das simple dofollow-Plugin verwendet: es killt das von WordPress standardmäßig eingefügt rel=”nofollow” – und zwar immer. Wie im richtigen Leben ist die Grenze zwischen “unvorstellbar nützlichem Diskussionsbeitrag” und “widerwärtigem Spam” eine fließende Grauzone. Und je länger ich blogge, desto häufiger tritt der Fall auf, dass ich Kommentare zwar nicht löschen, aber durchwegs selektiv mit nofollow versehen möchte. Und genau hier leistet mein Dofollow-Ersatz hervorragende Dienste. Warum man das Plugin überhaupt einsetzen möchte, erklärt der Autor am besten selbst:

In meinem Blog möchte ich gerne selbst entscheiden, wer einen Nofollow-Link bekommt und wer nicht. Anderenfalls ist man als Suchmaschinenoptimierer tendenziell dazu gezwungen, mehr Links zu löschen als einem lieb ist, nämlich immer dann, wenn ein ahnungsloser Besucher einen Kommentar hinterlässt, mit Verlinkung zu einer Website, die man als “schlechte Nachbarschaft” bezeichnen würde. Solche Links können der eigenen Website schaden und sind deshalb auf SEO-Seiten nicht gerade gern gesehen.
[...]
Doch nicht immer möchte man den Kommentar (oder den Link) deshalb gleich vollständig löschen. Nicht jeder faule Link ist Spam – manchmal hinterlassen die Spammer gleich mehrere Nachrichten, mit Links zu diversen Domains, wovon einige nicht unbedingt “schlecht” sind.
[...]
Daneben gibt es immer wieder Leute, die einem Nofollow-Trackbacks zukommen lassen. Meinetwegen. Sehr freundlich. Doch ab sofort bekommen diese Herrschaften auch einen entsprechenden Nofollow-Link zurück! ;-)

Die Anwendung ist denkbar simpel: wenn ein solcher Grenzfallkommentar oder Trackback ohne Backlink auftaucht, dann klickt man als eingeloggter Admin einfach auf “bearbeiten” und fügt hinten an den Link ein simples /dontfollow dran. Das hat den Effekt, dass bei dem editierten Kommentar das ansonsten ungeliebte relation=”nofollow” eingefügt wird. Standardmäßig verhält sich das Plugin genauso wie Dofollow, das nofollow-Attribut wird also entfernt.

Download: Nofollow case by case


[Hinweis für Inline-Editing User: Mit Ajax Edit Comments funktioniert das ganze übrigens nicht, was wohl mit dem String-Filtering zusammenhängt.]

Blogistan Panoptikum Woche 43 2k7

Stammleser dürften’s schon bemerkt haben: ich hab d/s ein Beitrags-Ratingsystem verpasst, nähere Details dazu in Kürze. Ansonsten neigt sich eine feiertagsbedingt kurze Woche unweigerlich ihrem Ende zu. Aber das Internet kennt bekanntlich keine Ladenschlusszeiten, und in Blogistan war wieder mal einiges los.

Österreich hat ein führendes Experten-Blog

expertenblogMan lernt nie aus – aber es kann nie schaden, Experte für Expertentum zu sein, wie der nachfolgende Adword-Screenshot, den mir Metty zukommen ließ, beweist. Dabei dachte ich immer GAs hätten eine so legendär niedrige Clickrate… aber wie auch immer: Technorati und Feedburner schweigen zur Causa.

Generika

Die bislang generischste Beschreibung eines Weblogs hab ich beim Webblog-Online gefunden: von der URL bis zum Titel (“Exklusives Weblog mit Infos”) wird das Aufgabengebiet klar umrissen – das nenn ich deutliche Missionsbeschreibung:

Dieser Weblog befasst sich mit vielen verschiedenen und interessanten Themen und Gebieten. Es soll sich daraus ein interessanter, grossdimensionaler Weblog ergeben.

Blogketten-Diskussion

2-Blog.net hat einen Kommentar zu unserer Technorati Aktion geschrieben und empfindet unsere Vorgehensweise als manipulativ, freut sich aber andererseits über Links in Themes:

Mein Technorati-Rank würde auch steigen, wenn ich nichts mehr schreiben würde, weil ich täglich Links von dem übersetzten Theme bekomme.

Jeder/m ihr/sein Plaisirchen, denk ich mir – und ich glaub nach wie vor, dass solche Aktionen gerade für neue, kleine Blogs ohne Werbebudget immens hilfreich sind… aber entscheiden Sie selbst :-)

Von journalistischem Ansehen

Die Geschichte des Ansehens von Journalisten in der Öffentlichkeit ist eine Geschichte voller Mistverständnisse. Eine der ersten Statistiken, mit denen wir beim IPK-Studium seinerzeit konfrontiert wurde, beschäftigte sich mit dem Ansehen verschiedener Berufsgruppen: Ärzte lagen recht weit vorne, Versicherungsmakler recht weit hinten – und Journalisten waren an letzter Stelle. Doch wie Bloch und Kaminski berichten, genießen wir bei inzwischen 47% der Bevölkerung hohes Ansehen – keine Ahnung, warum. Muss wohl irgendwie mit dem Fernsehen zu tun haben :-)

Der Plastikman spricht

Cpt. Shorty hat mich auf ein sehr lesenswertes Interview mit Richie Hawtin aka Plastikman hingewiesen: der Mitentwickler von Final Scratch sprach anlässlich des neuen Releases mit Matthew Smith:

Am 20. Oktober 2003 erscheint die nächste Fortsetzung von Richie Hawtins’ minimalistischem, psychodelisch angehauchtem und bekanntesten Projekt auf Novamute. Das neue Album heißt “Closer”, und Hawtin selbst bezeichnet es als sein bisher persönlichstes Werk.

Kommentare zum Pagerank Re-Adjustment

Das Pagerank Update des vorigen Wochenendes sorgte für Gesprächsstoff in Blogistan – und nach den ersten Reaktionen der Linkhändler dürfte klar sein, dass der Pagerank als Preisbemessungskriterium an Bedeutung verliert. So kündigte etwa Linklift an, zukünftig auf andere Faktoren zu achten, während Teliad nun auch Seiten ab PR2 statt PR3 vermarktet. Sistrix hat eine aufschlussreiche Pagerank-Verteilungsgrafik erstellt, Mediadonis hat einen sehr lesenswerten Kommentar geschrieben und stellt unter anderem die Frage, was denn eigentlich ein gekaufter Link sei:

Die Frage ist ja auch, was eigentlich ein gekaufter Link ist? Nur wenn Geld fließt? Wenn mir jemand einen Kasten Bier oder ein T-Shirt schickt, weil ihm unsere Sendung so gut gefällt, und ich dann dementsprechend drüber blogge – ist das nicht auf ein gekaufter Link? Ein Blogger hatte letzt einen Hilferuf gestartet, weil er aus einem bestimmten Grund unbedingt Geld auftreiben musste – ich habe ihm etwas gespendet, und bin in Folge dessen auf seinem Blog genannt worden – das war doch auch ein gekaufter Link, oder?

Und Blogging Tom wirft einen Blick in die Kristallkugel:

Doch wie geht es weiter? Werde ich wegen Googles Marktmacht in Zukunft auf bezahlte Textlinks verzichten? Werde ich Links sowohl in Beiträgen wie auch in der Sidebar nur noch mit einem “nofollow” veröffentlichen, um damit den Suchmaschinengoliath wieder etwas gnädiger zu stimmen?

Meiner Einschätzung nach besteht die mittelfristige Auswirkung primär in einer Entwertung des Pagerank: Google mag Monopolist sein, aber die kleinen U-Boote, die unter den AGBs durchtauchen, sind nun mal wendiger als der Platzhirsch. Aber wie auch immer man die aktuellen Geschehnisse auch interpretieren mag – eines steht fest: Michael hat die passenden Smilies dazu!

Grenzen sind zum Schützen Übertreten dar

…legt zumindest das Video der Woche nahe. Und beweist einmal mehr: Infrarotkameras haben neben ihrem militärischen Einsatzzweck auch ein Kreativpotential für die Verwertungskette Popkultur: young man, there’s no need to feel sad! [via Max] In diesem Sinne: fröhlichen Restsonntag und einen angenehmen Wochenbeginn!

YouTube Preview Image

Google Pagerank Downgrade und die Zukunft der Linkvermietung

Wie bereits erwähnt ist datenschmutz eines der stark von Matts Pagerank-Napalm-Teppich betroffenen Blogs. Das sich statt eines 6ers nun eine 3 habe, juckt mich nicht die Bohne: ich brauch keinen PageRank, LeserInnen reichen mir völlig aus. Und da ich einer Corporation, die als notwendig erachtet, “Do no evil” zu ihrem Wahlspruch zu erheben, aus Prinzip nicht traue, bin ich auch sehr froh darüber, dass Tante G besuchertechnisch für datenschmutz keinesfalls die Hauptwasserleitung darstellt.

Vorbei also die Zeiten, als sich die SEOs auf jedes neue PageRank Update freuten – ein paar Links gestreut, und schon ging’s weiter die Leiter rauf. Wer sich zu weit aus dem virtuellen Fenster lehnte (Hallo Blackhat!) bekam schon mal einen unfreundlichen Stupser, aber diesmal wurden gleich zehntausende Seiten anders gerankt. Ich habe keine Zeit für ausgedehnte SERP-Vergleichsstudien, aber seit der Abwertung stiegen die Besucherzahlen hier auf datenschmutz leicht an – die rund 5%-10% Zusatzbesucher gehen anscheinend auf die vielen Berichte über die Abwertung deutschsprachiger Seiten zurück, in denen häufig auch dieses Blog erwähnt wurde. Die Kurzzeitwirkung ist also erstmal ausgesprochen erfreulich… aber was bedeutet das PageRank-Downgrade auf mittelfristige Sicht?

Für mich so gut wie gar nix. Ich bekomme derzeit rund 30% meiner Besucher über Google. Das heißt, falls Google mir eine SERP-Penalty aufbrummt, die meine Besucher halbiert, dann verliere ich insgesamt nicht 50%, sondern heiße 15% meines Blogtraffics. Und natürlich bin ich alles andere als unglücklich darüber, dass ich selbst und nicht Google über den weiteren Erfolg dieser Seite entscheide… Diversifikation ist in Zeiten wie diesen wohl auch bei Trafficquellen der Begriff der Stunde.

PageRank und der Linkmietmarkt

Während sich die Proklamatoren einer besseren Welt diebisch freuen, bin ich mir sicher, dass die Pagerank-Abwertung in keinster Weise den Linkmiet-Markt beeinträchtigen wird, denn wie John Chow völlig richtig schreibt:

I doubt it will affect my ability to sell links either, nor will it affect pricing that much. The last time I was at PR4, Text Link Ads sold my links for $200 per month. They increased the price to $240 when I went to PR6. Google’s mistake is thinking that every advertisers buys link for PageRank only. They don’t. Right now, PageRank is pretty much irrelevant.

Wie wahr, wie wahr: wer bei Robert Links mietet, der tut das mit Sicherheit nicht nur wegen des PageRanks – oder er hat nicht verstanden, wie Online-Marketing funktioniert. Googles allzu offensichtlicher Plan, mit dem selbst eingeführten Schwanzlängenmaß unliebsamen Entwicklungen gegenzusteuern, geht in die Hose: denn wenn ein niedriger PageRank entweder sagt “diese Seite ist unwichtig” oder aber “diese Seite ist zwar wichtig, wir vermuten aber, dass sie Links verkauft”, dann ist das der schnellste Weg einer Maßeinheit in die Bedeutungslosigkeit.

Wenn Putzerfische ins Becken pinkeln

Google lebt von einer einzigen Datenbank: dem Internet. Und dabei handelt es sich um ein kollaboratives Unterfangen, um einen riesigen Teich, in dem Firmen, Privatleute und alles Mögliche dazwischen rumschwimmen. Die verlinken sich, und Google nimmt diese “natürlichen” Links als Basis her, um daraus seine Suchdaten zu generieren. Zudem bietet die Firma ein speziell für Longtail-Seiten völlig unattraktives Werbesystem an, an dem sie Milliarden verdient. Wer mit im Index sein will, kuscht eben: vermietete Links “stören” nämlich nicht in erster Linie den Google-Index, sondern den heiligen St. Revenue Stream – ich spar mir die ausführliche Erklärung, denn prägnanter als Maestro Basic könnt ich’s nicht formulieren:

Im Endeffekt bleibt also eine gigantische Masse von für Google kostenlos arbeitenden Webseitenbetreibern und einem gigantisch gut verdienenden Unternehmen. Und das alles nur, weil alle Welt am Google-Tropf hängt, es geht doch “nur” um gute Suchergebnisse, damit sich jeder in der großen, weiten Netzwelt schnell zurechtfindet, also bleibt bitte “google-brav”. Die ganz zufällig wegen Spam das nofollow-Attribut eingeführt haben. Haben sie das? Nur wegen Spam? Diese Waffe wird mittlerweile gezielt gegen alles gerichtet, was ihrem Verdienstsystem schadet. Google kann mich kreuzweise, das ist meine Frohe Botschaft an ein Unternehmen, das seine Marktmacht so ausnutzt und wenig Kooperationsbereitschaft zeigt.

In eine ähnliche Kerbe schlägt Blogging Tom, der sich darüber wundert, dass Google der Form mehr Bedeutung beimisst als dem Inhalt:

So langsam macht mich das alles ziemlich nachdenklich. Da versucht man Tag für Tag (oder jedenfalls fast jeden Tag) ein gutes Weblog zu schreiben und wird am Ende dafür abgestraft. Für Google scheint also nicht mehr die Qualität der Sites im Vordergrund zu stehen sondern vielmehr mit welchen Mitteln der Inhaber Geld verdient. Die Methode der Werbung sagt aber meines Erachtens nichts über den qualitativen Inhalt der Seite aus. Google sieht das offenbar anders und versucht derzeit wohl, seine Sichtweise des “sauberen” Internets durchzusetzen.

Konsequent weitergedacht, führt diese Strategie ja dazu, dass Google nicht mehr die inhaltliche Relevanz von Seiten, sondern deren Erwerbsmethoden wertet – und wenn eben zufällig die interessantesten Ressourcen grade Links vermieten, dann scheinen sie in den SERPs eben nicht auf. Finde ich persönlich sehr begrüßenswert, weil der einzige, der Big G ernsthaft schaden kann, ist Big G selbst: und die Monopolstellung besteht eben nur so lange man eine brauchbare Suchtechnologie bietet.

Und wo wir grade beim Thema sind: ich kann mir nicht vorstellen, dass die aus dem Jahre Schnee stammende Startseite mit dem minimalistischen Suchfeld und viel zu viel Werbung auf den Ergebnisseiten der Weisheit letzter Schluss ist. Und wie bereits oben erwähnt: dass Google den “bestraften” Seiten mit demnächst folgenden “Besuchereinbrüchen” droht, klingt zwar nach Erpressung, ist in Wahrheit aber bloß grandiose Selbstüberschätzung… so wichtig ist Google gerade für Blogs eben nicht, da gibt’s zum Glück ausreichend Alternativen.

Was soll G nun tun? Wie sollen die SERPs gereiht werden? So wie immer, natürlich: Google kann zunehmend mit manueller Abstrafung ändern, aber ich nehme kaum an, dass Matt Cutts und Co. wieder zu den gar nicht guten alten stochastischen Zeiten zurückkehren wollen: Relevanzbewertung nach Worthäufigkeit und Co. stank schon anno 95, und der Haupterfolg von Google lag in der Einbeziehung der Backlinkstruktur für die SERP-Relevanzwertung – und ein Ersatz ist nicht in Sicht. Also trennt man die “vorne” sichtbare Pagerank-Anzeige von der internen Wertigkeit einer Seite ab und bringt Linkhändler wie oben beschrieben eben dazu, auf andere “Wertfaktoren” zu fokussieren. Wär doch extrem kontraproduktiv, wenn etwa Telepolis bei der Suche nach Netzkultur nicht mehr auftauchte.

An alle Moralapostel da draußen

Die eigenen Eier zu lecken muss doch auf Dauer auch langweilig werden. Aber ich werd’s nie erfahren, denn so gelenkig bin ich nicht. Allerdings ist die Verwechselung des Netzes mit Google ein Kategorienfehler, über den jeder, der Linkvermietung auf Blogs für eine “unzulässige Beeinflussung des Pagerank Algorithmus” hält mal nachdenken sollte. Denn wer zuletzt lacht, hat Gold im Mund. Oder so.

Eigentlich hat Google sowieso jedes Recht, Webmastern vorzuschreiben, wie sie ihre Seiten bauen sollen, wenn sie gut in Google gerankt werden möchten. Wenn ich einen neuen Club in Wien aufsperre, in den nur Typen mit lindgrünen Trachtenhemden reindürfen, dann wird man mich zwar für einen seltsamen Goon halten, aber Gastlistenpolitik ist immer Sache des Hosts. Wenn mein Club aber der einzige in der ganzen Stadt ist mit brauchbaren Subwoofern, dann kommt sich jener Teil der tanzwütigen Bevölkerung, der nicht auf Trachtenhemden steht, wohl zu Recht ziemlich ausgesperrt vor.

Denn das einleitende “eigentlich” impliziert, dass neben Google noch eine Reihe weiterer Suchmaschinen existierten – und benutzt würden. Die Quasi-Monopolstellung ist für die ganzen Troubles verantwortlich: ein einzelner Anbieter sollte nicht die Spielregeln eines ganzen Mediums vorgeben, das hat der Gesetzgeber in anderen Bereichen längst kapiert: aber im Internet läuft die Zeit schneller ab als in der Welt der Anti-Trust Gesetze.

Was sagt die Linkhandelskammer?

Inzwischen gibt’s ja auch schon Stellungnahmen von Linktradern. Auch wenn ich selten einer Meinung mit Linklift bin, dieser Aussage kann und will ich als gesetzestreuer Bürger nicht wiedersprechen :-)

Wir vertreten die Meinung, dass es das Recht eines jeden Webmasters ist, auf seiner Webseite zu tun und lassen was er will – sofern es im Einklang mit dem gesetzlichen Rahmen ist.

Trigamis ausführliche Stellungnahme bestätigt für mich einmal mehr meinen sehr guten Eindruck vom Schweizer Anbieter – absurderweise allerdings sieht sich Trigami obwohl keine Linktexte vorgegeben werden und nofollow ausdrücklich erlaubt ist, diverser Kritik in Zusammenhang mit der PR-Abwertung ausgesetzt: was nicht gerade für den Sachverstand der Kritiker spricht, gelinde gesagt. Und von Teliad habe ich heute im Newsletter eine nicht unspannende Info bekommen:

Erst einmal möchten wir darauf hinweisen, dass es bei der PageRank-Veränderung in dieser Woche wie auch Anfang Oktober jeweils weniger als 1 Prozent unserer Angebote getroffen hat.

Dabei wär’s für Google ja gar kein Problem, gezielt zu suchen: wer sich bei LL, Teliad, TextLinkAds und Co. als Kunde anmeldet, sieht die meisten URLs ohnehin im Klartext, so what?

Fazit

Aus SEO-technischer Sicht finde ich das Update durchaus erfreulich, Links mieten kann jeder, aber so gewinnt das eigentliche Handwerk wieder gewaltig an Bedeutung. Und was datenschmutz betrifft, pfeif ich eben zukünftig auf den PageRank und werde ihn auch nicht mehr kommunizieren. Eines der drei größten österreichischen Blogs zu sein reicht mir völlig – und zukünftigen Werbepartnern hoffentlich auch. Adsense kommt mir jedenfalls nicht in die Blogtüte! datenschmutz ist und bleibt mein eigenes BlogLaborTool, und ich hab auch zukünftig nicht vor, eine McGoogle Franchise Filiale draus zu machen.

Mister Wong folgt nicht mehr

No more dofollow beim erfolgreichsten deutschen Bookmarkdienst mit dem angeblich so diskriminierenden Namen (siehe Wongs Kopflosigkeit – eine Ching Chong Affäre): wie Netzkultur 2.0 berichtet, geizt der diensteifrige Chinese künftig mit Linklove:

Als ich dem Bookmarkdienst Mister Wong gerade eben mal wieder einen kurzen Besuch abgestattet habe hat mir ein Firefox Plugin verraten, dass dort sämtliche ausgehenden Links mit dem “nofollow-Tag” ausgestattet worden sind und folglich nicht mehr in die Rankingbewertung von einigen Suchmaschinen, allen voran Google, einbezogen werden.

So ganz konsequent durchgezogen wurde die Ent-follow-isierung nicht, die Bookmarks im Userprofil zählen nach wie vor. Dennoch stößt die Nacht-und-Nebel Aktion nicht unbedingt nur auf Verständnis:

Nachvollziehbar ist der Schritt sicherlich, da man sich auf diese Weise wahrscheinlich erhofft, Mister Wong für Spammer uninteressanter zu machen.
Grundsätzlich ist es mir natürlich auch egal, was die Jungs und Mädels von construktiv mit ihrer Webseite so treiben, aber dennoch sollte man solche Änderungen meines Erachtens kommunizieren.

Das seh ich genau so: Mister Wong hat in den letzten Monaten extrem starke Google-Positionierungen mit seinen Tag-Seiten erreicht. Klarerweise hält man mit dem eingeschlagenen Weg Spammer ab – und SEOs ebenso. Ich behaupte mal ganz frech, dass der Erfolg Wongs zu einem hohen Grad auf aktiven Usern, die ihre eigenen Blogs und Seiten pushen, zurückzuführen ist – und die werden sich die Mühe zukünftig sparen.

Ästhetisch und usability-technisch ist Wong bei weitem die grottigste Social-Bookmark Plattform, die je das Licht der Netzwelt erblickt hat: extrem knappe Beschränkung beim Beschreibungstext und die Nicht-Übernahme des Titels bei direkter Verlinkung sind nur zwei Minuspunkte: Folkd, del.icio.us und andere Alternativen bieten wesentlich ausgereiftere Features, dennoch mag das deutsche Internet Wong. Ob das mit nofollow auf Dauer so bleibt, wage ich allerdings zu bezweifeln.

Google PR-Update: Jeremy zerlegt Tante Google

Das langerwartete Google Pagerank-Update, mit dem die meisten Webmaster bereits Ende August rechneten, ging an diesem Wochenende wirklich über die Bühne – diesmal mit ganz besonders vielen, dafür außerordentlich wenig erfreulichen Überraschungen.

datenschmutz wurde von Pagerank5 auf 4 zurückgestuft, einzelne Blogs fielen sogar von PR 3 auf 0. Generell scheint es sich um ein Update mit wenig “Aufwertungen”, aber massiven Abstrafungen zu handeln. Die großen Fische blieben weitgehend unverändert, viele Seiten, die bisher noch gar keinen Pagerank hatten, bekommen aber wohl erst zu Weihnachten ihr Google-Geschenk geschenkt.

Visitenkarten gratis von VistaPrint

Als erster reagiert der bayrische SEO Blogger, SEO-Blog.at bemerkt noch keine Auswirkungen, SEO Scene vermutet, dass es sich bloß das von Matt Cutts angekündigte Korrektur-Update handelt, WebdesignLounge wartet aufs große Heulen und Zähneknirschen, Blogging Tom, CS Internet und Kloeschen bleiben gelassen, Bernd lässt das Update ebenfalls kalt, Selbständig im Netz hat’s auch erwischt – die neueste Runde im Pagerank-Ringelpiez mit Anfassen fühlt sich ganz nach “Google gegen den Rest der Welt” an.

Die Zukunft von Pagerank und Co.

Schon eine Weile lang beherrscht eine Diskussion die gesamte SEO-Szene: wie geht’s weiter mit dem Thema Linkbuying? Big G droht mit Abstrafungen und scheut sich nicht, Sites komplett aus dem Index zu werfen, wenn sie sich den Google-Spielregeln widersetzen.

Jeremy Shoemaker hat eine großartige Situationsanalyse auf Video aufgenommen – er erklärt, in welches zunehmend drastischere Dilemma Google hineinrutscht: auf der einen Seite muss man ständig unter Beweis stellen, dass man über die beste, fehlerfreieste Suchtechnologie verfügt, auf der anderen Seite werden zunehmend Seiten aus dem Index genommen. Wenn Google etwa John Chow komplett ignoriert, dann denkt sich ein Außenstehender, der den Kanadier kennt und nach seinem Namen sucht, in Unkenntnis der Vorgeschichte womöglich, dass die Google-Suche einfach nicht richtig funktioniert. Mit anderen Worten: wieviel Manipulation verträgt das Saubermann-Image, ohne die subjektiv wahrgenommene Qualität des Algorithmus zu beeinträchtigen? Zugleich kann es sich Google nicht leisten, so Shoemaker, gegen große Companys wie etwa BMW vorzugehen, die in punkto SEO alles andere als zimperlich mit den Google-Rules umgehen.

Rand Fishkin outete auf seinem Blog eine Reihe von Seiten, die wider Googles Policy Links ohne nofollow verkaufen – zugleich allerdings benutzt er selbst gekaufte T-L-A Links für die eigene SEO-Kundschaft und tritt dort weithin sichtbar als Testimonial auf – skurriler geht’s nimmer. Eine klassisch schizophrene Situation also, die auf längere Sicht eigentlich nur bedeuten kann, dass man sich als Webmaster möglichst unabhängig von Google-Traffic machen sollte. Jeremy formuliert das in seiner unnachahmlichen Weise so: “Everybody is losing the point about this link buy thing. [...] Google has to keep up this magic facade that they have the greatest algorithm – if you make Google look stupid, they torch you.” Da kann ich mich nur anschließen… und allen Google-Skeptikern das folgende Video wärmstens empfehlen. Don’t Make Google look stupid – Period:

YouTube Preview Image

Blogkette: Infopirat boostet Technorati-Wertung

Add to Technorati FavoritesZu einer Blog-Aktion *ganz nach meinem Geschmack* ruft der Infopirat gerade auf. Ohne viel Federlesens: es geht um eine bessere Technorati-Wertung durch gegenseitige Aufnahme in die dortigen Favoriten – je mehr Homies mitmachen, desto besser für alle, aber das ist ja immer so bei diesen komischen Netzwerk-Ökonomien…

Die Blogkette gestaltet sich recht simpel, Ricdes hat Ähnliches mit begrenzter Reichweite schon mal im April angeregt, ursprünglich ausgedacht haben sich die gezielte Einflussnahme die Jungs von DoshDosh. Und so funktioniert’s:

Lust auf ein kleines Blog-Spielchen zur Sommerzeit? Bock auf mehr Backlinks und höhere Autorität bei Technorati?
Ganz einfaches Prinzip: Mach mein Blog bei Technorati zu Deinem Favoriten und ich mache Deinen Blog dafür im Gegenzug zu meinem.

So denn, an die Arbeit – wie jeder gute Piratenplan umfasst auch vorliegende Aktion genau fünf Schritte:

  1. Mach Infopirat und datenschmutz zu deinen Favoriten bei Technorati.
  2. Schreibe einen kleinen Beitrag bei Dir zum Thema Technorati Blogkette und fordere Deine Leser auf daran teilzunehmen (und auch zu Dir zu linken)
  3. Verlinke diesen und den Beitrag, den du gerade liest.
  4. Wir checken bei Technorati, ob Du Infopirat bzw. datenschmutz verlinkt hast und fügen Dich dann unseren Favoriten bei Technorati hinzu.
  5. Sollte wir Dich übersehen, oder Du möchtest das ganze gerne beschleunigen, schreib hier einen Kommentar und füge Deinen “Add to Technorati” Link ein.

Alles klaro? Auf zum Atom, Fallout Boys and Girls! Alle TeilnehmerInnen, die sich bei mir melden, werd ich hier verlinken, damit die Übersicht gewahrt bleibt und alle gegenseitig gemütlich eintragen können.

Warum ist Technorati wichtig?

Die deutschen Blogcharts agieren natürlich amtlicher als das örtliche Amt für Weihnachtsdekoration und wertet Trackbacks nicht, die über Blog-Karnevale mit eingebauter Verlinkung zustande kommen wie zum Beispiel Yannicks äußerst gelungene Aktion. Daher ist datenschmutz, obwohl Platz 100 267 Trackbacks aufweist, auch (noch) nicht in dieser Hitparade gelistet. Aber kommt Zeit, kommen Trackbacks – ich hab keinen Stress mit den dbcs, solange diese Liste – im Gegensatz zu Technorati – nicht für diverse Online-Werbeservices als Teil der monetären Bewertungsgrundlagen herangezogen wird.

Das beantwortet auch schon die Frage, warum sich jeder Blogger, der seine Seite nicht nur aus Spaßgründen betreibt (irgendwer muss die Serverfarm ja am Laufen halten *g*), Gedanken machen sollte, wie er möglichst bald zu möglichst vielen RSS-Abonnenten, Technorati-Backlinks etc. kommt: bezahlte Reviews, wie sie etwa Trigami vermittelt, beziehen die Technorati-Wertung in ihre Wertberechnung genauso ein wie die Link-Trading Plattformen LinkLift und Text-Link-Ads.

Bonusrunde: jeder, der bei der Aktion mitmacht und datenschmutz seinen Techorati-Favorites hinzufügt, bekommt zusätzlich einen Backlink hier am Ende dieses Artikels. (Natürlich nicht aus SEO-Gründen, rein übersichtstechnisch. Aber nofollow stinkt halt wie die metaphorische Pest.) Et voila: einfach alle “fave at technorati” Links durchklicken, und der Linklove-Bumerang kommt demnächst zurückgeflogen….

Smilie by GreenSmilies.comSmilie by GreenSmilies.comSmilie by GreenSmilies.comSmilie by GreenSmilies.comSmilie by GreenSmilies.comSmilie by GreenSmilies.comSmilie by GreenSmilies.comSmilie by GreenSmilies.com

 

Update vom 4. August:

Update vom 5. August:

Update vom 6. August:

Update vom 9. August:

Update vom 13. August:

Update vom 20. August:

 

Einige Beiträge zur Blogketten-Aktion:

(kein Anspruch auf Vollständigkeit)

Kommentare am Blog deaktivieren? Niemals.

Der Metaphoriker spricht vom “Rauschen”, das durch den Blätterwald geht. Im Fall von Blogs sollte es vielleicht eher Raunen, wenn nicht gar Raunzen heißen, meint First Generation Blogger David Winer: auf Kommentare könnte man gut und gerne verzichten, so David. Das passt zur Greater Internet Shitwad Theory, kann aber nicht ganz unwidersprochen hingenommen werden.

Die wesentliche Eigenschaft eines Blogs sei die Wiedergabe einer authentischer Meinung, unverfälscht durch Gruppendruck, Konformitätszwang und massenmediale Spielregeln. Die Kommentare spielten dabei angeblich eine untergeordnete Rolle. Wer etwas zu sagen hat, der kann sich ja ohne weiteres selbst ein Blog anlegen, so die Logik des schreiberischen Solipsismus:

Do comments make it a blog? Do the lack of comments make it not a blog? Well actually, my opinion is different from many, but it still is my opinion that it does not follow that a blog must have comments, in fact, to the extent that comments interfere with the natural expression of the unedited voice of an individual, comments may act to make something not a blog.

Als weiteren Punkt gegen Kommentare führt David auch das altbekannte Argument von der Selbstreferenzialität ins Feld: “People use blogs primarily to discuss one question — what is a blog? The discussion will continue as long as there are blogs.” Dem kann ich nur zustimmen – ein Teil des permanent mitschwingenden Metadialogs mag durchwegs der Neuheit des Mediums geschuldet sein, ein anderer, aber verschwinden wird das Thema nicht: Mikromedien machen ihre Herausgeber eben zu Haustechniker, Serverexperten, Chefredakteuren, rasenden Reportern, Layoutern usw… in einer Person, das schreit geradezu nach Austausch und Metadialog.

Konsequenterweise drehte der Autor die Kommentarefunktion am eigenen Blog ab, und Joel Spolsky, amerikanischer IT-Journalist, greift die ausgesprochen konträre Argumentation freudig auf und geht gleich noch ein Stück weiter:

The important thing to notice here is that Dave does not see blog comments as productive to the free exchange of ideas. They are a part of the problem, not the solution. You don’t have a right to post your thoughts at the bottom of someone else’s thoughts. That’s not freedom of expression, that’s an infringement on their freedom of expression.

Starker Tobak – Kommentare also als Behinderung der freien Meinungsäußerung? Mein Problem mit dieser Sichtweise liegt ganz einfach darin, dass sie für manche Blogger durchwegs passen mag – das hängt aber in erster Linie wohl vom eigenen Menschenbild ab und davon, ob man sich erwartet, unwidersprochen seine Weisheiten in die Welt hinaus posaunen zu dürfen. John Gabriels Greater Internet Fuckwad Theory, die besagt, dass sich ganz normale, nette Kerle unter dem kombinierten Einfluss von Öffentlichkeit und Anonymität in beleidigende Verbalbestien verwandeln, mag Winer ja auf den ersten Blick recht geben. Meine persönlichen Erfahrungen in Blogistan sind da ganz andere: wie wenigen Hatemongers bringen mich bloß zum Lachen, niemals möchte ich wegen ein paar, auf gut Wienerisch “Wapplern”, auf all die konstruktiven Beiträge und die virtuellen Gespräche mit meinen LeserInnen verzichten.

Denn blickt man etwas differenzierter auf die kommunikativen Verästelungen Blogistans, dann stellt sich die Kommentarefrage ohnehin nicht mehr so schwarz/weiß dar: Denn der Verzicht auf Kommentare rückt ein Blog ein ganzes Stück weit in Richtung Web 1.0 Seite – nicht technologisch, sondern ideologisch: für viele BloggerInnen (und da schließe ich mich ein) sind Feedback der LeserInnen Hauptmotivation dafür, überhaupt ein Blog zu schreiben. Die Frage, ob’s aus Google-taktischen oder anderweitigen Überlegungen besser wäre, Kommentare abzudrehen, stellt sich überhaupt nicht: so lästig Spam und so aufwändig Antispam-Maßnahmen sind, so hoch die Wahrscheinlichkeit auch sein mag, früher oder später einem Troll zu begegnen: was wären Blogs ohne das direkte Feedback, ohne diesen großartigen direkten Kommunikationskanal zur Leserschaft, der Blogger von Journalisten unterscheidet? In wenigen, ausgewählten Fällen mag ein Verzicht auf die Kommentarfunktion ja Sinn ergeben, eine “golden rule” draus zu machen und speziell Newbie-Blogger zu verunsichern, halte ich allerdings für ausgemachten Quatsch. Und Gründe, von seinen Lesern öffentlich kontaktiert werden zu wollen, gibt es viele:

  • Der gute alte Crowd-Support: ich hab hier ein “Insert Category” Problem, hat da jemand einen Tipp? So ist schon so mancher Thread entstanden, der mehr wertvolle Info für spätere Leser enthält, als der eigenen Artikel.
  • Reality Check: Ich seh das so und so, liegt ich da völlig daneben? Was meinst ihr dazu? Der Möglichkeit, solche Fragen auf datenschmutz stellen, würd ich mich niemals freiwillig berauben.
  • User generated Content hat positive SEO-Auswirkungen: Contrary to popular believe wertet Google auch ausgehende Links. Mit deaktiviertem Nofollow in den Kommentaren und sauber moderierten Kommentare ohne Viagra-Links erhält man nicht nur eine willkommene Ergänzung der Inhalte, sondern fördert sogar eine bessere Platzierung in Suschmaschinen.

Das Argument der kommunikativen Demokratie möchte ich freilich nicht bemühen: letztendlich sitzt der Blog-Autor am langen Hebel, löscht, editiert und filtert, wie’s im passt. Doch wie man’s auch dreht und wendet: ein Blog ist keine statische Seite, sondern eine kleinere oder größere Community. Die zitierte Scheu vor Kommentaren resultiert einerseits aus dem angesprochenen unlustigen Menschenbild (“alle anderen außer mir sind Idioten und haben sowieso nix brauchbares beizutragen”) und andererseits aus der Angst vor schrecklicher Kritik, die auf einen niederprasseln könnte. Dabei bieten alle gängigen Blogsysteme hervorragend abgestufte Möglichkeiten: von der ungeprüften Veröffentlichung über das Festhalten jeden Kommentars in einer Moderationsschleife ist so gut wie alles möglich – freiwillig auf Blog-Kommentare zu verzichten kommt mir ein bisschen so vor, als ob man sich ein Motorrad kauft, den Motor deaktiviert und seine Kiste einfach nur im Leerlauf durch die Gegend schiebt – passieren kann dabei nicht viel, Spaß hat man allerdings auch keinen.

Link-Vault: elegant themenaffine Links aufbauen

linkvaultWaren Webkataloge aka Link-Müllhalden in den 90er Jahren noch ausreichend, um eine Seite in Google nach vorne zu pushen, so erreichen mittlerweile SEOs, die ihre Seiten in ewig-gestrige Kataloge eintragen, genau den gegenteiligen Effekt: sogenannte “Bad Neighbourhood” kann leicht zu Abstrafungen führen, andererseits gestaltet sich die händische Suche nach passenden Backlinks sehr zeitintensiv und mühsam. Zum Glück entwickelt sich nicht nur Google weiter, sondern auch die Technologie der Linktauschnetzwerke: Link-Vault.com gehört zu den avanciertesten Vertretern seiner Gattung und erfüllt alle Ansprüche, die SEO-Webmaster anno 2007 an automatisierten Linktausch stellen.

Denn aufgrund der intensivierten Strategien Googles gegen den Verkauf von nofollow-Backlinks und automatisierte Trading-Systeme (beides widerspricht den “Geschäftsbedingungen von Big G, die allerdings wohl niemals ein Webmaster freiwillig unterschrieben hat) gilt vor allem eines als conditio sine qua non: die betreffenden Links müssen gut gecloakt (verborgen) sein. Das bewerkstelligt Link-Vault.com durch ein php-Script, das die Links automatisch einfügt und sie von außen betrachtet wie ganz “normale” html-Links wirken lässt. Und warum sollten eine Blogroll oder ein paar harmlose kleine Footerlinks auf einem Weblog auch Verdacht erwecken? Der zweite große Vorteil besteht in der themen- und sprachenzentrierten Verknüpfung: sachfremde und anders-sprachige Links bringen in der Regel wenig, wer beim Ranking gut abschneiden will, benötigt Backlinks aus dem eigenen thematischen Biotop.

Wie funktioniert Link-Vault im Detail?

VaultageAnders als kommerzielle Trading-Systeme wie Linklift oder Text-Link-Ads verkauft Link-Vault keine Anzeigen, sondern dient Webmastern als zentrale Tauschplattform. Um die eigenen Seiten promoten zu können, braucht man sogenannte Vaultage: das ist die interne Einheit des Link-Vault, in der alle Transaktionen bemessen werden. Diese Vaultage bekommt man durch das Eintragen eigener Seiten, auf denen man das Schalten fremder Links erlaubt. Je populärer und besser platziert die eigenen Seiten sind, desto höher die dafür erhaltenen Punkte. Sobald man nun die entsprechende Vaultage angesammelt hat, kann man seine eigenen Seiten eintragen und bestimmen, wie viele Backlinks wie oft geschalten werden sollen.

Die Stärken des System liegen dabei im Detail: ersten werden alle Seiten händisch überprüft – das bedeutet, Linkfarmen und dergleichen haben kaum eine Chance auf Aufnahmen. Zweitens erkennt das Script jede einzelne Seite, das heißt, wer etwa in einer WordPress-Installation den php-Code in die Sidebar schreibt, ermöglicht es damit anderen TeilnehmerInnen, nicht seitenweit den gleichen Link, sondern spezifische Backlinks pro Seite zu schalten. Das macht Link-Vault.com extrem flexibel und äußerst praxistauglich – ungeeignet ist das System allerdings für ganz neue Seiten, denn bevor eine Adresse ins Netzwerk aufgenommen wird, muss sie zumindest den wichtigsten Suchmaschinen bereits bekannt sein.

Premium-Version für mehr Kontrolle

Link-Vault.com ist völlig gratis – bereits mit dem Free-Account lassen sich sehr viele Backlinks lukrieren. Für professionelle Web-Publizisten bietet sich aber ganz dringend der Pro-Account an: für 19$ im Monat erhält der Webmaster unter anderem genaue Informationen darüber, wo seine Backlinks geschalten werden, zusätzliche Filtermöglichkeiten, eine höhere Anzahl von Links sowie bessere Konversionsraten, also mehr Vaultage.

Wer ernsthaft Backlinks sammeln möchte, wird um die Advanced-Variante nicht herumkommen, um sich mit dem System vertraut zu machen, reicht der Gratis-Account allemal. Für Online-Magnaten, die gleich eine ganze Armada von Seiten einpflegen wollen, gäbe es darüber hinaus die Unlimited-Variante mit nochmals erweiterte Features um 49$ pro Monat.

Zu Risiken und Nebenwirkungen fragen Sie…

All diese Technologie sind sehr neu: schon seit längerer Zeit findet ein Wettrennen statt zwischen Suchmaschinen, deren Interesse ganz klar darin besteht, möglichst valide und brauchbare Ergebnisse zu liefern. Nur jene Seiten, die nützliche Informationen enthalten, sollen gut indexiert werden. Dem diametral gegenüber steht das Interesse der meisten Webmaster, die ihre eigene Seite am liebsten auf Platz 1 sehen möchten.

In Anbetracht der beträchtlichen Werbe-Einnahmen, die viele Blogger erzielen, will das Risiko, eventuell aufgrund der Teilnahme an einem solchen Linktauschnetzwerk abgestraft zu werden, gut abgewogen werden. Wer sich allerdings zu 100% auf Google als die Quelle seiner Besucher verlässt, der setzt alle seine Chips auf eine Zahl – und das ist nie eine empfehlenswerte Strategie. Wer aber dem alten Spruch “Wer nicht wagt, der nicht gewinnt” folgen möchte, der sollte seine Online-Einkommensquellen zumindest vorher ausreichend diversifizieren.

Ich bin von der problemlosen Installation durchaus angetan und verwende Link-Vault seit vier Wochen für einige eigene und “befreundete” kleinere nicht-kommerzielle Seiten – sollten sich bemerkenswerte positive oder negative Auswirkungen ergeben, werde ich darüber berichten; natürlich ohne Nennung der betreffenden Seite.