Beiträge

Wiener Runde Podcast: Der Fliesenleger

Meist gehorchen die Dinge unseren Befehlen, manchmal jedoch widersetzen sie sich störrisch, und in den denkwürdigsten Fällen sagen sie: “Nein. Genug. Ich will nicht mehr.” Aber weil die meisten Dinge nun mal nicht sprechen, müssen sie uns das auf andere Weise mitteilen – egal ob iPhone oder Kran, alles nur eine Frage der Skalierung oder: Too Big to fail gibt’s nicht:

Kranfail
Foto: Judith Denkmayr

In diesem Sinne also viel Vergnügen mit der aktuellen Ausgabe der Wiener Runde, diesmal wieder fast in voller Mannstärke und mit Neuigkeiten und Gerüchten aus allen Teilen der Netzwelt, aber hören Sie selbst:

Links zum Podcast auf Wienerrunde.at   Download
mp3, 48 Mbyte [rechte Maustaste und “speichern unter”]

Weiterlesen

Neu bei Facebook: Fans raus, Community Pages rein

Alles neu macht der April – Social Media Berater und ihre Fake-Accounts müssen in Kürze keine Fans ihrer Kunden mehr sein, es reicht vollkommen, selbige zu mögen: Facebook rollt seit heute die längst überfällige Neu-Textierung aus. Eine noch wesentlich drastischere Neuerung als das ReWording kommt unter dem Namen “Community-Pages” daher: das sind automatisch generierte Übersichtsseiten zu allen möglichen Schlagwörtern – für Facebook ein weiterer logischer Schritt am Weg zur Netzvorherrschaft. Im Lauf der nächsten Tage werden die “Pages 2.0″ allen Usern zur Verfügung stehen, inklusive einer neue Verlinkungs-Möglichkeit für die im Profil angegeben Interessensgebiete. Klingt soweit harmlos, wird Facebooks Vormachts-Stellung als Social News Provider aber mit Sicherheit weiter zementieren.

Facebook Pages neu

Grafik: Mashable.com Weiterlesen

Subdomains als elegante Profil-URLs einsetzen

Profil-Redirects mit SubdomainsLiebe Zuseher, vergessen Sie das ScheiXX-Internet – in unserem Frühstücks-Fernseh-Programm folgt heute ein Beitrag aus der Reihe “kreativer Umgang mit Subdomains”. Profil-URLs vieler Social Networks wie beispielsweise Facebook weisen einen hohen “Sperrigkeitsfaktor” auf: Adressen wie http://www.facebook.com/profile.php?id=717807375 sind nun mal nicht besonders merk- oder lesefreundlich. Wer selbst eine Domain und einen Webspace oder Server zur Verfügung hat, kann sich aber mit minimalen Aufwand ein customized-URL á la http://facebook.yourdomain.com zusammenbasteln – der gute alte 301er Permanent Redirect macht’s möglich. im Handumdrehen möglich.

Die hier beschriebene Vorgehensweise eignet sich für alle Arten von Profil-URLs – irgendwelche Nachteile (Duplicate Content etc.) sind ebenfalls nicht zu befürchten, da Google keine URLs indiziert, auf denen ein 301er Permanent Redirect liegt. Ob was Ähnliches unter Windows-Servern auch möglich ist, entzieht sich meiner Kenntnis: wer Linux nutzt, legt solche Redirects am einfachsten via .htaccess-Datei an. Im folgenden Beispiel beschreibe ich anhand meiner Facebook-Profiladresse, wie man solche Shortcuts anlegt.

  1. Anlegen einer neuen Subdomain: dies geschieht bei Shared Hosts über das Administrationsmenü des Providers bzw. bei dedizierten Servern via GUIs á la Plesk oder Kommandozeile. Für dieses Beispiel habe ich auf datadirt die neue Subdomain facebook.datadirt.net angelegt.
  2. In das Rootverzeichnis der Subdomain muss man lediglich eine .htaccess Datei hochladen, die den betreffenden Forward enthält. Die Syntax für lautet:

    Redirect permanent ROOT-URL ZIEL-URL

    Also in meinem Beispiel:

    Redirect permanent / http://www.facebook.com/profile.php?id=717807375

  3. Das DNS-Update beim Anlegen einer neuen Subdomain kann bis zu 24 Stunden dauern – sofort überprüfen lässt sich das korrekte Funktionieren des Shortcuts, indem man die absolute URL zum Root-Verzeichnis der Subdomain eingibt – und das war’s auch schon. Voraussetzung ist lediglich, dass die Rewrite-Engine am Server aktiviert ist, aber die braucht man beispielsweise im Fall von WordPress sowieso für die suchmaschinen-freundliche Permalinks.

Tipp: man kann ohne weiteres auch mehrere Shortcuts auf dieselbe Ziel-URL zeigen lassen; für Facebook habe ich mir eine zweite Subdomain nach demselben Schema angelegt: facebook.pettauer.net.

.htaccess erstellen: Unter Windows kann man keine Datei mit dem Namen .htaccess erstellen, weil das Betriebssystem mindestens ein Zeichen vor dem Punkt verlangt. Also einfach die Datei z.B. temp.htaccess nennen, bearbeiten, anschließend via ftp hochladen und erst am Server umbenennen – oder gleich serverseitig editieren (aber wer das tut, benötigt diesen Info vermutlich sowieso nicht :mrgreen: )

Linksammlung für Existenzgründer

2WID WebkatalogÜber den 2WID.net Webkatalog habe ich vor einigen Monaten im Rahmen einer trigami Rezension berichtet. Die diversen Zusatzfeatures haben mir damals sehr gut gefallen, vor kurzem stieß ich im Rahmen einer Recherche zum Thema Existenzgründung / Start-Up wieder auf die Seite und war ausgesprochen angetan von der geballten Information, die man mittlerweile in dieser Kategorie findet.

In zukünftigen datenschmutz Videopodcasts werde ich immer wieder mal aus dem Nähkästchen des Online-Entrepreneurs plaudern und den einen oder anderen Tipp, der sich meiner persönlichen Erfahrung nach bezahlt gemacht hat, mit Vergnügen weitergeben. Und bei der Suche nach dem diesbezüglichen deutschsprachigen Informationsangebot war ich erst mal sehr überrascht, wie verstreut die einzelnen relevanten Informationen sind: Existenzgründer und (Jung)Unternehmer suchen in der Regel Informationen über mögliche Rechtsformen, Startkapital-Beschaffung, grundlegende Informationen zur Organisation und meist auch Dienstleister zur Auslagerung bestimmter Tätigkeiten wie beispielsweise der Buchhaltung. Ein wirklich umfangreiches Portal habe ich nicht gefunden, ganz zu schweigen von den nationalen rechtlichen Unterschieden etwa zwischen .de, .at und .ch.

Die 2Wid Übersichtsseite zum Thema Existenzgründung bietet gegenüber einer Google-Recherche großen Mehrwert respektive Zeitersparnis: vor allem die umfangreiche Linksammlung zu Rechtsformen erleichtert die Grundsatz-Entscheidung. Allein zum Thema Personengesellschaft findet man 24 Einträge – saubere Crowdsourcing-Arbeit und für mich der Beweis, dass ein gut gepflegtes deutschsprachiges Verzeichnis mit Leichtigkeit mehr Fans gewinnen könnte als jeder Social Bookmarking Service.

Kategorie Existenzgründung
Ausschnitt aus der 2Wid-Kategorie “Existenzgründung”

Ebenfalls aus beruflichem Interesse habe ich dann noch einen Blick auf die Kategorie Onlinemarketing geworfen. Mit 32 Unterkategorien und 154 Einträge zu deutschsprachigen Bannermärkten, SEO-Ressourcen, Dienstleistern etc. überflügelt 2WID das dröge deutschsprachige DMOZ locker. Webdirectories sind keineswegs tot, gerade bei Nischenrecherchen ist diese Art der Zentralperspektive äußerst hilfreich. Und 2Wid ist meiner Meinung nach am besten Weg dazu, zum attraktivsten deutschsprachigen Webverzeichnis zu werden.

Tutorial: Glossar mit Begriffserklärungen für WordPress

Hier werden Sie informiertSeit längerer Zeit gehe ich mit der Idee schwanger (hehe), hier auf datenschmutz einen Glossar für Fachbegriffe anzubieten. Diese Erklärungen sollen Insider nicht im Lesefluss stören, aber Otto Normalsurfer das Verständnis spezialisierter Artikel erleichtern und es mir außerdem ersparen, wiederkehrende Begriffe immer wieder zu erläutern. Bei dem sehr unterschiedlichen Wissens-Niveaus meiner Leser wär so ein Glossar einfach perfekt, dachte ich mir, und machte mich auf die Suche nach einem passenden Plugin. Aber Fehlanzeige! Zwar existieren zwei Erweiterungen, die von sich behaupten, als Glossar-Plugin zu taugen, allerdings erfüllten beide leider nur jeweils einen Teil meiner Anforderungen. Daher habe ich mir aus verschiedenen Plugins eine teil-manuelle Lösung zusammengebastelt, die zwar pro Glossar-Begriff ein paar Mausclicks mehr verlangt, dafür aber maximale Flexibilität und – ganz wichtig – sehr hohe SEO-Tauglichkeit bietet. Wer wissen möchte, wie man einen solchen Glossar einbaut, wirft einen Blick in das folgende Tutorial. Allen anderen Lesern möge die folgende Information genügen: von mir im “Mini-Lexikon” erklärte Fachbegriffe sind ab sofort verlinkt und mit diesem Icon gekennzeichnet: Glossar-Icon . Ein Klick öffnet die jeweiligen Definition in einem neuen Fenster. Derzeit ist die alphabetische Liste noch sehr sporadisch gefüllt, aber das wird sich im Lauf der Zeit ändern. Ab hier wird’s relativ technisch, wer die beschriebene Lösung einsetzen möchte, sollte mit WordPress-Template-Files nicht auf Kriegsfuss stehen.

Meine Anforderungen an einen WordPress-Glossar

In erster Linie geht es mir darum, immer wieder auftauchende Fachbegriffe kurz und knackig zu erklären. Dabei soll sofort ersichtlich sein, dass es sich um einen Glossareintrag, und nicht um einen “normalen” Link handelt. Und wenn ich schon den Aufwand treibe, eine solche Liste zu pflegen, dann möchte ich auch gleich den daraus resultierenden Google-Bonus mitnehmen: denn solche statischen Glossar-Pages haben den riesigen Vorteil, nahezu perfekte Landingpages für die Nischen-Keywords des jeweiligen Blogs darzustellen. Daraus ergaben sich für mich folgende Anforderungen:

  1. Die einzelnen Glossar-Begriffe sollen in Postings automatisch mit der Definition verlinkt werden und grafisch gekennzeichnet, um ersichtlich zu machen, dass es sich um einen Glossar-Eintrag handelt.
  2. Für die einzelnen Glossar-Einträge soll automatisch eine Übersichts-Seite erstellt werden, die alphabetisch sortiert ist und über einen A-Z Navigation mit Sprungmarken verfügt.
  3. Die einzelen Definitions-Artikel sollen selbst Postings bzw. statische Seiten sein, um eine sinnvolle Permalink-Struktur zu ermöglichen und um sich gut in den übrigen Seitenaufbau (z.B. Sitemap) einzufügen.

Klingt simpel, aber leider war es mir wie gesagt nicht möglich, eine Out-of-the-Box Lösung zu finden. Zwei Plugins, die sich der Aufgabe “Glossarerstellung” widmen, habe ich gefunden: IMM Glossary erfüllt die ersten beiden Anforderungen mit Bravour, fällt aber bei der Permalinkstruktur durch: die Definitionen bekommen seltsame Adressen voller Argumente und Referrer. Die zweite Lösung heißt WP Snap. Dieses Plugin generiert aus einer einzelnen oder einer definierbaren Menge von Kategorie-Postings ein spezielles Kategorie-Archiv mit alphabetischer Navigationsleiste und Sortierung. Das Plugin erfordert einen Eingriff ins category.php Template, erwies sich aber als relativ unflexibel und ermöglich keinerlei Pagination und automatische Verlinkung. Letztendlich kamen mir zwei verschiedene Vorgehensweisen in den Sinn:

Gut: Glossar mit Kategorie

Kategorie definieren und exkludieren: Man könnte eine dedizierte Kategorie für Glossar-Einträge anlegen und die betreffende Kategorie zugleich aus der Startseite und aus dem Feed ausschließen. Dazu ist keinerlei händische Bastelarbeit nötig, der äußerst empfehlenswerte Advanced Category Exluder erlaubt entsprechendes Finetuning via Optionsmenü. Anschließend legt man ein dediziertes Template für die betreffende Kategorie an. Dazu wird einfach nur die Datei category.php kopiert und unbenannt, und zwar in category-ID.php, wobei ID für die die betreffende ID der Glossar-Kategorie einzutragen ist. (Ersichtlich unter “Manage Categories” beim On-Mouse-Over).

Kategorie-Archiv anpassen: Wenn für eine Category ein so benanntes Template vorhanden ist, dann verwendet WordPress diese Datei standardmäßig (nur) für diese Kategorie. Im Template kann man einen kurzen Intro-Text eintragen und die Glossar-Postings alphabetisch anstatt chronologisch sortieren lassen – das geht relativ einfach mit WordPress Bordmitteln oder man verwendet Mike Smullins Sort Categories by Title. Das “alphabetisierte” Kategoriearchiv kann man natürlich noch beliebig im Design anpassen:

WordPress Glossar mit Kategoriearchiv

Automatisch verlinken: Für die automatische Verlinkung habe ich aLinks installiert. Das Plugin ist eigentlich für die stressfreie Wartung von Affiliate-Links gedacht, leistet aber überall dort gute Dienste, wo regelmäßig wiederkehrende Keywords mit einer festen URL verlinkt werden sollen. (Dafür hält sich die Affiliate-Tauglichkeit in Grenzen, da aLinks kein Link-Cloaking beherrscht, aber das ist eine andere Geschichte und soll ein andermal erzählt werden.) In den Einstellungen lässt sich außerdem eine spezielle CSS-Klasse für die Verlinkung definieren und/oder man kann ein bestimmtes Icon an die verlinkten Begriffe anhängen. Hier fehlt allerdings die Automatisierung: man muss jeden Glossar-Begriff, der erstellt wird, einmal händisch in die aLinks Liste eintragen.

Diese Methode hat allerdings zwei Nachteile: einerseits wird kein automatischer A-Z Index generiert (dafür könnte man WP-Snap verwenden, aber das beherrscht wiederum keine Paginierung), andererseits ist die Permalink-Struktur nicht völlig frei wählbar, sondern von der jeweiligen Posting-Struktur abhängig. Und eigentlich möchte ich in meine Glossar-Links im Gegensatz zu Postings lieber kein Datum drinstehen haben – also habe ich mich für einen anderen Ansatz entschieden.

Besser: Glossar mit statischen Seiten

Hauptsächlich wegen der Permalink-Struktur habe ich mich dafür entschieden, statische Seiten zu benutzen. Ich habe also eine statische Seite angelegt, die sich “Glossar” nennt. Jeder Begriff bekommt eine eigene statische Page, die ich jeweils hierarchisch unterhalb der Glossar-Seite anlegen. Auf der Hauptseite lasse ich automatisch einen A-Z Index samt Navigationsleiste erstellen – hier leistet das Plugin AZIndex hervorragende Dienste: es erstellt beliebig viele Indizes aufgrund frei wählbarer Kombinationen aus Kategorien und Tags. Da Pages keiner Kategorie zugeordnet sind, bestimmt man einen Tag, der sonst nicht verwendet wird (z.B. “Glossar”), und ordnet diesen jeder einzelnen Glossar-Subseite zu. Anschließend erstellt man einen neuen Index (unter dem CMS-Menüpunkt “Manage”) basierend auf dem gewählten Tag. Dazu läösst man das Feld Included/excluded Categories leer und trägt im darunterliegenden Feld das Stichwort, in meinem Fall “Glossar”, ein. Die Index Headings bleiben auf “title” gestellt, Index subheading s und Description auf “none”. Bei den Optionen wählt man nun “Include blog pages” und “exclude blog posts”, die übrigen Einstellungen sind Geschmackssache. Das sieht bei mir folgendermaßen aus:

AZIndex

Den so erstellen Index fügt man im Editor auf die Glossar-Hauptseite ein, die Syntax dazu lautet: az-index id=”ID” (in eckigen Klammern), wobei ID mit der Nummer des betreffenden Index zu ersetzen ist – nähere Details dazu verrät die Dokumentation des Plugins.

Für die automatische Verlinkung sorgt wie bereits oben beschrieben aLinks, das Exludieren der Glossar-Kategorie aus Feed und Startseite entfällt, weil statische Seiten dort ohnehin nicht auftauchen. Dieses Setup erfüllt mit ein wenig Handarbeit alle meine oben beschriebenen Anforderungen (visuelle Kennzeichnung, automatische Verlinkung, alphabetischer Index, SEO-Bonus). Die beschriebene Vorgehensweise soll andere WordPress-Blogger, die vor einem ähnlichen Problem stehen, inspirieren: sicherlich gibt’s noch viele andere Mittel und Wege, einen Glossar zu generieren – über Tipps und Anregungen freue ich mich.

Am besten weitergedacht: Idee für ein Plugin

Hervorragend für eine solche Glossarfunktion würden sich die in WordPress eingebaute Tagfunktion eignen. Man müsste das Tag-Management dazu folgendermaßen erweitern: Im Backend sollte es möglich sein, für einzelnen Tags (mittels Checkbox) zu bestimmen, ob es sich um ein Glossar-Stichwort handelt. Diese speziellen Tags bekommen ein Beschreibungsfeld, in das auch HTML-Code eingetragen werden kann. In der normalen Einzel-Tag-Ansicht (Posting-Archiv pro Tag) ändert sich bei den betreffenden Stichworten nur eine Kleinigkeit: zwischen der Tag-Überschrift und der Auflistung der zugehörigen Beiträge wird die Beschreibung angezeigt. Außerdem sollte das Plugin analog zu AZIndex eine alphabetische Liste der Glossar-Tags ausgeben und es ermöglichen, die betreffendne Begriffe im Text automatisch zu verlinken und grafisch zu kennzeichnen. Die automatischen Cross-Linking funktionen bringt Simple Tags ja bereits mit, bei der Einbindung des Icons könnte man sich an Link Indication halten. Meine Talente liegen leider nicht im Bereich der php-Programmierung, aber falls sich ein berufenerer Coder inspiriert fühlt, erkläre ich mich gerne bereit, ein detailliertes Story-Board für ein solches Plugin anzufertigen.

SEO SpyGlass: Backlinkanalyse auf die Schnelle

illu-seospySEOs, die in hoch-kompetitiven Märkten tätig sind, finden sich in einer ähnlichen Situation wieder wie Hacker, die versuchen, einen Verschlüsselungs-Algorithmus zu knacken: man kann entweder wie bei einer Brute-Force Attacke ins Blaue hinarbeiten und auf Masse setzen, oder man entscheidet sich für Reverse Engineering und macht mögliche Schwachstellen des Zielobjekts aus. Aber dazu muss man erstmal dessen Stärken kennen. Vor einigen Wochen ist mir eine Analyse-Software untergekommen, die getreu dem Motto “Know your enemies” Webmaster und SEOs zwar nicht arbeitslos macht, aber ihnen eine Menge Zeit spart. Das SEO SpyGlass bereitet eine Flut von Informationen so auf, dass man sich mit einem Blick Klarheit über die Linkstruktur konkurrierender Webseiten verschaffen kann.

Eine wichtige Regel im SEO-Business lautet bekanntlich: wer Geld verdienen will, muss auch Geld ausgeben: Bei PPC-Kampagnen sowieso, aber genauso im Bereich Linkbuilding und Konkurrenzanalyse. Zahllose Softwarepakete buhlen um die Gunst der SEOs, eierlegende Wunder-Wollmilchsau ist keine darunter. Kreativität und gute Planung lassen sich (noch) nicht in Software auslagern, aber die Stärke der besten Tools liegt meiner Erfahrung in einem einzigen Punkt: sie sparen Zeit! Einige der wertvollsten SEO-Tools machen nichts weiter, als ohnehin in Suchmaschinen-Indizes frei zugängliche Daten gut strukturiert aufzubereiten: und das spart unglaublich viel Zeit. Ich bin schon lange Fan der SEOmoz.org Pro Tools, denn diese Online-Werkzeugkiste deckt die gängigsten Anforderungen hervorragend ab. Die 49$ im Monat sind gut investiert, speziell beim derzeitigen niedrigen Dollarkurs.
Daneben benutze ich allerdings auch noch eine Reihe von lokalen Programmen. Relativ neu in der Sammlung ist SEO SpyGlass von LinkAssistant. Der Claim auf der Seite ist zweifellos maßlos übertrieben:

Here’s A 100% Proven Way To Quickly And Easily Outrank ANY Site, For ANY Keyword, And Get A Top Google Ranking (Read Full Proof Below.)

Aber, und das spricht sehr für die Software, die Analysefunktion spart unglaublich viel Zeit, wenn man in kompetitiven Branchen unterwegs ist. Das SpyGlass analysiert in einem einzigen Arbeitsschritt die Backlink-Struktur von Konkurrenzseiten (entweder via Keyword oder URL) und bereitet die Ergebnisse so auf, dass selbst Anfänger im Handumdrehen die sinisteren Machenschaften der Konkurrenz durchschauen. Und die genauen Link-Strategien zu kennen ist ungemein nützlich bei der Optimierung der eigenen Seite. Ein Riesenvorteil ist, dass sich SEO SpyGlass im Gegensatz zu den meisten derartigen Tools nicht auf den Standard-Google-Index beschränkt: Ask.com, MSN, Yahoo und andere Suchmaschinen lassen sich ebenso nutzen wie die länderspezifischen Google-Indizes. Für diesen Funktionsumfang sind 87$ für jeden Webmaster, der seine Seite nach vorne bringen will, ein guter Deal. Für professionelle SEOs bietet LinkAssistant eine Enterprise Edition an: die kostet 267$ und unterscheidet sich nicht in der Grundfunktionalität, sondern ermöglicht in erster Linie automatisiertes Reporting an Kunden.

Extrem hilfreich ist die Software für all die armen Webmaster, die mangels eigener Networks Links bei Drittanbietern wie Teliad einkaufen müssen. Denn wenn es darum geht, en ersten Platz im Suchergebnis einzunehmen, dann will man schließlich keinen Cent mehr ausgeben als erforderlich; und möglicherweise lässt sich ja sogar der eine oder andere mietbare starke Backlink ausmachen, der dem “Gegner” seinen Vorsprung verschafft :evil:

Wer sich von den Vorzügen der Linkspionage vorab überzeugen, kann die kostenlose Testversion nutzen. Ich habe mir die Software in erster Linie für meine eigenen Pages gekauft, da ich mit den Resultaten äußerst zufrieden war, setze ich SEO SpyGlass mittlerweile auch gerne bei Kundenprojekten an. Kein anderes Tool ermöglicht einen so raschen Überblick über die Linkstrukturen der Konkurrenz – und der wichtigste Erfolgsfaktor im SEO-Business war schon immer das entscheidende Quäntchen Informationsvorsprung. :mrgreen:

SEO SpyGlass Download

Affiliate Link-Cloaking und 1-Pixel-Images

pepperjamFür das Cloaking von Affiliate Links können WordPress mittlerweile auf tüchtige Plugins zurückgreifen – aber der schönste Redirect in ein noindex-Directory hilft nix, wenn immer mehr Affiliate Marketeers diese nervigen 1-Pixel Images sogar bei reinen Textlinks vorschreiben – Pepperjam hat da eine wesentlich elegantere Lösung. Außerdem böte das beliebte, aber leider sehr auf englisch-sprachige Sites fokussierte Affiliate-Netzwerk Pepperjam lukrative Quoten und einige sehr interessante Programmpartnerschaften.

Die Backend-Applikation ist ausgesprochen übersichtlich, Support erfolgt rasch und freundlich. Am besten gefällt mir allerdings in technologischer Hinsicht, dass Pepperjam zwar auch aus Tracking-Gründen die 1×1 Pixel Images verwendet, diese allerdings ebenso wie den eigentlichen Affiliate-Link standardmäßig cloaked, also verschleiert: das Zählpixel wird von einem “harmlosen” Server geladen und verhindert so allfällige SERP-Abwertungen.

Bei Amazon lässt sich das Pixel ja noch verschmerzen – ich rechne keinesfalls mit SERP-Abwertung aufgrund von Amazon-Links; auch wenn ein nofollow in solchen Fällen niemals schaden kann. Bei Zanox hat man mir auf Nachfrage zwar mal mitgeteilt, dass das Pixel nicht unbedingt eingebaut werden muss und das Cookie-Tracking auch ohne funktioniert, trotzdem finde ich die Pepperjam-Lösung wesentlich eleganter. Two thumbs up! Wenn da nicht wieder mal die böse alte Sprachbarriere wäre:

Hi Ritchie,
Thanks for reaching out. At this time, we are not allowing affiliates to promote the PJN Referral Program if their websites are not in English.

Yuck. So geht’s halt fast immer, wenn man ein auf ein gut gemachtes, interessantes Affiliate-Programm stößt…

Yigg-Relaunch: da kommt keine Freude auf

yigglogoDer angekündigte Relaunch von Yigg dauerte ziemlich lange, nämlich ganze drei Tage. Ich weiß aus eigener Erfahrung sehr gut, wie schnell die kleinste Panne beispielsweise bei einer DB-Migration sofort zum Supergau führen kann. Nun ist die neue Seite seit einigen Tagen endlich online, allerdings stellt sie nach der überwiegenden Anzahl der Usermeinungen eine ziemliche Verschlimmbesserung dar – aber das wird schon.

Viele User jammern lauthals über die neue Link-Policy: verlinkte Yigg bisher den Nachrichtentitel, so gibt’s mittlerweile nur mehr einen Screenshot samt “Quelle öffnen”… aber immerhin ohne nofollow, das inzwischen die meisten anderen Portale einsetzen. Mit dem nofollow bei Social News Sites ist’s übrigens ähnlich wie bei Blogkommentaren: setzt man das elendige Attribut ein, dann hält man vermutlich einige Spammer ab – und zusätzliche jede Menge Folks, die eben nur *wegen des* Backlinks durchaus lesenswerte News eintragen; ein zweischneidiges Schwert also. Ebenfalls auf verständlicherweise wenig Gegenliebe stießen die selbst für registrierte User aktivierten Layer-Ads (Mann, die haben echt was Rotlichtiges…)

Anfangs war sogar die Rede von absichtlichem Linkbaiting – in der Tat schaut das Design, angeblich das Ergebnis einer Studie, nicht besonders zeitgemäß aus. Optik freilich ist und bleibt Geschmackssache, und jede Seite, die man längere Zeit benutzt hat, wirkt nach einem Relaunch erst mal fremd und ungewohnt. Dennoch scheint der Vorwurf der Unübersichtlichkeit nicht völlig aus der Luft gegriffen: diverse Profildaten sind verschwunden, Services nicht verlinkt, URLs haben sich geändert und so weiter. Ich will das nicht im Details wiederkäuen, lässt sich alles genauestens nachlesen. Das schönste Zitat hab ich beim Herrn Anwalt gefunden:

Der ursprüngliche Link zu den Userprofilen wirft nun einen schönen 404er. Sorry, aber das ist ein Verhalten welches ich von der Webseite eines Kaninchenzüchtervereins erwarte und nicht von der führenden deutschen Social News Seite.

Stereopoly schreibt über Yiggs Maskottchen sogar:

Heute kam es zu einem tragischen Unglück in der Johann-Clanze-Strasse in München. Der gerade einmal drei Jahre alte süße Hamster des Michael R. sprang vom Balkon eines 12-stöckigen Hochhauses und war sofort tot. Nachbarn und Umstehende hörten ihn noch fiepen, aber es war zu spät. Niemand konnte den tiefen Fall des als stets fidel geltenden und mitten im Wachstum steckenden Nagetiers mehr verhindern.

Allerdings bin ich mir ziemlich sicher, dass da im Lauf der nächsten Zeit noch gewaltig nachgebessert wird. Der Blogbutton funktioniert bereits wieder, und dass sich User abwenden, glaub ich eher nicht: so groß ist die Auswahl an deutschsprachigen general interest Newsportalen, bei denen jeder dahergelaufene Gonzo was eintragen darf, auch wieder nicht. (Wikio, Webnews. Und neuerdings Shortnews, die jetzt auch Blogs als Quellen akzeptieren.) Allerdings gibt’s da usability-technisch eine Sache, die so ganz und gar nicht verstehen kann und die auch nix mit Geschmack zu tun hat: Und zwar die Größe der Darstellung. Ich hab diesen winzigen Samsung 22-Zoll Monitor mit 1000+ Pixel Vertikalauflösung und sehe auf der Startseite 1 (in Worten: eine) News komplett und den Titel der zweiten. Diese Screenaufteilung wär nicht mal für ein Blog adäquat! Bis da ein einziger Blick endlich wieder mehr Orientierung verschafft, hätt ich gern die alte Startseite zurück. Nun denn, so schaut’s aus:

yiggstartseiteneu

Affiliate Linx: Moderne Wahrgagselei

Ich mag das Amazon-Affiliate Script, das vollautomatisch passende Wörter und/oder Wortkombinationen mit Produktlinks hinterlegt, ausgesprochen gern. Denn woran es dem freundlichen Algorithmus in Ermangelung von Phantasie keinesfalls mangelt, ist maschinell induzierte Fantasie. Was früher Vogelbeinlesen, später Textexegese und ganz kurz die quantitative Inhaltsanalyse immer ein wenig zweifelhaft vollbrachten, schaffen Affiliate Scripts mit links: nämlich die versteckte, “wahre” Bedeutung eines Textes zu dechiffrieren – wie das folgende Beispiel zeigt.

Vor kurzem hab ich gefragt, ob die Gläsernheit des Menschen selbigem am Ende gar über den Kopf wächst, und zwar im Rahmen einer Podiumsdiskussions-Ankündigung. Die endete mit folgendem Satz:

satz1

Worum sich’s aber wirklich dreht, seht ihr, wenn das Licht angeht: einer der Diskutanten frönt nach Meinung Amazons dem Satanismus, während ein anderer für den Wortwechsel bereits die metaphorischen Klingen schärft:

satz2

satz3

PS: Kann man eigentlich ein JavaScript wegen übler Nachrede verklagen?

Plugin-Tipp: Affiliate Links verstecken

mgcontentVor einiger Zeit habe ich hier am Blog erklärt, warum man Affiliate Links nach Möglichkeiten “cloaken” (=verstecken) sollte, da ansonsten möglicherweise negative SEM-Konsequenzen drohen – und zugleich bedauert, dass kein Plugin diese recht lästige Handarbeit automatisiert- “zu Fuß” muss man nämlich für jeden neuen Affiliate-Link eine händische Eintragung in der htaccess-Datei machen. An der Notwendigkeit des Cloakens hat sich nix verändert, ganz im Gegenteil – aber seit kurzem gibt’s danke mgcontent.com eine komfortable Lösung, mit der man alle Affiliate Links im Backend verwaltet. Zusätzlich macht das Affiliate Link Plugin die Aff-Links zuverlässig für Google & Co. unsichtbar.

Bei der Installation gilt es ein paar Kleinigkeiten zu beachten: das Plugin selbst kommt in den üblichen Plugin-Ordner, zusätzlich muss eine Datei namens out.php in den Rootfolder hochgeladen werden und zwei kleine Eingriffe in die .htaccess bzw. die robots.txt werden fällig – hört sich kompliziert an, ist aber im Handumdrehen erledigt. Anschließend taucht im CMS-Hauptmenü ein neuer Punkt “Affiliate-Link” auf – hier verwaltet man die eigene Sammlung. Wichtig dabei: man definiert grundsätzlich bestimmte Worte respektive Phrasen, die nach dem Speichern in *allen* Artikeln durch den zugehörigen Affiliate-Link ersetzt werden – wahlweise sichtbar oder versteckt sowie mit definierbarem target und wahlweisem nofollow-Attribut.
Für den Fall, dass die automatische Ersetzungsfunktion nicht gewünscht wird, lassen sich aber auch einzelne versteckte Links generieren: für diesen Zweck stellt das Plugin einen Einbindungscode zur Verfügung, der folgendermaßen aussieht:

http://www.domain.com/link/Keyword.html

Das betreffende Verzeichnis /link/ ist natürlich via robots.txt für alle Agents gesperrt – und schon werden die Affiliate Links unsichtbar. Ungemein praktisch für alle geldverdienenden Blogger – vor allem, weil die Auflistung der Affiliate-Links im Backend für Übersicht sorgt. Dank der flexiblen Konfigurationsmöglichkeiten und der wahlweisen automatischen Ersetzung von Keywords oder der Generierung von Einzel-Links zeigt sich das Plugin jeder gängigen Cloaking-Anforderung gewachsen – uns anstatt bei jedem neuen Affiliate-Link händisch mehrere Files zu editieren wird das automatisierte Abcashen plötzlich noch viel komfortabler – wer hätte das gedacht? 2 Daumen hoch! :mrgreen:

Download

Caveat: Diese Art des Cloakings eignet sich natürlich nur für “simple” Affiliate Links. Wenn die Einbindung eines 1-Pixel-Images (wie bei Amazon) oder ein Javascript-Counter (wie z.B. bei trigami) erforderlich sind, dann können die Aff-Links leider nicht versteckt werden.

Blogistan Panoptikum KW15 2008

Helge war in der vergangenen Woche in verbale Auseinandersetzungen mit einem Angestellten des Bildungsministers verstrickt und ich wurde binnen einer Woche auf Facebook Fan von Heinz von Foerster und Louis Defunes!

Also keine Rede von einer ruhigen Kugel und oder gar Woche – stattdessen gibt’s schon wieder ein paar Bushaltestellen mehr im globalen Dorf.

Bundesheer, Profil und rechte Gestik

Lukas Leitner, Gesellschafter der Cayenne Werbeagentur und Milizoffizier, hat auf medianet einen Beitrag über jenen Profil-Artikel, der dem österreichischen Bundesheer vorwirft, bei der Ausmusterungszeremonie an der Militärakademie Nazi-Gestik zu perpetuieren. Meine Freude über alle uniformierten Bewaffneten hält sich in extrem engen Grenzen. Dem Bundesheer offizielle Liebäugelei mit Rechtsaußen vorzuwerfen, halte ich aber für genauso falsch und fahrlässig wie der Autor des Artikels:

Die wertvolle und unverzichtbare Einrichtung Bundesheer – die trotz ihrer zahlreichen humanitären Einsätze im In- und Ausland ohnehin nach wie vor mit aus Altlasten resultierenden Vorurteilen zu kämpfen hat – wider besseren Wissens ins unrecht “rechte” Licht zu rücken, ist mehr als ärgerlich. Es ist eine Fahrlässigkeit gegenüber einer der wichtigsten demokratischen Einrichtungen im Land. Wo humanitäre Krisen toben, sind unsere Soldaten Botschafter der Hoffnung und riskieren tagtäglich ihr Leben.

Klingt ein wenig glorifizierend, ist im Kern aber völlig richtig… man kann ausreichend Kritik am Bundesheer über, aber um einen Nazi-Spielplatz handelt sich’s dabei ganz gewiss nicht.

trigami und nofollow

In letzter Zeit ist’s mir zweimal passiert, dass trigami einen meiner Reviews beanstandet hat – nicht etwa, weil der Text zu kurz gewesen wäre, sondern weil sich Links ohne nofollow eingeschlichen hatten. Einmal lags an der Autolink-Funktion von Simple Tagging (wobei es sich allerdings um interne Links handelte, aber auch die müssten laut trigami-AGBs ge-nofollow’ed werden), beim zweiten Mal an schlichtem menschlichem Versagen meinerseits. Der Fehler war in beiden Fällen flott behoben – allerdings bin ich sehr neugierig, wie sich die Paid-Review Szene in den nächsten Monaten weiterentwickelt. Eine neue US-Plattform, über die ich demnächst berichtet werden, verbietet den Einsatz von nofollow explizit, am Markt werden sich mittelfristig jene Anbieter durchsetzen, die Kunden nicht nur Buzz, sondern auch Backlinks verschaffen. Die Crux dabei ist wie immer Tante G – falls Google die diesbezügliche Policy jemals offiziell ändert, wird trigami sicherlich schnell nachziehen – ich halte die bezahlten Reviews nach wie vor für die beste und effizienteste Form der Blogwerbung – und zwar für alle Beteiligten. Dass nach trigami, wie manche Windeier lautstark prophezeiten, aufgrund der nofollow-Policy ganz schnell kein Hahn mehr krähen würde, hat sich natürlich nicht bewahrheitet; aber gegessen und ein für allemal geklärt ist der Einsatz des nofollow-Attributs noch lange nicht. Mir persönlich wär’s am liebsten, wenn man als Blogger selbst entscheidet, ob der Link zum Auftraggeber SEO-technisch entwertet werden soll oder nicht.

So, das war’s auch schon wieder mit dem Wochenrückblick… der fällt etwas kürzer aus sonst: die Landschaft in Lienz ist einfach zuuuu leiwand, als dass ich am Sonntagnachmittag vor dem Rechner sitzen bleiben könnte!

Stirbt wirklich jeder A-Blogger an Herzinfarkt?

Selbstauferlegter Stress, explodierende Nebenkammern und generell Selbstausbeutung bis zum totalen Zusammenbruch: so geht’s allen A-Bloggern, wenn man einem aktuellen Bericht von BrandEins glaubt.

Der heutige Facts Lesetipp hat meine schlechte Meinung über brandeins nachhaltig bestätigt; schlimm und traurig, dass Marc Orchant anscheinend dank zu viel Arbeit und selbstauferlegtem Stress an einem Infarkt verschied. (Wie Meth so treffend rappt: I’m a drink this whole bottle for Old Dirty – damn it hurts and I hate it, when brothers go early.) Daraus allerdings ein Plädoyer über die Gesundheitsschädlichkeit des Bloggens an sich abzuleiten, stünde jedem Boulevard-Blatt ganz hervorragend zu Gesicht:

Der Kopf des Ganzen besteht aus ein paar Tausend Blogs, auf die der Rest der Online-Welt schielt und die so zum neuen Establishment geworden sind. “Wenn man die ganze Heuchelei über die Revolution des neuen Mediums Internet einmal abzieht”, giftet Keen, “regiert die Blogger letztlich alle der Wunsch nach Einfluss und finanziellem Erfolg. Das zieht eine bestimmte Sorte Mensch an – besessen, getrieben und nie zufrieden.” In Anlehnung an den übermenschlichen Helden der Arbeit aus besten Sowjet-Zeiten seien Blogger “die neue Stachanow-Bewegung”. Mit einem Unterschied, so Keen: “Sie schuften sich zu Tode, aber in zehn Jahren redet kein Mensch mehr von ihnen.”

Glaubt zumindest Steffan Heuer. Überhaupt scheint der Autor jeden einzelnen A-Blogger (das sind übrigens laut Artikel Blogs mit mehr als 1.000 Technorati-Backlinks) sehr genau zu kennen; das folgende Pauschalurteil dürfte also das Ergebnis jahrelanger systematischer quantitativer Studien zu sein:

Trotz der beiden Unglücksfälle fahren Maliks Kollegen weiter Vollgas, ohne groß über die Risiken und Nebenwirkungen der neuen Medienwelt nachzudenken, in der Sofort-Journalismus und unternehmerischer Erfolgsdruck das Privatleben weitgehend abgeschafft haben. Bei der dünnen Oberschicht sogenannter A-List Blogger, die Hunderttausende Leser haben und sogar Angestellte bezahlen können, verbinden sich professionelle Leidenschaft, überdimensionales Ego und Profitstreben zu einem explosiven Gemisch.
[…]
Wer es als Blogger zur Marke gebracht hat, gibt ungern zu, dass er ausgebrannt ist und beim selbst angezettelten Wettlauf nicht mehr mithalten kann.

Ja, ich würd das auch ungern zugeben, wenn ich’s denn zu was gebracht hätte… aber obwohl ich überhaupt nicht Heuers A-Liste angehöre, bin ich eigentlich schon längst so ausgebrannt, dass seit drei Monaten ein php Script aus den Dark Secret Technology Labs meine Texte für mich schreibt, postet und auf Kommentare antwortet.

PS: Ich glaub, es war Viktor Frankl, der den bekannten Ausspruch “Stress is the salt of life” geprägt hat. Und ich würd mir von einem “Werbe-Branchen-Magazin” erwarten, dass man zwischen verschiedenen Personen möglicherweise sogar differenziert, anstatt A-Blogger samt und sonders als selbstzerstörerische Egomanen zu betiteln…

Was für eine Blogkette denn?

Heute habe ich wieder mal ein E-Mail bekommen. Das kommt nicht oft vor, daher widme ich Lauras Message gleich einen ganzen Beitrag – es geht nämlich um einen sogenannte “Blogkette”, die mein bescheidenes Verständnis von Blog-Aggregation ein wenig übersteigt.

Hallo, ich bin derzeit auf der Suche nach den besten Blogs Deutschlands. Denn im Rahmen unseres Projekts “Blog-Kette” wollen wir – vielleicht gemeinsam mit dir – das größte Blogprojekt der Republik aufbauen.
Bei meiner Suche bin ich nun auf deinen Blog gestoßen, der gut in unser Konzept passen würde. Deshalb würde ich dich bitten uns zu gestatten, die Artikel deines Blogs per RSS einzulesen.
Selbstverständlich kannst du deinen Blog jederzeit wieder austragen. Du gehst keine Verpflichtungen ein und die Teilnahme an dem Projekt “Blog Kette” ist kostenlos – du profitierst sogar durch die Teilnahme:
-zusätzliche Backlinks für deinen Blog
-dein Blog wird namentlich erwähnt
-Teilnahme an Blog Kette Aktionen z.B. bei Technorati
-Linktausch mit Blog Kette Blogs

Über deine Zusage freue ich mich.
Viele Grüße
Laura, www.Blog-Kette.de

Hi Laura,

ich hab mir grad die Seite angesehen und muss zugeben: ich kapier überhaupt nicht, worum’s bei der Blogkette geht. Einen About-Text, der die Idee des Projekts erklärt, hab ich nicht gefunden – unter der betreffenden URL sehe ich ein Blog mit Beiträgen über eine Münchner Reitschule, ein Fußballspiel und richtige Zahnpflege – ein Schelm könnte meinen, ihr prozessiert einfach nur eine Latte von RSS Feeds, schmeißt sie in ein Blog und fertig. Sozusagen eine Art automatisierte Social News Community mit akutem Duplicate Content Mehrwert. Vielleicht versteh ich ja was falsch – in dem Fall bitte ich um Aufklärung. Mitmachen werde ich allerdings auch aus anderen Gründen nicht können, weil ich im Eintragungsformular gerade folgenden Satz gefunden habe:

Mit dem Abschicken Deiner Informationen versicherst du, dass dein Blog keine rechtswidrigen oder expliziten Infos und Bilder beinhaltet und, dass deine Inhalte nicht gegen Rechte oder Gesetze verstoßen. Du garantierst, dass deine Texte und Bilder frei von Rechten Dritter sind und, dass deine Inhalte auf Blog Kette eingelesen und veröffentlicht werden dürfen.

Tja… weder alle meine Texte noch Fotos sind “frei von Rechten Dritter”: mein Lieblings-Portraitbild z.B. – das schwarzweiße – hat Helge gemacht. Die letzte Berlin-Gallerie ist von Bernd. Und unter dem Punkt GastautorInnen gibt’s einige komplette Beiträge, die gar nicht mal von mir geschrieben sind! Und dann zitiert ich auch noch dauernd so Zeugs… nene, keine Rede von “frei von Rechten Dritter”. Ich hab bloß die Publikationsrechte für datenschmutz.

Aber vielleicht versteh ich das auch alles einfach falsch… schaden könnte eine Überarbeitung des About-Textes zum “größten Blogprojekt der Republik” (welcher Republik eigentlich?) garantiert nicht!

PS: außerdem meint Jean Lafitte zu Blogketten: Nur Piroten is nix verboten!

mahalo: Kollektiv besser suchen?

mahaloFünfhunderttausende Trilliarden Affen mit ebensovielen Schreibmaschinen schrieben, dem Gesetz der Entropie sei Dank, einen wesentlich besseren Hamlet als Shakespeare. Sagen uns Wahrscheinlichkeitstheoretiker. Aber produzieren etliche Tausend User einen besseren Suchindex als Tante G.? Ja, meint ein amerikanisches Start-Up – und bezahlt engagierte User für die liebevolle Gestaltung von SERPs.

Der Name mahalo.com stammt aus dem Hawaiianischen und bedeutet “Dankeschön” (auf Tirolerisch: Vergelt’s Gott. Was aber eigentlich eher wie eine Drohung klingt.) Das Service-Proposal lautet wie folgt:

Mahalo is a human-powered search engine that creates organized, comprehensive, and spam free search results for the most popular search terms. Our search results only include great links.

Sozusagen handelt es sich um eine konsequente Weiterführung des Konzepts “Social Bookmarking”: anstatt einzelne Sammlungen aufzubauen, arbeiten die User an einem gemeinsamen Datenbasis: Klasse statt Masse, Ham statt Spam lautet die Devise. Haben genügend User eine Seite zu einem bestimmen Stichwort positiv bewertet, wird diese in die SERP, also die Ergebnisseite, aufgenommen.

Einerseits handelt sich’s um eine theoretisch ganz nette Idee, andererseits steht und fällt die Idee eines solchen Modells mit einer riesigen kritischen Masse – und solange der Index ausschließlich in Englisch verfügbar ist, dürfte die Seite für Non-En Homepages und Blogs wenig attraktiv sein. Davon abgesehen gefällt mir die Seite sehr gut: die Flut von Tools und Notifications wird durch die übersichtliche und logisch Benutzeroberfläche ausreichend gebändigt, die Ergebnisseiten wirken im Vergleich zu Google-SERPs geradezu wie wissenschaftliche Abhandlungen und evozieren unübliches Nutzerverhalten: anstatt gleich weiter zu klicken, verschafft man sich den einen gar nicht mal so oberflächlichen Überblick gleich direkt im Index. Ein Beispiel gefällt? Die SERP für den Begriff Best fictional brands bietet nicht nur Textinfo, sondern auch mehrere Videos an.

Zusätzliche Feature-Boxen wie “today’s top 10 Pages” laden zum Verweilen und Browsen ein, neben der Flat-Search bietet die Seite auch eine Katalog-Ansicht mit hierarchisch strukturierten Kategorien an.

Unvorstellbar reich werden mit Mahalo

Im sogenannten Greenhouse können sich motivierte SERP-Designer anmelden und abcashen: für jede SERP, die von den Full time editors akzeptiert wird, gibt’s eine Provision. Über deren Höhe schweigen sich die AGBs allerdings beharrlich aus – aber ich vermute mal, dass man mit SERP-Gestaltung nicht direkt der nächste Donnie Trump wird.


 

 

Ab hier sehen dürfen nur datenschmutz-Pro Abonnenten weiterlesen :twisted: Falls Sie mir noch kein Bier spendiert haben, dann drücken Sie nun alt+F4, um zur öffentlichen Version zu gelangen :-)

SEO Wink mit dem virtuellen Zaunpfahl

Mahalo bietet eine saugeile Firefox Erweiterung an, mit der man – eh schon wissen – á la del.icio.us direkt aus dem Browsermenü einzelne Adressen empfehlen kann. Das wär nun nicht weiter spektakulär, aber die Programmierer haben eine nette Autoposting-Funktion eingebaut: die veröffentlicht die einzelnen Links praktischerweise via One-Click auf mehreren Social Platforms. Dazu übergibt man dem Plugin einmalig die Logis für ma.gnolia.com, Facebook und Co. – diese werden wahlweise lokal oder am Mahalo-Server gespeichert; letzere Option erlaubt die Nutzung der Autopost-Funktion ohne erneute Eingabe der Login-Daten auch auf fremden Rechnern.

Soviel zum Thema Anti-Spam… ich wette, dass jeder SEO die One-Click Actions lieben wird. Im Gegensatz zu den gängigen Softwarelösungen funktioniert das Plugin astrein und zuverlässig. Also falls es nix wird mit den tollen Suchergebnissen, dann stellt mahalo.com zumindest ein ausgesprochen praktisches Tool dar. Überhaupt eignet sich die Seite ganz hervorragend zum gegenseitigen Linkpushing: ich weiß nicht, wo derzeit das Review Cap liegt – also wie viele positive Reviews eine Seite bekommen muss, um bei einem gegebenen Suchbegriff aufzuscheinen. Aber allzu viele können’s derzeit nicht sein, der Erfolg der Seite steht und fällt mit dem Index. Also mit anderen Worten: wer auf mahalo blog.datenschmutz.net mit den Tags “Blogging, Medien, Kultur, Technik” empfiehlt, der bekommt von mir natürlich gerne Linklove zurück: einfach einen Kommentar zur betreffenden Seite hier posten.

ds Videopodcast #2: WordPress und das nofollow-Attribut

Das nofollow-Attribut wurde von Google eingeführt, um die gezielte Beeinflussung des Pagerank-Algorithmus durch Spammer zu erschweren. Dabei kann sein Einsatz durchwegs kontraproduktiv sein – im zweiten Videopodcast gibt’s für WordPress-Blogger dazu einige Anregungen.

YouTube Preview Image

Links: Für WordPress exisitieren verschiedenste Plugins, die nofollow entweder ganz abdrehen oder gezielte Einstellungen erlauben: WP-Nofollow, Dofollow und Nofollow Case-by-Case gehörten zu den beliebtesten Lösungen.

An Feedback und Themenwünschen für zukünftige Folgen bin ich natürlich sehr interessiert! In diesem Sinne: schönen Blog-Wochenbeginn.

Robots.txt Tricks für WordPress-Blogs

Mittlerweile existieren für WordPress zahlreiche Plugins, die sich des Problems “Duplicate Content” annehmen. Google mag’s nämlich ganz und gar nicht, wenn ein- und dieselben Inhalte unter der gleichen Adresse abzurufen sind und reagiert mit Abwertung.

Dass der duplicate content in den letzten Monaten gesteigerte Bedeutung erlangte, hat nicht zuletzt mit der steigenden Verbreitung von Splogs, also Spam-Blogs, zu tun*. Man muss jedenfalls eine Menge Vorkehrungen treffen, damit unter der eigenen Domain jeder Artikel nur einmal aufscheint. Duplicate Content Cure oder Meta Robots lösen die gröbsten Troubles (ich verwende beide Erweiterungen), effektivere Resultate erreicht man mit der direkten Aussperren von Bots in der robots.txt: diese Datei liegt gemeinhin im Rootverzeichnis und enthält Anweisungen für Crawler – und die Big Three (Google, MS, Yahoo) halten sich auch dran.

Word of Warning: Mit Manipulationen an der robots.txt-Datei kann man sich eine gut funktionierende SERP-Struktur im Nu abfucken. Außerdem spielt die Frage, ob man z.B. in der Tag- und Category-Ansicht Exzerpte verwendet eine beträchtliche Rolle – ebenso wie die Entscheidung, welche Einzelpages gut indiziert werden sollen. An Impressum und Kontaktformular möchte ich z.B. lieber keinen Linkjuice verschwenden. In solchen Fällen machen interne nofollow-Links hochgradig Sinn, aber das ist eine andere SEO-Geschichte und soll ein andermal erzählt werden…

Word of even more Warning: Die nachfolgende angegebenen Tipps beziehen sich auf *meine* Permalinkstruktur. Wer keine sprechenden Permalinks verwendet oder stark abweichende Einstellungen, kann mit den folgenden php-Wildcards Crawlern den Zugriff auf Beiträge komplett verunmöglichen. Also in jedem Fall ein Backup der robots-Datei anlegen und testen, testen, testen! Sehr hilfreich dabei: das kürzlich erwähnte Crawler-Tracker Plugin.

Exclusions im robots.txt

Einige reguläre Ausdrücke sind im robots.txt erlaubt, $ steht in Regex-Terminologie dabei für das Ende des Dateinamens. Die Syntax “.php$” erfasst also alle Dateien, die auf *.php enden. Man kann damit zum Beispiel den Crawler-Zugriff auf alle pdfs, exe-Dateien und Bilder sperren:

Disallow: /*.pdf$
Disallow: /*.jpeg$
Disallow: /*.jpg$
Disallow: /*.gif$
Disallow: /*.png$
Disallow: /*.exe$

Daraus ergeben sich zahlreiche weitere Möglichkeiten, die man ja nach eigener Präferenz frei kombinieren kann:

Disallow: /*? – alle URLs mit Fragezeichen drin werden geblockt. Kann natürlich nur dann verwendet werden, wenn in den Standard-URLs kein Fragezeichen vorkommt.

Disallow: /*.php$ – blockiert alle php-Files
Disallow: /*.inc$ – verhindert den Zugriff auf include-Dateien.
Disallow: /*.css$ – verbirgt Stylesheet-Dateien (falls mehr als eine in Verwendung ist.)
Disallow: */feed/ – verhindert das Einlesen des Feeds.
Disallow: */trackback/ – verhindert das Indizieren der Trackback-URLs.
Disallow: /tag/ – Tag-Pages ausschließen
Disallow: /category/ – Kategorie-Seiten ausschließen.
Disallow: /2006/ – Disallow: /2007/ – Disallow: /2008/ – Zugriff auf Jahresarchive verbieten

Möchte man nun aus irgendwelchen Gründen den Zugriff auf eine der oben ausgeschlossenen Seite explizit erlauben, kommt dazu folgende Syntax zum Einsatz:

Allow: /category/meineseite.php – erlaubt den Zugriff auf die angegebene Adresse, auch wenn /category/ als Pfad gesperrt ist.

Sollte man nun besser die oben angegebenen Plugins oder die robots.txt-Methode verwenden? Um die Unterschiede zu verstehen, muss man ein weniger tiefer in SEO-Welten abtauchen: während die beschriebenen Plugins die von Google vorgesehene Syntax noindex bzw. nofollow in den Header der betreffenden Dateien einfügen, sorgt die robots.txt-Variante dafür, dass überhaupt nie auf die betreffenden Seiten zugegriffen wird. Ob die beiden Varianten in der Praxis einen Unterschied machen, darüber streiten derzeit die SEO-Experten – siehe auch die Diskussion zum betreffenden Eintrag bei Shoemoney.

Außerdem ist davon auszugehen, dass Google mittlerweile WP-Installationen erkennt und selbst Vorkehrungen gegen Duplicate Content trifft – aber diese Gleichung enthält eine Menge Variablen, und nachteilig ist’s ganz gewiss nicht, wenn man sich als Seitenbetreiber selbst drum kümmert, dass der Crawler ausschließlich unique content serviert bekommt.


* Viele Scraper stehlen einfach automatisiert Inhalte von anderen Blogs und schicken dann auch noch Trackbacks. Die Beiträge beginnen immer mit “xy wrote an interesting article today:” Dürfte wohl irgendeine Scraper-Software from Hell sein. Beruhigend zu wissen ist nur, dass solche “Strategien” langfristig niemals aufgehen.

Top-KommentatorInnen: PR5 Backlink abstauben

Vor einiger Zeit habe ich auf der datenschmutz Startseite das Top Commentators Plugin eingebaut: es zeigt auf der Startseite eine dynamisch generierte Liste jener 10 datenschmutz BesucherInnen an, die in den letzten 30 Tagen die meisten Kommentare gepostet haben – unabhängig davon, ob der betreffende User am Blog registriert ist.

Die Usernamen sind dabei mit der vom Kommentator eingetragenen Homepage verlinkt, selbstverständlich ohne nofollow und Google-lesbar. Zwar verwende ich, wie schon mehrmals erwähnt, auch für die normalen Kommentare kein nofollow. (Frank, Elias, Christian, Thorsten und das Bloggeramt sehen die Sache übrigens ganz ähnlich.)

Freilich hat nur die Startseite Pagerank 5 – und sollte damit speziell für SEO-beachte Webmaster besonders attraktiv sein. Mit nur drei Kommentaren innerhalb eines Monats ist man derzeit dabei, und ich bin durchaus überrascht darüber, dass nicht mehr Gerangel um die Gratis-Startseitenlinks herrscht :-)

Natürlich will ich niemanden auffordern, um des Backlinks willen zu posten; wer inhaltlich nix zur Diskussion beizutragen hat und nur Linkspamming betreibt, wird dafür natürlich nicht belohnt. Andererseits sind Kommentare eine der wichtigsten Ingredienzien des Bloggens, und StammleserInnen, die sich regelmäßig aktiv beteiligen, sollten dafür natürlich belohnt werden – daher halte ich die Top Commentator Liste auch für ein geniales Plugin. Die meisten Untersuchungen gehen ja davon aus – und meine Erfahrungen hier auf datenschmutz bestätigen das absolut – dass in der Blogosphäre weit über 99% der BlogleserInnen passiv “lurken”, also niemals einen Kommentar hinterlassen. Da datenschmutz aufgrund der vielen Web 2.0 affinen Beiträge aber eine überdurchschnittlich hohe Dichte an Co-BloggerInnen innerhalb der Leserschaft aufweist, möchte ich die Gelegenheit beim Zopf ergreifen und nochmal explizit darauf hinweisen, dass es ganz einfach ist, in die prominent platzierte Topliste reinzukommen.

10 große Alphablogger: …da waren’s nur noch 9

Da waren’s nur noch neun. Yup, das mittlerweile unsingbare Kinderlied hat mich zu einer kleinen, rein fiktiven Ode inspiriert. Sprache ist ein fluides Ding, immer im Wandel, und zum Glück (dieses Gefühl habe ich zumindest) hat sich in punkto Rassismus-Sensibiltität in den letzten Jahren viel Positives getan.

Mag sein, dass ich mich in einem unrepräsentativen Umfeld bewege, aber “Negerbrot”, das vor weniger als 10 Jahren in österreichischen Supermärkten im Regal stand, würde heute niemand mehr verkaufen. Wir haben den bewussten Abzählt-Reim-Song damals vor 1000 Jahren in meiner Kindheit jung, naiv und ohne böse Hintergedanken gesungen und auch eigene Varianten erdichtet. “10 kleine Negerlein” wird wohl mittlerweile hoffentlich in keinem Kinder-Gesangsbuch mehr abgedruckt sein. Das Original stammt übrigens aus den USA (siehe Wikipedia) und inspirierte Agatha Christie zu ihrem gleichnamigen Romantitel.

Wie auch immer: sprachliche Rassismen sind Scheiße, der Sprachrhythmus und die Idee des Runterzählens sind aber trotzdem genial, also hab ich mir erlaubt, aus den originalen Protagonisten 10 große Alphablogger zu machen. Müsste korrekterweise natürlich BloggerInnen heißen, aber in dem Fall stört’s den Flow empfindlich. Aber es reimt sich, also muss es Literatur sein, und die widersetzt sich hier einmal mehr hartnäckig gesellchaftlichen Utopien. Außerdem sterben die Alphablogger auch nicht auf martialisch-explizite Weise, sondern werden einfach zu Beta-Bloggern. Wie gesagt: Freiheit der Kunst und so, rein erfunden, fiktiv, ohne jeglichen Bezug zum jenem kollektiven Konstrukt, das manche von uns Realität und wieder andere Wirklichkeit nennen :-)

10 große Alphablogger konnten sich an tausenden Besuchern freun’n –
einer verkaufte Linklift Links, da waren’s nur noch neun.

9 große Alphablogger haben für trigami Reviews gemacht –
einer hat nofollow vergessen, da waren’s nur noch acht.

8 große Alphablogger wollten, dass ihre Leser sie lieben –
einer hat’s mit Uri Geller übertrieben: da waren’s nur noch sieben.

7 großte Alphablogger tranken ein paar Shots auf Ex –
einer hat Fotos auf Facebook gestellt, da waren’s nur noch sechs.

6 große Alphablogger schrieben über Supermodels und ihre Strümpf’ –
einer hat pornographische Bilder gepostet, da waren’s nur noch fünf.

5 große Alphablogger kannten ihr Revier –
einer schrieb zu deviant, da waren’s nur noch vier.

4 große Alphablogger hassten den Einheitsbrei –
einer wechselte zur FAZ, da waren’s nur noch drei.

3 große Alphablogger dissten Konken und fühlten sich frei –
einen hat er wegen übler Nachrede verklagt, da waren’s nur noch zwei.

2 große Alphablogger sagten: groß wird neben uns keiner!
der das sagte, hatte einen Servercrash, da war’s nur noch einer.

1 großer Alphablogger wollte seine Erfolge iterieren –
doch das gelang ihm nicht, er hatte ja niemaden mehr zum Kopieren.