Firefox, Opera, IE und Co.

Journalismus im Auftrag der Crowd: Geht’s noch deepr?

deepr will werbefreie, multimedial aufbereitete Reportagen ins Netz bringen und so Defizite der etablierten Medien ausgleichen. Finanziert werden die Storys direkt von interessierten Lesern, und zwar nicht Abo-Basis, sondern pro Einzelartikel. Kann kleinteiliges on-demand Crowdfunding funktionieren? Ja, ich glaube für das Berliner Start-Up stehen die Chancen besser als für die zahllosen in Gründung befindlichen Copycats im De Correspondent Stil. Denn während die auf generell zahlungswillige Leser hoffen, setzt deepr auf ein Storytelling-orientiertes á la carte Menü.

Der Kampf um Aufmerksamkeit im Netz wird von Minute zu Minute härter. Damit Tweets gelesen werden, sollten sie aus höchsten drei Buchstaben bestehen (Yo!), Präsentationen dürfen nicht länger als 18 Minuten dauern, sonst schläft auch noch der letzte wache Zuhörer ein (Hallo Onkel TED!) und Blogbeiträge müssen 7 Minuten respektive 1.600 Worte lang sein. Solche Tipps bekommt man mittlerweile an allen Online-Ecken und -Enden, diese konkreten Zahlen habe ich dem Buffer Blog entnommen. Zugegeben, die Sache mit den Tweets war übertrieben, denn die dürfen sogar 100 Zeichen lang sein. Maximal.

Während also das ganze Internet fleißig am Kürzen ist, leistet ein kleines Berliner Dorf hartnäckigen Widerstand. Armin Eichhorn, Philip Mertes, Sascha Steinbock und Stephan Max sind jene Häretikern, die ihre Thesen haben an das Eingangstor von godeepr genagelt haben:

deepr journalism ist unsere Antwort auf den Niedergang der Printmedien, die Nachrichtenflut sowie die sinkende Qualität im Onlinejournalismus. […] Wir sind davon überzeugt, dass das Internet großes Potential bietet, das Geschäftsmodell des Journalismus neu zu erfinden. Unser Ziel ist es, Journalisten, professionelle Blogger und ausgewiesene Experten in einem einzigen Medium zusammen zu bringen und deren Beziehung zu ihren Lesern grundlegend neu zu erfinden. Auf unserer Plattform wollen wir Lesern hochwertigen und zugleich werbefreien Journalismus bieten.

Gescheiter Journalismus – Wer soll für deepr bezahlen?

Die resultierenden multimedialen Reportagen heißen “deeps” und erinnern an die vom Stil her an typische Medium.com Beiträge. Garniert mit Bildern, Videos und Infografiken beleuchten sie ein Thema ausführlich und gehen – daher der Name der Plattform – so sehr in die Tiefe, wie sich das der geneigte Zeitungsleser von großartigem Reportage-Journalismus erwarten darf.

Bislang ist nur eine Reportage über die Bettlerkinder von Senegal online, drei weitere Themen harren ihrer Finanzierung. Denn deepr sieht vor, dass Autoren Vorschläge machen, die mit kurzer Beschreibung und Finanzierungsziel auf der Seite präsentiert werden. Elisa Hohental möchte über Pilgern in Zeiten des Krieges schreiben und hat bisher €33 von €300 gesammelt. Für Sandra Weiss Themenvorschlag In Teufels Küche – Auf den Spuren des weltweiten Kokainhandels in Perus Regenwald flossen schon zwei Euro mehr als die angepeilten €200 in die journalistische Portokasse. Marliese Mendel schreibt zum Vorschlagsprozess:

Autoren bewerben sich bei godeepr.com mit einem kurzen Lebenslauf, einem Artikelvorschlag, zwei Textproben und einem Motivationsschreiben. Entsprechen die Einsendungen den Kriterien von godeepr, wird gemeinsam mit dem Autor festgelegt wie viel die Recherche des Artikels kosten wird.

Interessenten sind ab einem Euro mit dabei. Erreicht ein Thema das angestrebte Finanzierungsziel in der vorgegebenen Zeit, machen sich Schreiber und Designteam an die Arbeit. Die Unterstützer erhalten dann nach maximal zwei Monaten den Link zur fertigen Story. Fertiggestellte Beiträge können auf der Seite weiterhin gekauft werden.

deepr: Bettlerkinder aus Senegal

Die erste deepr-Reportage beleuchtet das Schicksal senegalesischer Bettlerkinder.

Hoffnungsjournalismus oder nachhaltiges Business-Modell?

Dem gesamten Team kann ich zum Mut, etwas wirklich Neues zu versuchen, nur gratulieren. Während De Correspondent, Krautreporter und Co. klassischen Journalismus auf höherem Niveau bieten möchten, denkt deepr die Beziehung zwischen Lesern, Schreibern und Plattformbetreibern ganz neu. Dass ich dem krisengebeutelten Journalisten hier eine neue Goldgrube auftut, ist zumindest auf absehbare Zeit indes nicht anzunehmen. Auf Exklusivrechte verzichten die Betreiber, Autoren dürfen ihre Text auch anderweitig verkaufen.

deepr Markplatz: das Funktionsprinzip

Das Prinzip von deepr: Autoren schlagen Themen vor, Leser bezahlen im Voraus.

Ob sich tatsächlich genügend Leser finden, um pro Artikel eine Summe einzunehmen, die Arbeits- und Produktionszeit tatsächlich deckt, kann nur die Zukunft zeigen. Auch wenn FlattR noch keinen Blogger zum Medienmogul gemacht hat: Vor statt nach der Produktion eines Artikels für die Finanzierung zu sorgen, ist ein durchwegs logischer Schritt.

Dass die Leser ganz direkt die Themenwahl bestimmen, verleiht dem Businessmodell eher die Charakteristik eines Marktplatzes als einer Redaktion. Freilich eines Marktplatzes, der fürderhin eine aussterbene Nische abdecken könnte. Ich werde deepr jedenfalls im Auge behalten und hoffe auf ebenso spannende Themenvorschläge wie Reportagen.

xamoom – Location Based Service as a Service

Georg Holzer, alter Blog-Weggefährte, Mitveranstalter des Barcamps Klagenfurt und ehedem einer der bekanntesten IT-Journalisten des Landes, hat der hauptberuflichen Schreiberei den Rücken gekehrt und im Mai diesen Jahres gemeinsam mit Bruno Hautzenberger das Start-Up xamoom gegründet. Aus alten Smartphones wollen Sie Komplettüberdachungen für Kärntner Seen herstellen, damit man auch bei Regenwetter – respektive im Winter – dort baden und “surfen” kann. Nein, natürlich nicht: xamoom ging aus dem grandiosen Netzkulturprojekt pingeb.org hervor, das mit auffälligen gelben Stickern seit 2 Jahren am Wörthersee präsent ist.

Legt man ein NFC-Handy auf einen der Sticker, oder scannt man ganz Old-Skool den QR-Code, gibt’s als “Belohnung” kostenlose Musik und Texte junger Autoren. Das erfolgreiche und populäre Projekt, das unter anderem von der netidee gefördert wurde, brachte die zwei Firmengründer auf eine viel weitreichendere Idee: xamoom will eine Infrastruktur bereit stellen, die Location-Services demokratisiert:

Wir wollen ortsbezogene Handydienste (Location Based Services) allen zugänglich machen, die gute Ideen aber wenig Know-how und keine dicken Brieftaschen haben. Es gibt dafür jede Menge Anwendungsfälle – von Audioguides in Museen über den Tourismus bis hin zu Handel und sogar in der Gastronomie. Wir sehen uns aber als Anbieter einer Service-Infrastruktur (basierend auf Googles Cloud Platform) und weniger als Solution-Provider. Wir sind sicher, dass es jede Menge Anwendungen gibt, an die auch wir noch nicht denken. Das wird selbst für uns extrem spannend!

Georg Holzer und Bruno Hautzenberger

Screenshot der xamoom-App

Über diese spannende Gründerphase habe ich mit Georg, der gemeinsam mit Bruno beim Pioneers-Festival in Wien start-uppen wird, im Café Westend geplaudert.

Derzeit sucht xamoom zwei Entwickler. Und nächstes Jahr gibt’s dann vielleicht schon ein Wörthersee-Dienst-Speedboat!

Twitter Timeline 2.0 – Zwangsbeglückung mit Zusatztweets, aber keine Filter

Twitters Timeline-Experimente mit zusätzlichen Inhalten müssen wohl zufriedenstellend verlaufen sein, denn ab sofort bekommen alle Nutzer regelmäßig Kurznachrichten von Accounts zu sehen, die sie gar nicht abonniert haben. Und zwar zusätzlich zu den hinlänglich bekannten, aber in D-A-CH nach wie vor nicht sehr verbreiteten Werbe-Tweets. Die Auswahl erfolgt anhand mehrere Kriterien, die durchwegs von Facebook “inspiriert” sind, denn Twitter nutzt unter anderem Favorites als Selektionskriterium.

In die neue Timeline-Kategorie fallen zum einen “empfohlene Tweets” sowie “empfohlene Accounts” von Twitter und zum anderen eben Nachrichten, die von überdurchschnittlich vielen Nutzern, denen man selbst folgt, favorisiert wurden. Ein Beispiel gefällig? Nehmen wir mal an, Hans folgt Thomas und Hugo. Wenn Thomas und Hugo ein Tweet von Daniel favorisieren (also auf den “Favorite-Stern” klicken), dann könnte dieses zukünftig auch auf der Startseite von Hans auftauchen, obwohl der Daniel ja gar nicht folgt.

Welche Inhalte spielt Twitter zusätzlich in die Timeline?

Man könnte also von einer Art “inverser Facebook Logik” sprechen. Mark Zuckerbergs Netzwerk filtert nämlich jede Menge Inhalte automatisch raus und zeigt dem Nutzer jene Status-Updates an, die zu seinem bisherigen Aktivitätsprofil passen. Liken mehrere Freunde ein Update, das normalerweise nicht im eigenen Stream auftauchen würde, so erscheint dieses trotzdem – frei nach der durchaus bewährten Idee: was meine Freunde interessiert, interessiert mich auch.

Twitter zeigt Zusatztweets in der Timeline an.

Twitter “reichert” die eigene Timeline mit Zusatzinhalten an. Spielt es bald keine Rolle mehr, wem man folgt?

Twitter dagegen lässt keinerlei Inhalte unter den Tisch fallen, sondern reichert die Timeline mit zusätzlichen Inhalten an, integriert also quasi eine Art nicht abschaltbare “Discovery”-Funktion in den Newsfeed. Dass der Kurznachrichtendienst früher oder später verstärkt auf sogenannte “Social Signals” setzen würde, war seit langem absehbar. Bereits Anfang September titelte Techcrunch Twitter’s Timeline Could Get (More) Algorithmic. Die offizielle Twitter-Hilfe beschreibt die neuen Inhalte in der Timeline wie folgt:

Additionally, when we identify a Tweet, an account to follow, or other content that’s popular or relevant, we may add it to your timeline. This means you will sometimes see Tweets from accounts you don’t follow. We select each Tweet using a variety of signals, including how popular it is and how people in your network are interacting with it. Our goal is to make your home timeline even more relevant and interesting.

Twitter will keine Kennzeichnung neuer Tweets in der Timeline

Soweit mir bekannt, werden die zusätzlichen Tweets in der Timeline nicht speziell gekennzeichnet. Zahlreiche Nutzer beschwerten sich schon im Vorfeld über diese “Zwangsbeglückung” und orten in der neuen Timeline einen gravierenden Kontrollverlust, dabei ist noch gar nicht bekannt, wieviel Prozent die neuen Inhalte ausmachen werden in Relation zu den Tweets der eigenen Followers. Twitter setzt damit aber bloß jenen Kurs fort, der mit API-Restriktionen und dem Aussperren alternativer Clients begonnen schon vor Jahren begonnen hat. Das Interesse der Betreiber liegt klar darin, werberelevante Kennzahlen wie Verweildauer und Klickraten zu steigern und damit den Kurs der Twitter-Aktie an der Börse zu steigern, denn irgendwann wird’s für jedes Vögelchen mal Zeit, die Gewinnzone zu erreichen. Wo der Nutzen für die Anwender liegt, muss sich erst noch zeigen.

Fazit: Ich persönlich hab nichts gegen zusätzliche Tweets, ganz im Gegenteil: solche Discovery-Funktionen stellen für mich einen der stärksten Mehrwerte von Social Media Plattformen dar. Eine deutliche Kennzeichnung der Zusatztweets würde ich mir allerdings sehr wohl wünschen. Und wie Jan bin ich der Meinung, dass Twitter zukünftig noch stärker an der Timeline respektive deren Zusammensetzung herumschrauben wird.

Ello: Misstrauen und Popularität wachsen parallel

Der Hype um Ello kommt und geht in Wellen. Während sich in den letzten drei Wochen zeitweise bis zu 30.000 neue Nutzer pro Stunde (!) registrierten, ist es bereits wieder ein wenig stiller um den kontroversiellen Versuch, eine weniger böse Alternative zu Facebook ins Netz zu stellen, geworden. Verunsichert hat ungewöhnlich gut informierte Nutzer in erster Linie der Artikel Ello, Goodbye. von Aral Balkan.

Der Netzaktivist und strikte Gegner sogenannter “Closed Gardens” weiß, wovon er spricht, denn er hat die Ello-Gründer in der Anfangsphase sogar beraten. Als Aral erfuhr, dass Budnitz und sein Team knapp eine halbe Million Dollar vom Venture-Capital-Investor freshTracks erhalten hatten, verabschiedete er sich noch in der Betaphase vom Netzwerk. Denn mit dieser Art der Finanzierung habe Ello seine Nutzer bereits verkauft, Privatsphären-Manifesto hin oder her:

When you take venture capital, it is not a matter of if you’re going to sell your users, you already have. It’s called an exit plan. And no investor will give you venture capital without one. In the myopic and upside-down world of venture capital, exits precede the building of the actual thing itself. It would be a comedy if the repercussions of this toxic system were not so tragic.

Aral hat angekündigt, im November die erste Alpha-Version seines Indienet-Clients “Heartbeat” zu veröffentlichen. Der soll sowas wie der frühe Vorbote eines kompletten, unabhängigen digitalen Ökosystems werden, das unter dem Arbeitstitel “Project Stratosphere” in “independent Smartphone” kulminieren soll. Bis das “Indienet” die angepeilte Freiheit von böser Kommerzwelt und noch böserer NSA bietet, werden aber noch einige Jahre ins Land ziehen. Also zurück zur Ello-Gegenwart.

Zur Ello’schen Befreiungstheologie

Die Unzufriedenheit der Netzelite mit Ello beschränkt sich keineswegs auf die Finanzierungsform. Was die einen charmant und retro finden, nennen andere ein Design Desaster. Markus Beckedahl sieht Ello als schon wieder zusperren, Rolf prognostiziert die Zukunft des schwarzweißen Smilies nicht ganz so düster.

Einig sind sich fast alle aber darin, dass der enorme Zustrom zu Ello vor allem eines zeigt: die Lust auf Alternativen zum Zuckerberg’schen Personenverzeichnis nimmt stetig zu und bietet neuen Anbietern so gute Markteintritts-Chancen wie schon lange nicht mehr. Dass Ello strukturell eher mit Twitter verwandt ist als mit G+ und Facebook, spielt dabei ebenso keine Rolle wie die reichlich vorhandenen konzeptionellen Schwächen oder fehlenden Features des Netzwerks. Ob Ello den Weg aller App.nets und Twitter-Klone gehen wird oder nicht, ist uns Power-Usern außerdem völlig egal, solange wir eine neue Spielwiese haben, auf der uns eher nackte Brüste als abgetrennte Köpfe begegnen.

Die Mainstream-Medien goutieren jedenfalls Budnitz’ PR Strategie. Kaum ein Magazin oder Fernsehsender, der nicht zum rasanten Wachstum der jüngsten Vergangenheit beitrug. Für einen Newsbeitrag hat mich puls4 im Büro besucht. [zum vollständigen Beitrag]

Dass die Nutzer in Zukunft, wie von Ello geplant, bereit sein werden, für Premium Features kleine Münzbeträge einzuwerfen, darf in Anlehnung an bisherige Erfahrungen mit vergleichbaren Angeboten stark angezweifelt werden. Zum jetzigen Zeitpunkt ist es jedenfalls zu früh für Schwanengesänge oder Lobeshymnen -also in diesem Sinne: immer misstrauisch bleiben und bloß nicht die Neugier verlieren!

 

3. IKT-Konvent Österreich: Viel heiße Luft statt mutiger Entscheidungen

Gestern Nachmittag habe ich mir in der malerischen Skyloft der Wirtschaftskammer Österreich angehört, was sich im offiziellen digitalen Österreich denn so getan hat in den letzten 6 Jahren. An den Iden des März 2008 hob das damalige Duo Infernale Gusenbauer-Molterer die Internetoffensive Österreich aus der Taufe und hielt stolz einen überdimensionierten USB-Stick in die Kamera. Auf dieses erstaunlich unglücklich gewählte Symbol aller Internet-Ausdrucker verzichteten die Organisatoren diesmal zwar, auf eine ernsthafte, mutige und richtungsweisende Auseinandersetzung mit den Grundfragen der digitalen Agenda leider ebenfalls.

Spätestens bei der Preroll – ja, sowas gab’s früher nur auf Youtube, mittlerweile auch auf Veranstaltungen – wurde endgültig klar, dass die Internetoffensive starke Züge einer PR-Kampagne für die heimischen Mobilfunkanbieter aufweist. Ein weitere Anlass, einmal mehr meine Meinung zur immer brennenderen Frage der Netzneutralität in aller Deutlichkeit zur Diskussion stellen.

Netzneutralität, Steuergeld und die Internet-Infrastruktur-Milliarde

Niemand kann Diener zweier Herren sein. Wenn Telekommunikationsunternehmen glaubhaft behaupten, ihnen wäre primär daran gelegen, eine Breitband-Infrastruktur für alle zu errichten, doch die sei ohne staatliche Zuschüsse nun mal nicht finanzierbar, dann sollte der Staat natürlich Subventionen bereitstellen. Wenn dieselben Unternehmen im gleichen Atemzug aber keinerlei Zweifel daran aufkommen lassen, dass ihnen die Abschaffung der Netzneutralität ein dringendes Anliegen ist, dann sollte das den Budget-Verantwortlichen Politikern unbedingt zu denken geben.

Das Prinzip der Netzneutralität fordert, alle Daten gleich zu behandeln. In der Praxis dürfen ISPs (Internetprovider) einzelne Anbieter weder bevorzugen noch benachteiligen. Denn wenn finanzkräftige Unternehmen sich qua Münzeinwurf bei den Providern schnellere Leitungen für ihre eigenen Inhalte sichern können, dann bedeutet das zugleich eine Benachteiligung aller Datenkunden zweiter Klasse. Eine solche Situation ist für eine Gesellschaft, in der das Internet längst mehr nur die Aufgabe eines digitalen Vertriebskanal für kommerzielle Inhalte erfüllt, schlicht unakzeptabel. Nimmt der Staat in Rotstift-Zeiten wie diesen also tausend Millionen Euro in die Hand, dann muss er dafür sorgen, dass die mit unseren Steuergeldern errichtete Breitbandinfrastruktur allen Teilnehmern am Datenhighway in gleicher Weise zur Verfügung steht.

Eine Diskussion über dieses paradigmatische Thema habe ich unter all den “Wir-sind-eh-super und obendrein eGovernment-Weltmeister” Statements völlig vermisst. Einzig Sebastian Kurz warnte vor Selbstüberschätzung und fiel einmal mehr durch Sachkompetenz auf, spannend auch das Referat von Franz-Reinhard Habbel. Der Sprecher des deutschen Städte- und Gemeindebunds hat sich offenbar etwas intensiver mit der Digitalen Agenda der EU beschäftigt als der österreichische Infrastrukturminister. Habbel regte engere Zusammenarbeit beider Länder an, erwähnte das DeMail Desaster in seinen Ausführungen jedoch nicht.

Zirkuläre Argumentationen und die besten Gags

Dass der österreichische Staat eine Milliarde Euro in die Hand nimmt, um der Alpenrepublik einen digitalen Standortvorteil zu verschaffen, ist einzig und allein der Internetoffensive Österreich zu verdanken, die übrigens der österreichische Staat und die Mobilfunker gegründet haben. Im Jargon letzterer heißt die Internet- übrigens längst Infrastrukturmilliarde.

So schön kann man hierzulande Zirkulärschlüsse ziehen. Gesteht dann obendrein noch ein Regierungsmitglied, dass unter dem Sparkurs alle Regierungsmitglieder leiden, stellen sich endgültig die Nackenhaare auf. Mir persönlich zumindest wäre entgangen, dass die Regierung sich die eigenen Gehälter gekürzt hat, ja schlimmer noch: Ich war der offenbar irrigen Meinung, steuerzahlende Bürger und Unternehmen litten weit mehr als diese planlose Koalition aus Reformverhinderern.

Oft tauchte mein Lieblings-Bullshit-Bingo-Begriff in den vielen Kurzreferaten auf, dauernd war von den guten alten Haupt-Stakeholdern die Rede: den Telkos und “den führenden IKT-Unternehmen des Landes”. Darf ich an dieser Stelle mal dezent daran erinnern, dass nur einen einzigen Haupt-Stakeholder einer international konkurrenzfähigen IKT-Infrastruktur gibt? Und zwar die gesamte Bevölkerung. Würde irgendwer behaupten, Asfinag und Speditionen seien die Hauptstakeholder des österreichischen Straßennetzes?

Steßl und Kurz

Staatssekretärin Sonja Steßl und Außenminister Sebastian Kurz.

Den Vogel schoss für mich persönlich Sophie Karmasin ab, die wortwörtlich “What’s App als Revolution für Familien” bezeichnete, da über solche Services Eltern in ständiger Verbindung mit ihren Kindern bleiben könnten. Ich hätte von einer recht jungen Familienministerin erwartet, dass sie nicht von ihrer Lebensrealität auf die aller anderen schließt und bezweifle die segensreiche Wirkung von Messenger-Applikationen für alleinerziehende McJobber. Infrastrukturminister Alois Stöger unterflog die Fremdschämgrenze ebenfalls elegant, indem er die elektronische Krankenakte ELGA als leuchtendes Vorbild dafür beschrieb, wie “man IKT in die Breite bringt”.

Familienministerin Sophie Karmasin, Sozialminister Rudolf Hundstorfer.

Familienministerin Sophie Karmasin, Sozialminister Rudolf Hundstorfer.

Sozialminister Hundstorfer pries unter anderem die Vorteile von Push-Notifications für AMS-Kunden und kündigte an, dass er uns zukünftig schon mit 30 sagen könne, wieviel Pension wir mit 70 bekommen. Die einkommensunabhängige Altersnotversorgung scheint regierungsintern also bereits beschlossen. Staatssekretärin Sonja Steßl verlor sich gänzlich im Zahlendschungel und verlautbarte allen Ernstes, dass bereits 70% der Österreicher eGovernment-Services und die digitale Handysignatur nützen. Never let the truth get in the way of a good story!

Alles in allem gab’s für die geneigten Zuhörer also jede Menge unfreiwillige Stand-Up Comedy, die mir als Unternehmer aber eher das Wasser in die Augen trieb. Ich wünsche der Internetoffensive weiterhin frohes Schaffen und erfolgreiche Selbstrechtfertigung und empfehle die schnellstmögliche Gründung eines Expertenkomitees zur Sicherstellung der Netzneutralität. Sonst wird das nämlich nix mit dem IKT-Vorzeigeland Österreich.

Arbeitskreis “Bildung, Wissenschaft und Forschung”

Ungleich spannender fielen die Kurzreferate im vorgeschalteten Arbeitskreis “Bildung, Wissenschaft und Forschung” aus, den Prof. Dr. Karl Anton Fröschl von der Universität Wien leitet. Mehrere solcher AKs befassen sich mit verschiedenen Feldern der digitalen Gesellschaft. Die Oberstufen-Lehrer Kurt Söser, Gerhard Fetka und Herbert Feichtinger berichteten aus ihrer Schul-IT-Praxis, BG-Schüler Lukas Winkler stellte seine Raspberry Pi Umweltdaten-Messstation vor.

Gerhard Fetka über digitale Schule

Gerhard Fetka vom BG Kirchengasse Graz

Vier solcher Arbeitskreise tagen regelmäßig im Rahmen der Internetoffensive Österreich, beschäftigen sich mit Best Practices und erarbeiten Anforderungskataloge. Diesen Prozess in die Breite zu bringen, dürfte eine der lohnenderen Herausforderung der näheren Zukunft darstellen. Schauen wir mal in sechs Jahren – bis dahin kann ich nur Thomas Lohningers Fazit zum 3. IKT Konvent beipflichten:

Ello, das Social Network mit viel Privacy und wenig Funktionen

Reduktionismus hat so seinen Charme. Das derzeit noch fast exklusiv übermäßig gut vernetzten Nerds vorbehaltene Social Network kommt ziemlich schwarz-weiß daher, bringt bisher bloß einen Teil der allergrundlegendsten Funktionen mit, verschreibt sich dafür aber der Werbefreiheit und dem sorgsamen Umgang mit persönlichen Daten. Einer der größten Vorteile von Ello: Weder Faymann noch Strache noch Coca Cola sind bisher am neuen Tummelplatz der Netzelite eingetroffen. Vorerst öffnet sich die magische Pforte nur für geladene Gäste – wer gerne eine Einladung möchte, um sich seines Geek-Status zu versichern, möge dies hier bitte via Kommentar kundtun. Die schnellsten sechs gewinnen +3 Geek-Status-Punkte.

Sascha Lobo ist aber natürlich schon vor Ort und “schreibt erst eine richtige Bio, wenn sich ello durchgesetzt hat”. Ich, datadirt, bin da nicht so penibel, Copy-Paste sei Dank. Sogar die Kommunikationsforschung betreibt ein Außenlabor. Und ja, es ist ausgesprochen wahrscheinlich, dass wir unsere mehr oder weniger sorgsam aufgebauten Profile irgendwann wieder verlieren werden. Denn ein Social Network ohne Werbung, ohne Datenweitergabe und ohne “Kooperationspartner” funktioniert in der Regel nur so lange, bis es populär genug ist, um die Betriebskosten in unfinanzierbare Höhen zu treiben.

Alternativszenarien winken dennoch am Horizont: Vielleicht wird Ello ja dermaßen unverzichtbar, dass mehr als 0,2 Prozent der Nutzer freudig dafür bezahlen täten. Vielleicht treiben immer mehr Beschwerden über geplante Umbauten an der Twitter-Timeline die Leute vom Vögelchen scharenweise zum blinden Smilie… Vielleicht. Bis dahin haben wir auf Ello jedenfalls unseren minimalistischen, sperrigen Spaß.

Ello Invites

Ello, Sekunde nach der Registrierung. (Zum Vergrößern anklicken.)

Daher habe ich nicht ein, sondern gleich zwei Profile angelegt. Denn auf die von Facebook gewohnte Privat/Blog-Schizophrenie möchte ich auf Ello keinesfalls verzichten. Mein persönliches Profil finden Sie unter ello.co/datadirt, die Ello “Page” zu meinem Blog unter ello.co/datenschmutz-blog.

Ello kann (noch) mehr als die Yo-App

Profile, Status-Updates, Foto-Postings und eine rudimentäre Suche (“Discover”) – viel mehr bietet Ello in der jetzigen Form nicht. Wie von Twitter gewohnt lassen sich Nutzer durch @Username direkt ansprechen, dieser Mechanismus muss auch für virtuelle Gespräche herhalten. Eine gegliederte Antwortfunktion fehlt ebenso wie ein Pendant zum Liken, Plussen oder Favorisieren. Letztere wird in Kürze nachgeliefert und „Love“ heißen.

Neue Bekanntschaften teilt man in die Kategorien “Friend” oder “Noise” ein. Status-Updates der Freunde tauchen dann wie gewohnt im Newsfeed auf der eigenen Startseite auf, schaltet man den Newsfeed auf “Noise” um, zeigt Ello eine reduzierte Ansicht der “Freunde zweiter Klasse”. So richtig relevant dürfte der Unterschied zwischen echter digitaler Freundschaft und binärem Rauschen erst dann werden, wenn die tägliche Postingflut zunimmt. Einzigartig: wo sonst sieht man heutzutage sonst noch Fotos von der Vorwoche und muss keine Panik vor der Informationsflut haben? Facebook hat schließlich auch mal klein angefangen.

Wie es sich für eine Plattform im Beta-Stadium gehört, verhalten sich manche Funktionen natürlich sperrig bis widerborstig. Mit ein wenig WD40 und gutem Willen flutscht’s dann meistens doch, fast wie in den späten 90ern, an deren großteils vergessene “wegweisende Netzkunstprojekte” auch die monospacing-Schriftart Courier erinnert. Wohin die Reise geht und welche Features gerade in Arbeit sind, verrät eine laufend aktualisierte Liste.

Schon jetzt sehr elegant gelöst die Status-Box, oder wie’s im Ello-Jargon heißt, der “Omnibar”: das Feld wechselt je nach Funktion (Status-Update, Reply) seine Farbe. Wird Text markiert, erscheinen Formattierungsoptionen (fett/kursiv) und die Möglichkeit, einen Link einzufügen.

Ello Status Updates formattieren

Status Updates auf Ello verfasst man mit dem Omnibar.

SEO: Der heilige Backlink von Sankt Ello

Trotz geschlossener Gesellschaft sind die Profile standardmäßig öffentlich, die betreffende Einstellung findet sich unter “Settings”. Solche Public Profiles werden brav von Google indexiert. In der maximal 192 Zeichen langen Beschreibung ist zwar nicht übermäßig viel Platz, aber das mit “Links” bezeichnete Feld darunter schluckt brav auch mehr als eine Webadresse, getrennt durch Leerzeichen.

Ello und Backlinkaufbau

SEOs werden Ello lieben. (Anklicken zum Vergrößern)

Dafür gibt es hübsche Follow-Backlinks frei Haus. Deren Juice hält sich zwar noch in engen Grenzen, zumal die Startseite derzeit noch gar keinen Pagerank von Google bekommen hat (und auch keines der indizierten Profile). Aber wie sagen die SEO-Grayhats immer so schön? Einem geschenkten Follow-Link schaut man nicht auf den Pagerank!

Sag, wie hältst du’s mit dem Datenschutz?

Hinter Ello.co stehen Mastermind Paul Budnitz, das Designer-Duo Berger & Föhr sowie die Programmierschmiede Mode Set. Herr Budnitz verfolgt neben der Social-Networkerei eine Reihe handfester analoger Interessen: Er konzipiert und verkauft Luxus-Fahrräder unter dem Label “Budnitz Bicycles”, seine Firma Kidrobot produziert und verkauft Kinderspielzeug mit Kunst-Appeal. Also eine Art Bobo-Geek-Rolemodel, quasi die Antithese zu Mark Zuckerberg. Der Geist der Befreiungstheologie weht sympathisch durchs Ello-Manifest:

Your social network is owned by advertisers. Every post you share, every friend you make and every link you follow is tracked, recorded and converted into data. Advertisers buy your data so they can show you more ads. You are the product that’s bought and sold. We believe there is a better way. We believe in audacity. We believe in beauty, simplicity and transparency. We believe that the people who make things and the people who use them should be in partnership. We believe a social network can be a tool for empowerment. Not a tool to deceive, coerce and manipulate — but a place to connect, create and celebrate life. You are not a product.

Da kann man nicht widersprechen, auch wenn die Erwartungen, wie Jan Pötzscher schreibt, nicht allzu hoch geschraubt werden sollten. Ziel und Zweck des Neuzugangs im Reigen der Social Networks bleibt die Emanzipation von der Kommerz-Datenkrake. Daher hat sich Rechtsanwältin Nina Diercks die Privacy Policy etwas näher angesehen und kommt zu Schluss, dass bislang alles durchaus vielversprechend wirkt.

Weitere erste Eindrücke sammelten Stefan Pfeiffer, der LinkedInsider, Torsten Materna und Björn Rohles von den Netzpiloten. Wir alle zweifeln zwar am langfristigen Erfolg des Newcomers, drücken dem Team aber trotzdem die Daumen.

Also wie gesagt, wenn Sie selber mal reinschauen wollen, dann schicke ich Ihnen gern eine von sechs Einladungen – hinterlassen Sie einfach einen Kommentar zu diesem Artikel, um eine Einladung von mir zu erhalten. Auf beste Ello-Freundschaft!

FAQ: Wie ich verhindere, dass Nacktfotos von mir ins Netz gelangen

Am Sonntag übernahm eine Hand voll nackter Prominenter die Themenhoheit übers Internet. Seit die gestohlenen privaten Bilder von Jennifer Lawrence, Rihanna, Kate Upton und etlichen anderen Celebrities am berüchtigten 4chan Board auftauchen, überschlagen sich alte und neue Medien und treten jedes Details breit. Skurrilerweise unter der Schirmherrschaft der Moralkeule und des Bedauerns. Dass speziell Boulevard und Social Media Newsportale mit halbstündigen Updates den Geschädigten keinesfalls dienlich sind, wird natürlich keineswegs thematisiert.

Die Betroffenen selbst äußerten sich verständlicherweise wenig erfreut zu diesem Einbruch in die Privatsphäre. Herrschte vor zwei Tagen noch Unklarheit über Authentizität und Herkunft der Fotos, so scheint mittlerweile fest zu stehen, dass der Großteil der Bilder erstens “echt” ist und die dubiose Sammlung aus recht unterschiedlichen Quellen stammt – zumindest legen dies die unterschiedlichen EXIF-Hardware-Daten der Fotos nahe, wie Mashable berichtet. Das FBI ermittelt, scheint aber nicht besonders effizient mit der NSA zu kooperieren. Zwar steht mittlerweile fest, dass es sich nicht um einen einzelnen Hack handelte, doch etliche Fragen bleiben trotz Totalüberwachung erstaunlicherweise offen:

At this point, it still isn’t clear what attack vector was used in these thefts. Security experts Mashable spoke with say it’s likely that a combination of various attacks took place over a long period of time. And although iCloud seems to be a common thread, some of the photographs stolen have metadata from Android devices. There is also some suspicion that at least one Dropbox account could be involved.

Während sich also alle gegenseitig ihrer moralischen Integrität versichern, sprechen die Google Trends – in dem Fall Österreich – eine klare Sprache.

Google Nacktfoto Trends

Google Trends – Jennifer Lawrence

Man trommelt ja nur auf dem Thema herum, um Otto Normaluser und -userin für die Gefährlichkeit des digitalen Dschungels zu sensibilisieren, rechtfertigen sich viele. Dass wir in einer Medienwelt leben, in der Nipplegates und strategische Nacktheit längst zum integralen Bestandteil geworden sind, setzt die kollektive Empörungsschwelle natürlich zusätzlich herunter.

Alles andere ist schon gesagt worden – deshalb aus aktuellem Anlass die…

FAQ zum Promi-Nacktbilder-Gate

Müssen Sie ab sofort jeden Tag davor zittern, dass Ihre eigenen Nackt-Selfies im Netz auftauchen?

Darauf gibt es eine klare Antwort: Selbstverständlich nicht! Falls Sie nie welche gemacht haben. Sollten Sie allerdings jemals ihre privaten Körperteile vor die winzige Linse eines i- oder Android Devices gehalten haben, ihr digitales Bild-Archiv mit irgendeinem Cloud Storage Service synchronisiert oder jemals in ihrem Leben einen FKK-Badebereich besucht haben, dann sollten Sie jederzeit damit rechnen, dass Ihr Familienalbum früher oder später auf 4chan auftaucht.

Wird das FBI ermitteln, wenn meine Nacktfotos gestohlen werden?

Zweifellos. Wenn Sie indes weder besonders berühmt sind noch einen begnadeten Hacker in Ihrem näheren Freundes- oder Feindeskreis haben, wird es vermutlich niemand speziell auf ihre Bilder abgesehen haben. Dennoch gilt das alte Motto: Mitgehangen, mitgefangen! Beim Adobe-Hack hatte es ja auch niemand spezifisch auf Ihre Daten abgesehen, aber falls Sie dort ein Konto hatten, stehen die auch in der entwendeten Datenbank mit drin.

Wie schützt man sich wirkungsvoll vor derlei Ungemach?

Das simpelste und einfachste Rezept lautet: stets angezogen bleiben! Und in heißen Sommernächsten vor dem Ausziehen unbedingt Vorhänge schließen und das Licht vor der Entkleidung abdrehen.

Gibt’s diese Nacktbilder wirklich oder handelt es sich bloß um eine Erfindung der Chemtrail-Erfinder?

Ich kenne jemanden, der einen Cousin hat, der die Bilder unabsichtlich auf 4chan gesehen und den Link gespeichert hat. Mehr dazu weiß Daniel.

Titelbild: Tommy Weiss | pixelio.de

Kreativ, aber unterbezahlt? Patreon macht die Crowd zum deinem Mäzen

Weltweit stöhnen Verlage unter der Last der frei verfügbaren Inhalte auf, werden Tageszeitungen eingestellt, verlieren Journalisten ihre Jobs oder wechseln rechtzeitig in die PR-Branche. Wie in der Musikbranche bereits vor etlichen Jahren geschehen höhlen digitale Technologien in überholtes Businessmodell aus. Doch während die Musikbranche längst mit neuen Businessmodellen und Mikro-Vertriebskanälen reagiert hat, warteten Micro-Publisher bisher vergeblich auf ihr iTunes. Patreon.com ermöglicht Fans, mit wiederkehrenden freiwilligen Spenden ihre Lieblings-Künstler und -Schreiberlinge zu unterstützen.

Im Mai 2013 ist Patreon mit 2 Millionen Dollar Investorenkapital angetreten, um eine Alternative für Micro-Publisher zu präsentieren, die viele gute Ansätze auf smarte Weise kombiniert. Die Plattform versteht sich als eine Art Kickstarter für alle, die regelmäßig im Netz Inhalte veröffentlichen. Videos, Musik, Texte, Comics, DIY-Anleitungen – Patreon wirbt um die Gunst von Bloggern, Cartoonisten, Photographen und allen anderen Micro-Publishern, die mit Enthusiasmus und Talent das Internet zu jenem bunten Jahrmarkt der Meinungen, Interessen und Prokrastinations-Paradiese macht, den wir alle so sehr schätzen. Ähnlich wie auf Kickstarter richten Publisher ein Profil für ihr Projekt ein und bitten ihren Fans und Followern entweder pro neuer Veröffentlichung oder pro Monat um eine freiwillige Spende.

Die Idee hat immenses Potential. Die Möglichkeit, den eigenen Lieblings-Blogger, Cartoonisten, Podcaster, Photographen und Co. zu unterstützen und zu motivieren, spricht Fans schließlich nicht erst seit dem Internet an. Früher nannte man sowas Mäzenatentum, heutzutage bezahlen dank Crowdsourcing viele Mikro-Mäzene anstatt eines einzelnen Fürsten die Rechnung fürs Kulturschaffen. Und zwar ausgesprochen gern – das zeigt eine ganze Reihe erfolgreicher Kampagnen, die getreu dem Motto der beiden Gründer Jack Conte und Sam Yam bereits etlichen Künstlern eine unabhängige Existenz ermöglichen.

We founded Patreon as a way to support artists in their pursuit of a decent living while doing what they love.

An die Idee der wiederkehrenden freiwilligen Spende glauben offensichtlich auch jene 15 Investoren, die Patreon Ende Juni mit weiteren 15 Millionen versorgten. Die nähere Zukunft des Dienstes ist damit erstmal gesichert. Sollte die Patreon-Idee weiterhin auf Zusprache stoßen, werden die Betreiber wohl früher oder später Provisionen einbehalten, was derzeit aber noch nicht der Fall ist.

Patreon.com – zu früh fürs deutschsprachige Web?

Wenn neue Ideen aus den USA gut, einleuchtend und sympathisch klingen, dann funktionieren sie in Europa in der Regel frühestens 2 bis 3 Jahre später. Wenn überhaupt. So überrascht es kaum, dass Patreon derzeit auf Mehrsprachigkeit pfeift und sich ganz dem englischsprachigen Internet widmet. Das hindert einige mutige Pioniere aber keineswegs daran, ihr Glück dennoch zu versuchen. Im Fall von Manuel Fritsch, der auf Superlevel.de den täglichen Spielepodcast Insert Moin moderiert, überaus erfolgreich: 1.374,73 Dollar bezahlen 236 Patrons jedes Monat für ihren Lieblingspodcast.

Wie von Kickstarter gewohnt kann jeder Anbieter beliebig viele Milestone-Ziele anlegen. So verspricht Manuel ab 2.000 Dollar pro Monat seinen Fans Entwickler-Interviews mit Video, ab 2.500 Dollar will er einen monatlichen Video-Podcast starten. Ebenso flexibel zeigt sich das Preismodell. Bezahlt wird entweder pro Veröffentlichung (ein Video, ein Blogbeitrag, ein Cartoon mit optionaler monatlicher Obergrenze) oder pro Monat. Der Betrag ist frei wählbar, der Anbieter kann spezielle “Rewards” für bestimmte Beträge vorsehen – beispielsweise eine Erwähnung in der Hall of Fame ab $5 oder ein T-Shirt ab $20.

Für einen durchschlagenden Erfolg von Patreon sehe ich am deutschsprachigen Markt derzeit zwei Hürden: zum einen die generell mangelnde Zahlungs- respektive Spendenbereitschaft für Online-Inhalte und zum anderen die mangelnde Bekanntheit der Seite. Potentielle Förderer müssen sich registrieren, und auch ohne nähere Kenntnis der Nutzungs-Statistiken vermute ich mal ganz stark, dass hierzulande vorerst mal deutlich mehr Publisher als potentielle Mäzene Accounts anlegen werden.

datenschmutz auf Patreon – machen Sie mich bitte schnell reich!

Als neugieriger Optimist halten mich diese Überlegungen natürlich keineswegs davon ab, selbst einen Hut umzudrehen und auf milde Spenden zu hoffen. Einerseits gefällt mir die Idee, andererseits gehört teilnehmende Recherche zum Bloggen wie Abschreiben zum Boulevard-Journalismus. Nach Eingabe der Account-Daten wählt man als Inhalts-Anbieter ein Upgrade auf den “Creator Account” und bekommt anschließend Zugriff auf die Kampagnenseite. Wer mehrere Projekte einzeln präsentieren will, braucht zusätzliche Accounts, denn mehrere Kampagnen-Seiten pro Nutzer sind derzeit nicht möglich.

Die Betreiber empfehlen, ein Vorstellungsvideo hochzuladen – ‘ere we go:

Goals und Rewards sind optional – je nach Aufwand dauert das Einrichten der Kampagnenseite zwischen 30 Minuten und mehreren Stunden. Weitere Parallele mit Kickstarter: Mit der Einrichtung der Seite ist’s keineswegs getan. Patreon ist lediglich ein Service-Provider, um die Bekanntheit der eigenen Kampagne muss man sich schon selbst kümmern. Je aktiver und begeisterter die eigenen Fanbase ist, desto leichter fällt es, regelmäßige Leser, Hörer und Seher zum Abschluss eines freiwilligen “Mäzenaten-Abos” zu bewegen, das selbstverständlich jederzeit kündbar ist.

Das Ergebnis meines Experiments finden Sie ab sofort unter www.patreon.com/datenschmutz. Obwohl ich nicht ernsthaft damit rechne, über Nacht zum Millionär zu werden (das wird wohl ein, zwei Wochen dauern), unterstütze ich mit Vergnügen den Gedanken einer Fan-based Economy. Wie denken Sie darüber? Würden Sie freiwillig monatlich 1 oder 2 Dollar für Ihr Lieblingsblog springen lassen?

datenschmutz auf Patreon

Links:

Netzsperren umgehen: Wie Sie Pirate Bay und Kinox.to in Österreich weiterhin nutzen können

Ab heute sollen die größten österreichischen Internet-Provider für sämtliche Kunden den Zugang zu einigen der populären Webseiten sperren, darunter Kinox.to, Movie4k und Piratbay.se. Auf Antrag dees Vereins für Antipiraterie wird also heute die Netzneutralität in Österreich aufgehoben. Doch keine Sorge: die betreffenden Sperren lassen sich je nach technischer Umsetzung super-einfach oder recht simpel umgehen. Die Anleitung und die technischen Hintergründe beschreibe ich in diesem Beitrag.

UPDATE: Nach gestrigen Gesprächen zwischen ISPA und VAP wurde die Frist nun um 14 Tage verlängert.

Unsere boboesquen Neo-Grünen Kleinparteien machen sich zwar auf Podiumsdiskussionen stark für die Verteidigung von Netzneutralität. Im echten Gesetzesleben siegen dann aber doch die alten Herren, und deshalb werden ab heute Kinox.to, Movie4k und Pirate Bay für den Großteil der österreichischen Bevölkerung nicht mehr erreichbar sein. Dem Verein für Antipiraterie (nicht zum verwechseln mit dem Club gegen Piraterie!) ist nämlich gelungen, was jahrelang verhindert werden konnte: wegen einiger ausgewählter “Urheberrechtsverletzungen” (wie ich dieses Unwort nicht mehr hören kann!) zwangen Sie die großen österreichischen Provider erfolgreich zum Blockieren der betroffenen Seiten. Der Standard schreibt dazu:

Neben PirateBay.se sollen auch Kinox.to und Movie4k blockiert werden. Die Seiten könnten ab Freitag auf regulärem Weg für Nutzer von Internetprovidern wie A1, “3”, T-Mobile oder UPC nicht mehr erreicht werden. Rechtlich gedeckt ist die Aufforderung durch einen Entscheid des Obersten Gerichtshofs. Das Höchstgericht hatte vergangene Woche festgestellt, dass sogenannte Netzsperren legitim sind, insofern als auf den blockierten Portalen Urheberrechtsverletzungen stattfinden.

Die Provider selbst sind naturgemäß nicht besonders glücklich über die Entscheidung. Maximilian Schubert, Generalsekretär der ISPA, und Helmut Spudich, Ex-Standard Journalist und nunmehriger T-Mobile Pressesprecher, fühlen sich erstmal technisch überfordert:

Das sind naive Vorstellungen, wie Sperren im Netz funktionieren”, meint Spudich. “Da reicht es nicht, an einer Stelle etwas einzutippen und schon funktioniert es.” Zudem sei derzeit noch gar keine Sperrinfrastruktur vorhanden. “Diese in so kurzer Zeit, bis Freitag, zu implentieren, halten wir für schwer möglich”, so Schubert.

Der gemeine Blogger wundert sich. Bei Kinderporno-Seiten funktionieren Sperren nämlich genau so: einfach etwas eintippen und schon ist die Seite weg. Simsalabim! Oder hat T-Mobile mittlerweile völlig die Kontrolle über die eigenen Gateways verloren?

Netzneutralität, Netzsperren und die Rechts-Abwägung

Das Problematische an Sperrinfrastrukturen ist ja grundsätzlich: sind sie erst mal da, wecken sie bei zahlreichen Interessensgruppen Begehrlichkeiten. Denn mit Abmahnung kann man in Österreich nicht gegen Streamer vorgehen, also muss die Sperrkeule her. Ich bin gespannt, wann die Kopierschützer einen Sperraufforderung für Youtube verschicken… Denn:

Interessant ist auch, dass sich die Torrent-Suchmaschine The Pirate Bay von den anderen beiden “strukturell rechtswidrigen Webseiten” unterscheidet, die von der Sperraufforderung betroffen sind. Es ist daher fraglich, ob eine Sperraufforderung in diesem Fall gerechtfertigt ist. “Bei Pirate Bay sind auch legale Inhalte drauf”, so Schubert.

Jede Menge legaler Inhalte: Compilations von Büchern mit abgelaufenem Urheberrecht, Veröffentlichungen von Netlabels, Open Source Software und vieles mehr. Denn wer aus Spaß an der Freude produziert, wird in der Regel kein Geld in teure Vertriebstechnologien stecken. Gerade für No-Budget Produktionen im Videobereich hat sich das Torrent-Protokoll als genialer Vertriebskanal bewiesen, und PirateBay ist eines der populärste Torrent-Portale. Diese Seiten bieten nicht die eigentlichen Dateien zu Inhalt an, sondern klitzekleine .torrent-Files, die man mit einem speziellen Client (zum Beispiel uTorrent) öffnet. Der liest aus diesen “Download-Bookmarks” die notwendigen Informationen aus und lädt die betreffenden Dateien dann verteilt von verschiedenen, am Torrent-Netzwerk teilnehmenden Rechnern, herunter.

Kurz gesagt: das Bittorrent-Protokoll spart für Anbieter Server- und Traffic-Kosten und erlaubt dem Nutzer blitzschnelle Downloads. Wir sprechen hier in erster Linie von einer technischen Infrastruktur, nicht von einem dedizierten Piraten-Werkzeug. Wahr ist, dass dieses Torrent-Protokoll vielfach genutzt wird, um urheberrechtlich geschütztes Material im Netz zu verbreiten. Aber eben keineswegs ausschließlich.

Ein umfassendes Portal aufgrund einzelner Dateien mit Bausch und Bogen für ein ganzes Land zu sperren, ist übertrieben und zeigt in erster Linie, dass die Urheberrechts-Industrie in Österreich über eine schlagkräftigere Lobby verfügt als Netzpolitiker.

Es gäbe auch sonst noch viel zu sagen zu respektive gegen Netzsperren, aber da sie nun mal da sind, wollen wir frohen Mutes in die Zukunft blicken und uns die Frage stellen: Wie können wir die Netzsperren umgehen, um weiterhin unsere geliebten, legalen Public Domain Torrents von PirateBay runter zu laden? VPN respektive alternativer DNS-Server lauten die zwei Zauberwörter.

Die neuen Netzsperren elegant umgehen und weiter Piratebay nutzen

Den Providern bleibt selbst überlassen, wie sie die Sperrung technisch umsetzen. Zwei Methoden kommen in Frage: DNS-Sperren oder IP-Blockaden. Selbstverständlich sind diese Anleitungen keine Aufforderung zur Begehung von Urheberrechtsverletzungen – wir achten stets darauf, nur copyright-freie Inhalte zu konsumieren.

Im ersten und einfacher zum umgehenden Fall wird die IP-Adresse nicht mehr aufgelöst. Jeder Webserver ist für Ihren Browser nämlich über eine 12stellige, aus vier Dreiergruppen bestehende Zahl erreichbar. Domains gibt’s bloß deshalb, weil wir Menschen uns die nun mal leichter merken als lange Zahlekolonnen. Im Hintergrund fragt der eigene Browser bei jeder Adressangabe beim DNS-Server des Providers nach, welche IP-Adresse zur angeforderten Domain gehört.

datenschmutz beispielsweise hat die IP-Adresse 188.40.54.132. Wenn Sie diese in der Adressezeile des Browser eingeben, kommen Sie genauso zur Startseite wie bei der Eingabe der Domain blog.datenschmutz.net. (Dass die IP-Adresse hier zur Domain umspringt hat mir Rewrite-Regeln und Cannonical URLs zu tun, aber das ist eine andere Geschichte und soll ein andermal erzählt werden.)

Eine DNS-Sperre bewirkt, dass gesperrte Adresse vom DNS-Server nicht mehr “aufgelöst” werden, dieser also keine zugehörige IP zurückliefert – und damit ist die Seite nicht mehr erreichbar. Wer bisher aufmerksam mitgelesen hat, dem dürfte jetzt klar sein: um diese Sperre zu umgehen, reicht es, die IP-Adresse der jeweiligen Seite zu kennen und direkt einzutippen.

Herausfinden lässt sich diese ganz einfach mit einem simplen Ping-Befehl. Linux-User wissen sowieso, wie das geht, Apple wird hier nicht supportet (Mac-freie Zone! *g*) und für Windows-Nutzer eine kleine Schritt-für-Schritt Anleitung. Den Ping-Befehl liefert nämlich jede Windows-Edition mit. Man muss sich lediglich für ein paar kurze Momente auf die längst entschwunden geglaubte Kommandozeile begeben. Und zwar so:

  1. Klicken Sie auf Start -> ausführen/run und geben Sie (ohne die Anführungszeichen!) “cmd” ein und drücken anschließend die Enter-Taste.
  2. Daraufhin öffnet sich ein DOS-Fenster. Hier tippen Sie (natürlich wieder ohne Anführungszeichen) “ping www.domain.com” gefolgt von der Eingabex-Taste ein.
  3. Als Resultat erhalten Sie eine mehrzeile Ausgabe. Die Zahl nach “Reply from” ist die IP-Adresse der jeweiligen Seite:

Netzsperren Umgehen

Das Fenster können Sie anschließend wieder schließen – Profis tippen dazu “exit” ein und drücken Enter. IP-Adressen können sich natürlich ändern, derzeit schaut’s so aus:

  • PirateBay.se: 194.71.107.15
  • Kinox.to: 91.202.62.170
  • Movie4k.to: 91.202.63.160

Noch bequemer ist nur die Umstellung des DNS-Servers: nutzt man statt der Infrastruktur des Providers einen anderen öffentlichene DNS-Server, beispielsweise den von Google. Dann greift die DNS-basierte Netzsperre ebenfalls nicht und man kann die Domains ganz normal eingeben. Die Umstellung erfolgt entweder direkt im Router – dort trägt man als primären DNS-Server 8.8.8.8 und als sekundären 8.8.4.4 ein, anstatt die Einstellungen vom Provider automatisch zu beziehen. Am Rechner direkt funktioniert’s auch, eine Anleitung für Windows 7 hat die PC Welt.

Wie umgeht man IP-Blockaden?

Ein wenig mehr Aufwand erfordert die Umgehung der zweiten Sperrmöglichkeit. Mittels IP-Blockaden können Provider nämlich ebenfalls verhindern, dass ihre Kunden auf verbotene Server zugreifen. Alternative DNS-Server oder die direkte Eingabe der IP helfen in diesem Fall nix – hier sind Proxy-Netzwerke gefragt, am besten in Kombinationmit einem Virtual Private Network. So erreicht man zweierlei: erstens werden alle Daten verschlüsselt übertragen und zweitens “sieht” der Provider nicht, auf welchen Server man zugreift, sondern kann lediglich die IP-Adresse(n) des Proxy-Netzwerks eruieren. Das gleiche gilt für den Betreiber des Servers, der die Daten bereitstellt.

Mittels solcher Proxy-Verbindungen lassen sich übrigens auch lästige länderspezifische Sperren aushebeln. Dieses Youtube-Video darf nur in den USA gezeigt werden? Kein Problem, schließlich existieren gut gepflegte Listen solcher Proxies. Eine leicht verständliche Anleitung gibt’s am Coder Blog.

Knackpunkt an der Sache: auf längere Sicht handelt es sich um eine Kopf-an-Kopf rennen, denn VPN-Anbieter verfügen zwar über umfangreiche eigene Proxy-Netzwerke, aber die Zahl der IP-Adressen ist limitiert. So versuchten in der Vergangenheit mehrere Anbieter, VPN-Nutzer gezielt auszusperren. Die Performance der meisten öffentlichen Proxy-Server ist auch nicht gerade das Gelbe vom Ei, was besonders beim Videostreamen einen gravierenden Nachteil darstellt.

Der Cyberghost, den ich rief

Die technischen Grundlagen eines VPN im Detail zu erklären, würde an dieser Stelle zu weit führen. Netzwerk-Experten klicken sich ihre eigenen Lösungen aus Freeware-Komponenten zusammen. Wer nicht in die Untiefen der Netzwerk-Administration abtauchen will, kann auf spezialisierte Dienstleister zurückgreifen, die “rundum-sorglos Pakete” verkaufen – und in der Grundversion teilweise sogar gratis anbieten.

Für die Umgehung von IP-Sperren und grundlegende SSL-Verschlüsselung reicht bereits kostenlose Version von CyberGhost. Die Umgehung von Sperren ist sozusagen nur ein kleiner Zusatzbonus – es gibt viele gute Gründe, so verschlüsselt, sicher und privat wie möglich zu surfen. Ich nutze seit über einem Jahr die Pro-Variante, die neben höherer Geschwindigkeit und mehr Proxy-IP-Adressen auch starke Verschlüsselung bietet sowie Clients für Android- und iDevices. Im Preis von €50 pro Jahr ist unlimitierter Traffic enthalten, außerdem gibt’s laufend Special Angebote – aktuell etwa 12 + 12 Monate gratis. Unterstützt der eigene Router VPN-Verbindungen, kann man das ganze Heimnetz auf einen Schlag durchs VPN-Tunneln: – aber das ist eine andere Geschichte und soll ein andermal erzählt werden.

Fazit: Die österreichische Neo-Netzsperren sind also bis dato kein echtes Hindernis. Und wenn sie dazu führen, dass sich Nutzer beginnen, mit Internet-Technologien, Verschlüsselung und VPNs zu befassen, dann hat das Ende der Netzneutralität sogar ein klein wenig Gutes im Schlechten.

Foto: Rainer Sturm / pixelio.de

Bloggerin verurteilt: Negative Restaurant-Kritik auf Google weit vorne

Rechtsstreitigkeiten begleiten die Medienszene wie Stubenfliegen eine Herde Kühe. Wenn Unternehmen gegen Verlage zu Gericht ziehen, so hat das in der Regel keine finanziellen Auswirkungen auf den Schreiber des Beitrags. Bei Bloggern verhält sich die Sache naturgemäß anders. So erging es auch Caroline Doudet, Betreiberin des Kultur-/Lifestyle-Blogs Cultur’elle, die für eine negative Restaurantkritik zu einer Geldstrafe von €1.500 verurteilt wurde und obendrein noch die Gerichtskosten von €1.000 übernehmen muss. Kurios an der Sache: es kam zum Prozess, weil Caroline ihre SEO-Hausaufgaben gemacht hatte und der betreffende Beitrag in den Google-Suchergebnissen zwar nicht vor dem Eintrag der Pizzeria “Il Giardino” auftauchte, aber immerhin auf Platz 4.

Wie BBC berichtet, ordnete die Richterin nicht die Löschung des Beitrags, sondern eine Änderung der nach Meinung des Klägers geschäftsschädigenden Überschrift:

The judge decided that the blog’s title should be changed, so that the phrase: “the place to avoid” was less prominent in the results. The judge sitting in Bordeaux also pointed out that the harm to the restaurant was exacerbated by the fact that Ms Doudet’s fashion and literature blog “Cultur’elle” had around 3,000 followers, indicating she thought it was a significant number.

Caroline Doudet hat den bekrittelten Beitrag entfernt, eine Kopie finden die interessierte Netzöffentlichkeit aber weiterhin via Wayback Machine. In Berufung gehen will die Blogautorin laut eigener Aussage voraussichtlich nicht, da sie nicht nochmal solche qualvollen Wochen durchleben wolle. Ihr Kommentar zur der unerfreulichen Affäre trifft die Situation recht genau:

What is perverse, is that we look for bloggers who are influential, but only if they are nice about people.

SEO, freie Meinungsäußerung und Rufschädigung

Die Il-Giardino-Story stößt in der Blogosphäre auf reichlich Gehör und hat auch schon den Sprung über den großen Teich gemacht. Amerikanische Blogger betonen in ihren Beiträgen, dass das Urteil keinen Präzedenzfall konstituiert, denn in Mitteleuropa gilt schließlich nicht das Prinzip des “Case Law”. Man muss diese Einzelentscheidung also nicht überbewerten, dennoch wirft sie ein Schlaglicht auf ein immer evidenteres Problem: Wo verläuft die Grenze zwischen freier Meinungsäußerung und Rufschädigung und was für Rolle spielt dabei unser alles Lieblings-Suchmaschinen-Monopolist?

Nicht zuletzt im Licht des berüchtigten Google-muss-Vergessen-Urteils stellt sich einmal mehr die Frage, wie mit negativen Reviews umgegangen werden soll. Denn pikanterweise stand ja nicht der Inhalt des Artikels zur juristischen Diskussion, sondern die Tatsache, dass der Text so prominent in Googles Suchergebnissen auftauchte. Überspitzt formuliert ist Frau Doudet also ein Opfer des Pagerank-Algorithmus geworden.

Google stellt sich stur als die neutrale Vermittlerinstanz dar und aggregiert immer schlauer und schneller immer mehr Informationen. Der sogenannte “Knowledge Graph” sorgt dafür, dass bei passenden Suchanfragen rechts neben den Ergebnissen ein Kästchen mit Zusatzinformationen angezeigt wird, die Google aus verschiedenen Quellen aggregiert. Teils aus Wikipedia, teils auch aus hauseigenen Produkten – die in den letzten Wochen forcierte Vermählung von Google Places und Google Plus rückt Kundenreviews noch ein Stückchen näher an die Suchergebnisse. So manchem Dienstleister dürfe ganz und gar nicht gefallen, was potentielle Kunden dort zu Gesicht bekommen. Personalisierte Suche und der künftig wohl zunehmende Einfluss von Reviews auf den Google-Index verkomplizieren die Situation zusätzlich.

Dass Restaurants mit weniger als 2-Sterne-Durchschnittswertung demnächst Besuch von Testessern aus Palo Alto bekommen, ist wohl auszuschließen. Eine Einzelfall-Prüfung mit Schlichtungskommission kann man Google bei allem Misstrauen nicht zuzumuten… also werden sich SEO-Streitfälle vor Gericht in nächster Zeit vermutlich häufen.

Blogger-Relations: Grinse-August gesucht?

Für einen Mann mit einem Hammer ist jedes Problem ein Nagel. Und Kommunikationsexperten verfallen häufig dem Irrglauben, jedwedes Problem ließe sich kommunikativ lösen. Im großen Lehrbuch der Blogger Relations fände man im betreffenden Kapitel vermutlich eine Schritt-für-Schritt Anleitung von der Kontaktaufnahme über die Bitte um erneutes Testessen bis zur Klärung des “Missverständnisses”… doch nur im Märchen leben Blogger und Gretel glücklich und froh bis ans Ende des Internets.

Ein wenig Recherche zeigt rasch, dass sich hier regelmäßig der Club der unzufriedenen Gäste trifft, denn die sagenhaft niedrige Bewertung von 1.5 bei 80 Erfahrungsberichten auf Google+ spricht eine deutliche Sprache. Und dass sich die Betreiberin des Lokals mit der Klage durchwegs keinen Gefallen getan hat, demonstriert ein Blick auf die aktuellen Suchergebnisse für “il giardino cap ferret”: Wenig überraschend dominieren Berichte über das Urteil, darunter auch ein BoingBoing-Beitrag mit dem besonders schmeichelhaften Titel Is Il Giardino in Cap-Ferret the worst restaurant in France? auf Platz 3. Also Operation gelungen, Patient tot?

Letztendlich hilft nur ein einziges Mittel gegen unwahre negative Reviews: man muss an das Kritische im Surfer glauben und davon ausgehen, dass sich potentielle Kunden nicht bloß bei einer einzigen, immer subjektiven Quelle erkundigen. Wer seinen Job ordentlich macht, wird auch viel Positives Feedback bekommen und die eine oder andere Kritik nicht nur vertragen, sondern sogar als konstruktiven Input nutzen können. Sind die negativen Stimmen aber in der Überzahl, sollte man weder auf Online-Marketing-Tricks noch auf rechtliche Mittel setzen, sondern das eigene Produkt bzw. die eigenen Dienstleistung (endlich wieder) konkurrenzfähig machen.

Dass sich Blogger zukünftig noch besser überlegen müssen, wie weit sie sich mit Kritik aus dem Fenster lehnen, hinterlässt allerdings einen schalen Beigeschmack. Solange kein finanzielles Interesse dahinter steht – Stichwort “negatives Reputation-Management” – geht die freie Meinungsäußerung nun mal vor. Ohne Wenns und Abers.

Ikea will seine größten Fans aus dem Netz kicken

Ikea-Fanpages, die in den letzten Jahren unter wohlwollender Duldung des Möbelhauses große Popularität erlangten, bläst nun ein kalter Wind aus Schweden entgegen. Ikeahackers.com und Ikeafans.com durften sich in den letzten Wochen über “Cease-and-Desist” Briefe freuen, in denen das Unternehmen nicht weniger als die Übergabe der jeweiligen Domain fordert. Im ersteren Fall sahen die Anwälte nach einem lauten virtuellen Protesten vorerst mal ab, im zweiten Fall klagten die Betreiber nach ergebnislosen Verhandlungen nun erst mal selbst die Schwedentischler.

Über die rechtlichten Implikationen solcher Brand vs. Fans Schlachten können bloß Juristen urteilen, ich finde die Causa so spannend, weil sie paradigmatisch eines der großen Konfliktfelder des modernen Marketings aufzeigt. Social Media Kommunikation ist längst in Unternehmen angekommen – auch wenn der Marketingchef selbst vielleicht nicht im Detail weiß, wie man Facebook-Ads schaltet, hat er inzwischen entweder eine Social Media Managerin in der Abteilung sitzen oder die Facebook- und Twitter-Aktivitäten des Unternehmens an spezialisierte Dienstleister ausgelagert. Die richtigen Probleme beginnen kurioserweise aber erst dort, wo sich dieser gebetsmühlenartig beschworene Dialogeffekt dann tatsächlich einstellt. Die Paradoxie muss man sich mal vorstellen: da bemüht man sich redlich, Opinion Leader zu “Markenbotschaftern” zu konvertieren. Und kaum glückt mal so ein Glaubensübertritt, stellt man entsetzt fest: der Botschafter macht mit unserer Marke ja, was er will! Und weil er nicht auf unserer Payroll steht, haben wir auch kein Druckmittel gegen ihn – außer die gute alte Rechtsabteilung.

Der Otaku, sein Seth Godin und Ikeas gelb-blaue Riesenwelt

Wenn Unternehmen unter teils heftigem Ressourceneinsatz versuchen, die eigene Kundenschar in die Produktentwicklung mit einzubeziehen, so spricht der Fachmann von Cocreation – die Fortführung des Crowdsourcing mit strukturierterem Mittel soll die Entwicklungsabteilung näher an die Bedürfnisse der Kunden heranführen, Ideen sammeln und letztendlich brauchbare Vorschläge in Produkte und Dienstleistungen überführen.

Als größter “Selbstbau-Möbel” Hersteller der Welt findet sich Ikea in einer Situation, die andere Marketer wohl als den Idealfall ansehen würden: rund um die Produkte des schwedischen Konzerns entstanden etliche Do-it-Yourself (DIY) Communities, die aufzeigen, was man mit den vorkonfektionierten Teil abseits ihres geplanten Verwendungszweckes so alles anstellen kann. Wie Seth Godin nicht müde wird zu betonen, leben wir in einer Zeit des Überangebots, in der es immer schwieriger wird, aus der Masse an Konkurrenten herauszustechen. Ein unverzichtbarer Bestandteil im modernen Marketing-Mix sind daher jene “Hi-Potentials”, die der Japaner als Otakus bezeichnet. Hardcore Fans, die beispielsweise hundert Kilometer weit reisen, nur um eine neue Chilisauce auszuprobieren.

Lauter Freaks, die häufig auch noch Weblogs betreiben und von der Selbstzerfleischung klassischer Medien profitieren: denn ihnen glauben ihre Leser viel eher, dass der neue Lippenstick von Giorgio Whoever 30% grüner trotz Rotstich ist. Eher zumindest als dem Lifestyle-Magazin, das gleich neben der linksseitigen Lobeshymne die passende Ganzseiten-Anzeige mit Lippenstiftprobe präsentiert. Manche von ihne sind vielleicht genauso käuflich wie die meisten Redaktionen, aber im Gegensatz zum Journalisten, dessen Job im wesentlichen darin besteht, die lästigen Leerräume zwischen den Anzeigen mit Content zuzuschaufeln, lieben sie überdurchschnittlich häufig die Dinge, über die sie schreiben. Sie beschäftigen sich in ihrer Freizeit mit Handys, Alben und eben auch Möbeln. Wer sonst erklärt meinen Kumpel Pete, wie er am einfachsten die neuen Billy-Türen ans alte Billy-Regal montiert?

Wenn die Schwedenbombe einschlägt

Das Verhältnis zwischen den Produzenten beliebter Produkte und deren motiviertesten Kunden ist spätestens seit Beginn des Internets ein angespanntes. Zwar hat sich mittlerweile selbst in den Rechtsabteilungen herumgesprochen, dass Zweckentfremdung, Reverse Engineering und DIY-Umdeutung der eigenen Produkte eher in die Kategorie “Hardcore-Fantum” als Produktpiraterie fallen. Doch in unserer digitalen oder zumindest augmentierten Produktwelt spielen Zugangsbeschränkungen eine ökonomische (und immer stärker auch eine überwachungstechnische) Schlüsselrolle.

Dass Handys sich nicht ohne weiteres von ihrer Betreibersperre befreien lassen, dass die Apfelmännchen aus Cupertino Bild und Ton in notorisch neurotische Zwangsjacken wie iTunes quetschen, hat erstmal ganz handfeste ökonomische Gründe. Auf der anderen Seite des Flusses winkt jedoch die Open Source Fee mit allerlei sexy Versprechungen von freier Produktnutzung, offenen Schnittstellen und gewünschter, dezentralisierter Weiterentwicklung. Die zentrale Frage, die sich Unternehmen stellen müssen, lautet: wieviel Kontrolle wollen und können wir abgeben? Mirko Tobias Schäfer, Assistant Professor an der Universität Utrecht, hat darauf eine eindeutige Antwort:

Whatever it is, IKEA is poorly advised in bullying their fans. I have written a book it. In Bastard Culture!: How User Participation Transforms Cultural Production (MediaMatters), I explain at length that users constitute an extension of a companies production. They actively become co-producers of corporate products and services. Whether the companies like or not, their users form an extended research and development department that works better than any marketing driven corporate research facility.

Mirko erinnert in seinem dringend empfohlenen Artikel an eine frühere Begebenheit: Sony handelte sich mit dem Versuch, die Fanpage Aibopet zum 1999 auf den Markt gebrachten Robot-Hund Aibo zu schließen, einen der ersten Shitstorms überhaupt ein. Damals lautete der Vorwurf offiziell “Reverse Engineering”, das nach dem Digitial Millenium Copyright Act verboten sei. Heute geht es Ikea vordergründig um die Markenrechte – eine juristisch vermutlich relativ leicht durchsetzbare Forderung, zumal beide fraglichen Webseiten “Ikea” als Namensbestandteil enthalten.

Verwechslungsgefahr besteht wohl kaum, außerdem scheint dem Management die Glätte des Terrains durchaus bewusst zu sein. SFGate zitiert ein Statement IKEAs an Yahoo News nach beginnenden Protesten:

It has of course never been our ambition to stop their webpage. On the contrary, we very much appreciate the interest in our products and the fact that there are people around the world that love our products as much as we do. We are now evaluating the situation, with the intention to try to find a solution that is good for all involved.

IKEA, mit seinen Kunden sonst gern per du, scheint in einer Zwickmühle zu stecken. Will man einen Shitstorm riskieren und das Image eines Möbelhauses für Selbstbauer mit radikalem Vorgehen gehen “erweiterte” Selberbauer beschädigen? Da schiene es doch vernünftiger, die Selbstbau-Communities zumindest unbehelligt weiterwerkeln zu lassen. Ungewöhnlich gut informierte Greise sehen hinter dem plötzlichen Schwenk allerdings einen ganz anderen Grund: Kürzlich lancierte IKDA nämlich den Share Space. Der hat zwar bei genauerem Hinsehen wenig mit den Fan-Communities gemeinsam, denn hier zeigen zufriedene Kunden einfach bloß Fotos ihrer Ikea-Produkte in persönlichem Kontext und sachgemäßer Verwendung her.

Falls IKEA allerdings ernsthaft auf die Cocreation-Schiene setzen will, wäre das Abdrehen der populärsten Fan-Communities ein ausgesprochen kontraproduktiver Schritt. Klar kann jeder sowas selbst nachprogrammieren, aber was zählt, ist die Community. Und da die Schweden schließlich nicht an Page-Impressions und Werbeschaltungen, sondern an Möbel- und Haushaltsartikel-Verkäufen verdienen, wäre eine kooperative Strategie mit Sicherheit die bessere Wahl.

Wie Facebook mit fragwürdigen Experimenten unsere Status-Updates manipuliert

Ohne ihr Wissen nahmen im Jänner 2012 689.309 Facebook-Nutzer an einem groß angelegten Experiment zum Thema “emotionale Ansteckung” teil. Das Einverständnis der Untersuchten einzuholen ist ein essentieller Bestandteil der Forschungsethik, den die Facebook-Psychologen allerdings schlichtweg ignorierten. Dass sie systematisch Inhalte von Status-Updates änderten um zu messen, wie sich die Präsenz positiver und negativer Schlüsselbegriffe aufs Kommunikationsverhalten auswirkt, sorgt seit gestern für einen veritablen Fäkaltornado.

Das Experiment: Emotional Contagion

Im Jänner 2012 verbarg Facebook eine Woche lang bestimmte emotional belegte Wörter vor den Augen von 689.003 Nutzern, was damals 0,04% der gesamten Facebook-Population entsprach. Mit dieser Manipulation wollten die Experimentatoren herausfinden, welchen Effekt diese “De-Emotionalisierung” auf die eigenen Postings und Interaktionen der Testsubjekte habe. Da die Forscher über die gemessene “emotionale Ansteckung” angeblich verblüfft waren, dürften sie sich im Vorfeld weder mit Forschungsethik noch mit Wirkungsforschung allzu intensiv befasst haben. Der Guardian schreibt:

The results found that, contrary to expectation, peoples’ emotions were reinforced by what they saw – what the researchers called “emotional contagion”.

Das Resultat zeigte, dass, anders als erwartet, die Emotionen der Testpersonen durch das verstärkt wurden, was sie sahen – die Forscher nennen diesen Effekt “emotionale Ansteckung”.

Für Studiendesign und Durchführung kooperierte Facebook mit Akademikern von Cornell und der Universität von Kalifornien, die Vollversion findet man auf der Page der National Academy of Sciences of the United States. Die Veröffentlichung der Ergebnisse provozierte einen Aufschrei unter amerikanischen Forschern, Netzaktivisten und Rechtsexperten: diese Art der Forschung sei nicht nur unethisch, sondern man riskierte sogar, den getesteten Nutzer emotional zu schädigen.


Studie: Experimental evidence of massive-scale emotional contagion through social networks

Facebook sagt: wir dürfen laut AGBs alles!

Facebooks argumentiert, dass das Experiment sich im Rahmen der von allen Nutzern abgenickten “Data Policy” bewege. James Grimmelmann, Rechtsprofessor an der Universität von Maryland, hat gestern einen umfangreichen Kommentar veröffentlicht, in dem er diese Argumentation in der Luft zerreißt:

Facebook users didn’t give informed consent: The study says:
[The study] was consistent with Facebook’s Data Use Policy, to which all users agree prior to creating an account on Facebook, constituting informed consent for this research.

The standard of consent for terms of service is low. But that “consent” is a legal fiction, designed to facilitate online interactions. […] It’s very different from informed consent, the ethical and legal standard for human subjects research (HSR).

Facebook Nutzer wurden nicht informiert und haben nicht zugestimmt. In der Studie heißt es:
[Die Studie] stand im Einklang mit Facebooks Daten-Nutzungs-Richtlinien, denen alle Nutzer vor der Erstellung eines Accounts zustimmen, womit sie auch “informierte Zustimmung” zu diesem Experiment gaben.
Der Standard für den Fachausdruck “informierte Zustimmung | informed consent” ist niedrig. Aber diese “Zustimmung” ist eine rechtliche Fiktion, denn die angesprochene Richtlinie wurde geschaffen, um Online-Interaktionen zu ermöglichen. […] Sie ist völlig verschieden von “informed consent”, dem ethischen und rechtlichen Standard für Forschung an menschlichen Subjekten.

Grimmelmann pflegt seit gestern eine aktuelle Linksammlung mit Primärquellen und Reaktionen auf das Facebook-Experiment. Bis nach Europa scheint die Welle der Empörung bislang erstaunlicherweise noch nicht herübergeschwappt zu sein, abgesehen von diesem Artikel im Satireblog DieTagespresse.com und einigen Beiträgen auf der Futurezone. Dabei gäbe es endlich wirklich Grund für Empörung.

Experiment oder Manipulation oder gar Zensur?

Selbst Facebook-Nutzer, die sich sämtliche AGBs und Richtlinien penibelst durchlesen (Grüße an alle drei!), würden niemals damit rechnen, dass der Betreiber ihrer Plattform inhaltlich in Status-Updates eingreift. Dass Facebook nach eigenem Ermessen und Gutdünken bestimmt, wer wann welche Info-Schnipsel zu Gesicht bekommt, ist bei der Größe und marktbeherrschenden Stellung des Netzwerks bedenklich genug.

Wer weiß schon, welche Experimente zur (Werbeerlös-)Optimierung sich die Forscher in Menlo Park noch ausgedacht haben? Wer weiß, welche Begehrlichkeiten systematisches “Tuning” bestimmter Inhalte bei kommerziellen und staatlichen Institutionen weckt? Mit dem umstrittenen Experiment hat Facebook eine Grenze überschritten, die das Netzwerk teuer zu stehen kommen könnte. Die Nutzer haben in der Vergangenheit gelernt, dass sie für ein bisschen asynchrone Multimedia-Chatterei mit Freunden jede Menge Privatsphäre aufgeben und mit ihren Daten bezahlen – und sie haben den Deal akzeptiert. Aber heimliche inhaltliche Eingriffe in die Status-Updates der eigenen Freunde stehen auf einem anderen Blatt.

Adam Kramer, der für die Studie verantwortliche Facebook-Mitarbeiter, nahm auf seinem persönlichen Profil Stellung zu den Vorwürfen, verteidigt in seinem Text die Vorgehensweise und schließt mit den Worten:

While we’ve always considered what research we do carefully, we (not just me, several other researchers at Facebook) have been working on improving our internal review practices. The experiment in question was run in early 2012, and we have come a long way since then. Those review practices will also incorporate what we’ve learned from the reaction to this paper.

Zwar haben wir stets sorgfältig erwogen haben, welche Forschungen wir durchführen, aber wir (nicht bloß ich, sondern mehrere Forscher bei Facebook) arbeiten beständig daran, unsere internen Review-Praktiken zu verbessern. Das fragliche Experimente wurde Anfang 2012 durchgeführt, und seither ist viel geschehen. Unsere zukünftigen Review-Praktiken werden auch berücksichtigen, was wir aus den Reaktionen auf diese Studie gelernt haben.

Man darf also gespannt raten, welche weiteren unethischen Experimente Facebook in den Jahren 2012 bis Mitte 2014 mit uns, den Versuchskaninchen, durchgeführt hat. Wir User haben nämlich nur solange Kontrolle über unsere Inhalte wie es Facebook… gefällt.

Titelfoto: Tim Reckmann / pixelio.de

SEO-Tipp: Stellen Sie sich an den Eklat-Pranger!

Brechende Neuigkeiten: was als motivierter Angriff auf die Meinungsfreiheit begann, gipfelt endlich in konkreter Maßnahmen gegen anonyme Hassposter. Allen rationalen Argumenten zum Trotz schließen sich “immer mehr Unterstützer” der Initiative gegen wildes Internet an.

Nur dank eines vom Österreichischen Internetrates archivierten Scans einer bekannten Whistleblowerin wurden die weitreichenden Pläne österreichischer “Medienmacher” vorzeitig bekannt, obgleich die Hintermänner durch besagte Ankündigung in einer gratis erhältlichen U-Bahn-Zeitschrift alles getan hatten, um unbemerkt zu bleiben.

Während anderswo noch ahnungslos “angeblich moderiert wird”, liefert datenschmutz der alpenrepublikanischen Journaille die Blaupause zum Abschreiben. Kommentieren bitte nur mit echtem oder erfundenem Namen!

Selbstanzeige auf Eklat.net dringend empfohlen

“Die besten Hassposting sind viel zu gut, um sie irgendwo im Social Web weitgehend ungesehen vor sich hin gammeln zu lassen,” könnte sich ein begabter Zyniker bei der Idee zu Eklat.net gedacht haben:

Diese Seite soll sich zur Bad-Bank der heimischen Meinungsäußerung mausern. Hier soll aufgezeigt werden, was – sogar auf angeblich “moderierten” Seiten – so alles das Licht der Öffentlichkeit in Österreich erblickt.

Sehen wir großzügig über die ungewöhnliche Verwendung des Wortes “mausern” hinweg und fragen wir uns: was zeichnet eine Bad Bank aus? Sie ist teuer und versursacht Probleme, für die letztendlich alle bezahlen. Ambitioniert, kann man da nur sagen! Im übrigen harre ich gespannt einer ersten Auflistung “angeblich moderierter Seiten”. Der Call to Action lässt nicht lange auf sich warten:

Posten Sie bitte hier den Link einer Erbärmlichkeit, die Ihnen besonders übel aufgefallen ist. Und kommentieren Sie sie bitte. Oder fügen Sie einen unveränderten Originaltext (samt Quellenangabe und Datum) über den Post-Button rechts oben hier ein. Alle, die hier veröffentlichen, tun dies mit Ihren echten Klarnamen.

So unverschämt hat noch selten jemand um Crowd-Sourced-Content gebettelt. Und was den letzten Satz betrifft, kann ich Ihnen versichern: Pure Lüge. Wenn nicht gar bezahltes Hassposting. Dank meiner unvorstellbaren technischen Fähigkeiten ist es mir gelungen, mich unter falschem Namen nicht nur zu registrieren, sondern sogar schamlose Eigenwerbung zu betreiben.

Denn – aber verraten Sie’s bitte niemandem, großes Internetianer-Ehrenwort, ok? – ich selbst bin jener mysteriöse Richard Lego-Österreicher (übrigens mein Lieblingscharakter aus der großartigen Dokumentarserie “Bösterreich”), der sich auf Eklat.net über ein “angeblich anonymes Posting” auf datenschmutz beschwert.

Pranger

Wobei ich ich gestehen muss, dass die Eingabemaske mindestens irreführend ist.

Meinungsfreiheit

Ohne im Detail über Copy-and-Paste in Screenshot-Textfelder einzugehen, musste ich leider entsetzt feststellen, dass das Feld “Meine Meinung – das ist meine Meinung zum Posting” schlichtweg nicht angezeigt wird. Das spricht für eine ungewohnt konsequente Umsetzung der Grundidee und ringt dennoch weit weniger Respekt ab als die Tatsache, dass der virtuelle Pranger großzügig einen wohlfeilen Follow-Backlink hergibt.

Und deshalb empfehle ich allen Bloggern, Webmastern und Webmarketern rasche Registrierung und zügige Selbstanzeige. Eklat.net hat nämlich das Potential, ein kurzzeitig mittelmäßig erfolgreicher Klon des hierzulande so gut wie unbekannten Reddit zu werden. Und das wär für eine Bad Bank nun wirklich eine ziemliche Mauserung, nicht wahr?

TrueCrypt am Ende? Die Zukunft der Open Source Verschlüsselung

Verschlüsselungslösungen gibt es wie Sand am Meer. Doch seit Edward Snowdens NSA-Enthüllungen darf man in kommerziellen Produkte wie Bitlocker und Co. wohl mit an Sicherheit grenzender Wahrscheinlichkeit Hintertürchen erwarten, die begehrliche US-nahe Lauscher haben einbauen lassen. Kaum einer anderen Lösung brachten ungewöhnlich gut informierte Geeks daher soviel Vertrauen entgegen wie dem legendären Truecrypt. Das könnte sich mit einer gestern überraschend aufgetauchten Meldung auf der offiziellen Sourceforge-Projektseite truecrypt.sourceforge.net jetzt ändern. Ohne irgendwelche Details preiszugeben, haben die Programmierer dort bekannt gegeben, dass die Verschlüsselungs-Software nicht mehr sicher sei und die Entwicklung über Nacht eingestellt.

Truecrypt Verschlüsselung

The development of TrueCrypt was ended in 5/2014 after Microsoft terminated support of Windows XP. Windows 8/7/Vista and later offer integrated support for encrypted disks and virtual disk images. Such integrated support is also available on other platforms (click here for more information). You should migrate any data encrypted by TrueCrypt to encrypted disks or virtual disk images supported on your platform.

Warum verwenden wir Truecrypt?

Die Open Source Software Truecrypt erlaubt bei auch für Laien bewältigbarem Konfigurationsaufwand eine bisher als sicher geltende Verschlüsselung kompletter (System)Partitionen. Vor einer mit Truecrypt verschlüsselten Festplatte stünden, so der bisherige Common Sense, sogar die mächtigsten Geheimdienste wie der sprichwörtliche Ochs vorm geschlossenen Scheunentor.

Snowden selbst hat Truecrypt empfohlen, der Journalist Glenn Greenwald hat dessen Dokumente damit verschlüsselt und Truecrypt so erst kürzlich einen weiteren Popularitätsschub verliehen. Ich selbst setze das Programm seit Jahren auf allen meinen Laptops ein, seit mir ein kroatischer Bloggerkollegeschilderte, wie ihn die gute alte Kryptographie vor einer Whistleblowing-bedingten Gefängnisstrafe schützte: die CroCops konnten die betreffenden Dokumente auf seiner Festplatte nämlich nicht auffinden.

Verschlüsselung organisieren

Die naheliegendste Reaktion, nämlich eine Nachfrage bei den Programmierern, scheidet aus, da niemand weiß, wer hinter TrueCrypt steckt. In respektablen 10 Jahren harter Entwicklungsarbeit gelang es dem Team, die Identität aller Beteiligten erfolgreich geheim zu halten. Das ist zwar auch eine Art von “Security through obfuscation”, wenngleich sich in der aktuellen Situation zeigt, auf welch wackligen Beinen solche Ninja-Developper-Groups eigentlich stehen.

Im Oktober 2013 sammelten Netizens via Crowfunding knapp 63.000 Dollar für den ersten unabhängigen Security-Audit der Software, der zwar schon begonnen hat, aber erst in einigen Monaten abgeschlossen sein wird. Bisher wurden Truecrypts Bootloader und sein Systemkern der hochnotpeinlichen Analyse unterzogen, die keinerlei Sicherheitsrisiken ans Tageslicht brachte. Die Qualität des eingesetzten Verschlüsselungsverfahrens wird derzeit erst überprüft, trotz der unerwarteten Wendung wollen die Tester ihre Analyse fortsetzen.

Warum will sich Truecrypt selbst in die Luft sprengen?

Seit der Veröffentlichung der Entwicklerbotschaft herrscht in der Netzgemeinde Rätselraten. Drei Möglichkeiten scheinen bislang in Frage zu kommen:

  1. Intervention von öffentlicher Seite: Behörden in den USA dürfen sogenannte “National Security Letters” verschicken, die Firmen zur Datenherausgabe zwingen. Gesprochen werden über diese Briefe nicht – so erging es etwa 2013 dem sicheren Webmail-Anbieter Lavabit. Allerdings ist fraglich, an wen besagter Brief im Falle Truecrypts denn hätte zugestellt werden sollen…
  2. Ein übler Bug: Die Entwickler haben tatsächlich eine gravierende Sicherheitslücke gefunden und können oder wollen diese nicht beheben. Offen bliebe in diesem Fall, warum derart vage kommuniziert wird.
  3. Ein Hack der offiziellen Seite: Man spekulieren, dass Truecrypt.org vielleicht gehackt wurde – freilich gibt’s auch dafür bislang keinerlei konkrete Indizien.

Soll ich Truecrypt dennoch trauen und wie geht’s weiter?

Bevor genauere Informationen vorliegen, wäre eine Panik-induzierte Deinstallation verfrüht. Und es sieht ganz so aus, als ob die Entwicklung zukünftig sogar in geordneteren Bahnen verlaufen könne. Thomas Bruderer und Joseph Doekbrijderno haben unter dem Claum “TrueCrypt must not die” den Quellcode in die “neutrale Schweiz” gerettet und wollen das Projekt dort weiterführen. Auf Truecrypt.ch wird ganz aktuell die weitere Vorgehensweise koordiniert, das Duo Encryptionale informiert auch auf Twitter unter @TrueCryptNext über den Fortgang der Ereignisse.

Zur realistischen Selbsteinschätzung des unerfreulichen Schlamassels empfehle ich einen Besuch im Truecrypt Final Release Repository. Der renommierte Sicherheitsexperte Steve Gibson trägt dort alle bisher bekannten Fakten zusammen und rät zur Besonnenheit, denn:

For reasons that are still unclear three days after the event, TrueCrypt’s developers chose not to graciously turn their beloved creation over to a wider Internet development community, but rather to attempt to kill it off by creating a dramatically neutered 7.2 version that can only be used to view, but no longer to create new, TrueCrypt volumes. […] The mistake these developers made was in believing that they still “owned” TrueCrypt, and that it was theirs to kill.

Ein gewisser “David”, offenbar Teil des Truecrypt Kernteams, ließ auf Twitter gar wissen, dass kein aktuelles Sicherheitsproblem bekannt sei, Bitlocker “gut genug” und kein Interesse mehr an dem Projekt bestehe. Das sieht die Netzgemeinde offenkundig ganz anders. Ob das Schweizer Truecrypt Käse womöglich doch mit Löchern ist, werden wir spätestens im Sommer nach Abschluss der Sicherheitsaudits wissen. Dessen Ergebnisse dokumentiert das Analyseteam auf IsTruecryptAuditedYet.com.

Bis dahin bleibt nur die Erkenntnis: nicht mal Open Source Magier können Geister, die sie freudig riefen, auf Knopfdruck in die Flasche zurück verbannen. In ganz seltenen Fällen ist eben nicht nur Skepsis in punkto korrekter Funktionsweise, sondern auch Skepsis in punkto behaupteter Bugs angebracht.

Google, Identitäten, Informationen und das Recht auf Vergessen

Alle Spatzen pfeifen es von den Telegraphenmasten: der Europäische Gerichtshof hat gestern entschieden, dass Google Links zu persönlichen Informationen, die das Grundrecht auf Schutz des Privatlebens erheblich beeinträchtigen, aus dem Suchindex löschen muss. Diese Entscheidung wird weitreichende Konsequenzen für das europäische Internet haben – ob Grund zum Jubeln besteht, ist allerdings mehr als fraglich. Während Mainstream-Medien von der Durchsetzung des “Rechts auf Vergessen” sprechen, sehen zahlreiche Rechts- und Branchenexperten eine (zu) weitgehende Bevorzugung des Persönlichkeitsschutzes zulasten der Informationsfreiheit.

Ins Rollen gebracht hat den Stein ein Spanier, der seinen geschäftlichen Ruf durch einen alten Eintrag gefährdet sah:

Er verlangte von Google, Links zu Berichten in einer spanischen Tageszeitung zu entfernen. Die Artikel stammten aus dem Jahr 1998, und es ging um die Zwangsversteigerung eines Grundstücks des Klägers wegen einer Pfändung aufgrund von Forderungen der Sozialversicherung. Google weigerte sich, die spanische Datenschutzbehörde verpflichtete das Unternehmen schließlich zur Löschung, wogegen dieses wiederum klagte. Das spanische Gericht legte das Verfahren nun dem EuGH vor.

Bevor der Prozess überhaupt beginnen konnte, wollte sich Google mit dem Argument, dass die eigenen Server nicht in der EU lokalisiert seien, aus der Affäre ziehen. Dieser Sichtweise schlossen sich die europäischen Richter nicht an und folgten dem Antrag von Generalanwalt Niilo Jääskinen:

Verarbeitungen personenbezogener Daten werden im Rahmen der Tätigkeiten einer “Niederlassung” des für die Verarbeitung Verantwortlichen im Sinne von Art. 4 Abs. 1 Buchst. a der DS-RL ausgeführt, wenn der Suchmaschinenbetreiber in einem Mitgliedstaat für die Vermarktung und den Verkauf von Werbeflächen der Suchmaschine eine Niederlassung oder eine Tochtergesellschaft einrichtet, deren Tätigkeit sich an die Einwohner dieses Staats richtet.

Bereits die grundsätzliche Feststellung der Zuständigkeit könnte die Karten für eine ganze Reihe juristischer Auseinandersetzungen neu mischen. Nicht nur Google, auch andere Konzerne wie Facebook könnten diesem Urteil folgend in die Pflicht genommen werden, so sie im jeweiligen Land ein Vertriebsteam beschäftigten, wie Erich auf FM4 schreibt:

Die Logik hat sich hier nämlich insgesamt umgedreht. Das Geschäftsmodell von Google bis zu Facebook ist ja nicht der Betrieb von Suchmaschinen oder Sozialen Netzen, diese sind nur Mittel zum eigentlichen Zweck: um dort Werbeflächen zu vermieten. Der EuGH hat hier also nicht an der technischen Verarbeitung der Daten angesetzt, sondern am Geschäftszweck, für den sie verarbeitet werden.

Wo ist die Google-Löschtaste?

In der Frage, ob Google für die eigenen Index-Einträge verantwortlich sei, gingen die Richter weiter als vom Generalanwalt vorgeschlagen. Googles vertritt den Standpunkt, dass Datenlöschung bei den jeweiligen Anbietern erfolgen müsse. Man selbst stelle keine Informationen online, sondern lediglich Verweise zu Dokumenten, die öffentlich im Internet verfügbar seien. Das gestrige Urteil legt eine gänzlich konträre Sichtweise an den Tag:

Der Hintergrund dieser Frage ist ausgesprochen heikel: Denn Suchmaschinen haben eine Gatekeeper-Funktion. Wer Informationen im Internet sucht, ist auf Suchmaschinen angewiesen. Und auch umgekehrt bieten Suchmaschinen den Betreibern von Webseiten den Zugang zu einem gigantischen Publikum. Die Löschung von Informationen betrifft also gleich drei verschiedene Personengruppen: Die Betroffenen der Datenverarbeitung, die Anbieter von Webseiten und die Nutzer von Suchmaschinen, also die Allgemeinheit.

Google müsste also zukünftig Löschanträge folgen, und zwar unabhängig davon, ob die betroffenen Informationen nach wie vor online verfügbar sind. Hans Peter Lehofer bringt das grundsätzliche Problem elegant auf den Punkt:

Das würde bedeuten, dass das Online-Archiv der Zeitung bestehen bleiben könnte, der Link darauf aber rechtswidrig wäre und zu entfernen ist – und dann wohl zB auch der Link auf die Veröffentlichung im Online-Archiv der Zeitung, den ich in meinem ersten Post zu diesem Fall eingefügt hatte (ich werde diesen Link jetzt sicherheitshalber vom Netz nehmen).

Die Entscheidung des EuGH ist noch zu neu, um Prognosen zur praktischen Umsetzung abzugeben. Klar ist jedoch, dass Google sich in Kürze wohl mit einer Flut von Löschanträge konfrontiert werden dürfte. Wie eine Einzelfallprüfung aussehen könnte, steht in den Sternen, doch da im Zweifelsfall Strafzahlungen drohen, dürfte die Zensurkeule via Datenschutz demnächst kräftigen Aufwind erleben:

Denn mit der Entscheidung des EuGH, Google zur verantwortlichen Stelle zu machen, macht das Gericht das Datenschutzrecht gleichsam zu einer Waffe gegen missliebige Inhalte jeder Art. Denn, wie das Gericht völlig richtig erkennt: Das (Nicht-)Vorhandensein einer Information im Google-Index entscheidet auch darüber, ob diese praktisch im weltweiten Datennetz verfügbar ist. Wenn Google aufgrund der bloßen Tatsache, dass auf verlinkten Seiten personenbezogene Daten vorgehalten werden, verpflichtet werden kann, die entsprechenden Ergebnisse aus seinem Suchindex zu löschen, ist es nur eine Frage der Zeit, bis die ersten von kritischer Information Betroffenen sich genau diesen Hebel zu Nutze zu machen versuchen.

Thomas Stadler formuliert dies noch drastischer und weist in seinem Beitrag “Wer gegen Netzsperren ist, muss auch das EuGH-Urteil zu Löschpflichten von Google ablehnen” auf die medienpolitische Dimension des Urteils hin:

Dass Google im Grunde ein Medienanbieter ist, dem man auch ein Medienprivileg zubilligen kann und muss, wird vom EuGH völlig ausgeblendet. Wer wie ich die Meinungs- und Informationsfreiheit für das vielleicht höchste Gut einer freiheitlich-demokratischen Gesellschaft hält, kann gar nicht anders, als dieses Urteil entschieden abzulehnen.

Fazit: Datenschutz sticht Informationsfreiheit

Insgesamt hinterlässt das EuGH-Urteil zum “Recht auf Vergessen” einen schalen Nachgeschmack. Die Freude darüber, dass sich US-Konzerne nicht mehr mit einem simplen “Unsere Server stehen nicht auf eurem Kontinent!” aus der Verantwortung stehlen können, wird getrübt durch die Schattenseite der Löschfunktion. Denn wenn mangels alternativer Suchmaschinen auch stets von einem “Google-Urteil” die Rede ist, so gilt die Entscheidung sinngemäß für alle öffentlich zugänglichen Web-Archive, die personenbezogene Daten enthalten.

Freilich gibt es auch positive Stimmen. RA Cornelius Renner differenziert zwischen “Verfügbarkeit” und “Auffindbarkeit”:

Je nachdem, wie die EuGH-Rechtsprechung von den nationalen Gerichten jetzt umgesetzt wird, ist kann sie nun durchaus zu einem sachgerechten Ergebnis führen: Berichte über Straftaten wären über Archive von Zeitungen bei der gezielten Suche danach noch abrufbar, so dass die Geschichte nicht getilgt würde, sie würden aber nicht jedem gleich “unter die Nase gerieben”, der den Namen des Betroffenen in der Suchmaschine eingibt.

Diese Konstellation klingt für mich nach einer zutiefst “österreichischen Lösung”, also nicht Fisch noch Fleisch. Denn sie verlagert das grundlegende Probleme auf die Ebene der Medienkompetenz: wer weiß, wo und wie er sucht, findet die ganze Wahrheit – der breiten Öffentlichkeit dagegen bleibt verborgen, was im Dunkel der digitalen Archive schlummert.

Ob europäische Google-Ergebnisseiten demnächst tatsächlich in großem Stil abspecken werden, muss sich zeigen – der eingangs erwähnte Spanier jedenfalls hat sein angestrebtes Ziel nicht erreicht, wie Hans Peter Lehofer anmerkt:

Eine ketzerische Frage dazwischen: dürfte der Betroffene von Google auch verlangen, dass bei der Suche nach seiner Person ein Link auf dieses Urteil des EuGH aus den Ergebnislisten genommen wird (der Name des Betroffenen wurde vom EuGH nicht anonymisiert)? Immerhin erfährt man aus dem Urteil ja, dass der Betroffene vor 16 Jahren von einer Zwangsversteigerung betroffen war, was als solches wohl kein beonderes öffentliches Interesse rechtfertigen kann.

netidee Call 9: 1 Million Euro für Internet-Projekte und Forschungsarbeiten

Zum neunten Mal lädt die Internet Foundation Austria (IPA) Netz-Vordenker und Forscher ein, sich um eine Förderung zur Umsetzung von Open Source Vorhaben und innovativen Forschungsarbeiten zu bewerben. In diesem Jahr bin ich bereits zum vierten Mal Mitglied der Jury und freue mich schon jetzt auf viele spannende Projektanträge.

Das erfreulichste gleich zu Beginn: auch in diesem Jahr befindet sich insgesamt eine Million Euro im netidee-Topf. Mit maximal €50.000 pro Projekt fördern wir Projekteideen, die das Internet in Österreich in innovativer Weise weiter entwickeln und einen gesellschaftlichen Mehrwert bieten. Im Zentrum unseres Fokus steht der “Public Value” der jeweiligen Einreichungen und nicht in erster Linie die wirtschaftliche Verwertbarkeit.

Nicht nur das unterscheidet die netidee von anderen Förderungen wie departure und ZIT. Wie auch schon in den Vorjahren haben wir uns bemüht, die Hürden für die Einreichung möglichst niedrig zu halten. Im Klartext: Um bei der netidee mitzumachen, brauchen Interessierte garantiert keinen Förderberater. Das Einreichungsformular haben wir bewusst einfach gehalten, Voraussetzung zur Teilnahme ist jedoch, dass die Projektergebnisse unter Open Source bzw. Creative Commones frei lizenziert und öffentlich zugänglich gemacht werden.

Erstmals Sonderpreis “Internet Privacy”

Edward Snowdens Enthüllungen über die NSA, der Heartbleed Bug, welcher besagter NSA bereits seit Monaten bekannt war, auskunftsfreudige Smart-TVs, die jeden Senderwechsel protokollieren und an den Hersteller schicken… Gründe, sich über die eigene digitale Privatsphäre Sorgen zu machen, gibt es genug. Erstmals schreiben wir daher 2014 einen Sonderpreis für Privacy-Projekte aus. Dazu ist keine gesonderte Einreichung erforderlich: Behandelt das Projekt das Thema Internet Privacy, besteht die Chance auf 3.000 Euro Sonderpreis zusätzlich zur normalen Förderung.

netidee Stipendien: bis zu 10.000 Euro für Diplomarbeiten und Dissertationen

Auf reges Interesse stoßen seit ihrer ersten Auslobung vor zwei Jahren unsere Stipendien für wissenschaftliche Arbeiten zum Thema Internet. Diplomanden und Dissertanden jeglicher Studienrichtung können sich bewerben, Teilnahmebedingungen sind ein Studium an einer österreichischen Universität oder Fachhochschule sowie ein bereits eingereichtes und genehmigtes Forschungsthema.

Einreichfrist endet am 2. September 2014

Wer sich in diesem Jahr um eine netidee Förderung bewerben möchte, registriert sich auf netidee.at und füllt anschließend den Förderantrag online aus. Nähere Informationen zu den Bewerbungsmodalitäten findet man hier. Anschließend werde ich gemeinsam mit meine Kolleginnen und Kollegen des netidee Förderbeirats alle Anträge evaluieren und bewerten. Bekannt gegeben werden die ausgewählten Projekte, Stipendiaten und Gewinner des Privacy-Sonderpreises im Rahmen der “best of netidee” Gala am 20. November 2014 im Wiener Museumsquartier.

Wer sich vorab schon mal unverbindlich informieren möchte, dem empfehle ich wärmstens einen Besuch beim netidee spring talk am 20. Mai, ebenfalls im Museumsquartier. Ich freue mich schon darauf, im Rahmen dieser Veranstaltung einen Social Media Marketing Workshop für die Empfänger der Vorjahresförderung zu gestalten.

Österreichische und deutsche Blogs: Interaktive Visualisierung

[Update] Blogkataloge und -listen sind so voriges Jahrzehnt. Technorati ist mittlerweile ungefähr so relevant wie Digg, im harten Bereich der SEO-Währung nimmt die Bedeutung von Backlinks (und damit auch Blogrolls) im selben Maße ab, in dem die Bedeutung “sozialer Interaktionen” steigt. Luca Hammer hat sich anlässlich des 400. Mitglieds in der Facebook-Gruppe Österreichs Blogger eine interaktive Visualisierung der österreichischen Blogosphäre und der deutschen Blogosphäre gebaut:

In Österreich gibt es tausende Blogger. Da bin ich mir sicher. Aber ich habe es noch nicht geschafft sie sinnvoll zu erfassen und darzustellen. Auch weil immer weniger eine Blogroll nutzen und die Interaktion und Verlinkung stärker auf Twitter und Facebook abläuft. Auf Facebook gibt es eine Gruppe, die sich Österreichs Blogger nennt. Dort tauschen sich viele der (mir) bekannteren und weniger bekannten Menschen mit Blogs aus. Am 19. April 2013 trat das 400ste Mitglied der Gruppe bei. Ich nahm es als Anlass mich wieder mit den Blogger_innen und ihrer Vernetzung zu beschäftigen. Herausgekommen ist diese kleine Seite.

Die Alpenblogosphäre wird, wie auf den ersten Blick unschwer zu erkennen ist, vom Gruppengründer gemeinsam mit Judith Denkmayr, Meral Akin-Hecke, Heinz Grünwald, Namensvetter Pyrker und meiner Wenigkeit mit ebenso eiserner wie unerbittlicher Faust regiert. Ich sag Ihnen, das war nicht billig! Content-Marketer, die sich in den Longtail vortasten wollen, müssen jetzt erstmal an uns vorbei – visuell. Wir sind wie die chinesische Mauer auf Google Maps nämlich bereits in der niedrigsten Zoom-Ebene sichtbar.

Österreichische Blogger

Das freut das Herz des Netzsportlers, der immer schon mal in Österreich weltberühmt sein wollte, ist aber noch immer kein Grund, sich endgültig zur Ruhe zu setzen. Denn während das gute alte statische Web von jedem motivierten Programmierer mit dem richtigen Zollstock und ausreichend Serverkapazität von vorne bis hinten vermessen werden konnte, stoßen Quantifizierungsversuche des Social Web schnell an zwei natürliche Grenzen:

  1. Ein beträchtlicher Teil der Social Actions spielt sich in (semi)privaten Zonen ab – Außenstehende können bekommen stets nur den öffentlichen Teil an Postings und Internaktionen zu sehen.
  2. Die Betreiber der relevantesten Plattformen limitieren API-Zugriffe und damit auch viele Auswertungsmöglichkeiten

Derart verzwickte Verhältnisse machen jede Visualisierung zu einem Schnappschuss respektive entsprechen einer spezifischen Gewichtung der verfügbaren Datenmenge. Das gilt für alle Rankings bis hin zur Königsdisziplin Klout-Score. Wie erwartet mit scharfem analytischem Verstand und vollkommen richtig hat Meister @leyrer die Situation analysiert:

Während @Helge, der alte Miesepeter, gleich zu einem völlig unbegründeten Rundumschlag gehen Sie alle, meine geschätzten Leserinnen, Leser, Friends und Followers, ausholt:

Dabei hatte ich halt einfach wieder mal Glück, wie beim Pagerank, bei Klout, Twitter-, Blog-Charts und so… ich bin nun mal ein rekursives Glückskind. Aber wie schon mein Großvater immer zu sagen pflegte: Trau keinem Algorithmus, der dich wie einen Verlierer ausschauen lässt :frog:.

Visualisierung von Deutschlands Blogs

Die deutsche Gruppe hat Luca erst kürzlich gegründet – innerhalb weniger Stunden wuchs sie bereits auf 548 Blogger_innen an und es werden stündlich mehr. Wer mitmachen will, tritt einfach der Facebook-Gruppe bei und trägt dort sein oder ihr Blog ein, derzeit wird die Grafik mindestens einmal täglich aktualisiert:

Deutschlands Weblog-Landschaft

Klaus Eck, Ibrahim Evsan und Rob Basic stellen im Nachbarland das schwerstvernetzte Trio – keine Spur von Quotenregelung, aber wenn erst mal die Modebloggerinnen der Gruppe beitreten, dann könnte sich das rasch ändern. Wer gezielt nach einzelnen Namen suchen möchte, kann dies im Explore-Modus tun. Algorithmische Ungenauigkeiten hin oder her, ich hätt’s händisch nicht besser hinbekommen:

datenschmutz Deutschland

Fazit: Tolle Sache, die Luca Hammer da zusammengebaselt hat. Aktuelle Bloglisten für Österreich waren in letzter Zeit äußerst rar gesät, und wenn sich mal rumgesprochen hat, dass man von Medienhäusern weder Link- noch Archive- noch Likelove bekommt, werden Content-Marketer froh sein über jeden Orientierungshilfe in dieser chaotischen, wilden Netzwelt.

PS: Luca bastelt 3D-Blogosphären-Landkarten nur nebenbei und am Wochenende – er betreibt das Liquid Work Start-Up work.io, einen Online Marktplatz für Hi-Quality Dienstleistungen.

Update – 23.4.2013

Gegründet wurde das deutsche Pendant zu den Atbloggern auf Facebook von Sabine Sikorski und Daniel Rehn ins Leben gerufen:

Uns ist bewusst, dass wir mit einer Facebook-Gruppe ad hoc keine 1:1-Abbildung der Blogosphäre hinbekommen werden, da nicht jeder auf die Gruppe aufmerksam werden wird, das Projekt blöd finden kann oder aber einfach Facebook meidet und somit nicht auftaucht. Aber wir erheben auch nicht den Anspruch auf Vollständigkeit oder absolute Repräsentativität. Wir wollen einfach sehen, wie gut die Blogger in Deutschland miteinander vernetzt sind, unabhängig von ihrem Steckenpferd betrachtet.

Der enorme Zustrom, den die Gruppe innerhalb weniger Stunden erlebt hat, könnte so machen Viral Marketer vor Neid erblassen lassen:

Aktuell passiert auf Facebook etwas, was sich viele Unternehmen für ihre Seiten wünschen würden. Innerhalb von knapp acht Stunden sammeln sich unter dem Arbeitstitel “Deutschlands Blogger: ein Projekt” bereits 1.300 Blogger aus Deutschland um zu visualisieren, wie gut sie vernetzt sind. Und der Strom reißt nicht ab. Das alles wohl gemerkt ohne die Schaltung irgendwelcher Werbeanzeigen sondern rein viral.

Luca hat eine Bilderserie veröffentlicht, die den Weg der (noch grau in grau visualisierten) Rohdaten zur fertigen Netzwerkgrafik nachvollzieht, Florian Blaschke berichtet auf t3n über das nicht-repräsentative ernetzungsprojekt, Sandra Schink fühlt sich an Starenschwärme erinnert und Tobias Mattl beobachtet die ganze Entwicklung mit starkem Interesse.

Ich bin jedenfalls gespannt, wie’s weitergeht – neben der Einteilung in Männlein und Weiblein werden Luca sicher noch einige visuelle Explikationen der deutschprachigen Blogosphäre einfallen.

DISCONNECT – Privater surfen und Bandbreite sparen

DISCONNECT ist eine Browser-App, die das tägliche Surfen im Web privater, schneller und nicht zuletzt unterhaltsamer macht. Die gegen eine freiwillige Spende erhältliche Proxy-Software filtert nicht nur die gängisten Tracking-Sites, sondern zeigt platzsparend in einem kleinen Pop-Out, wer da gerade etwas über den Surfer in Erfahrung bringen möchte. Die durch die geblockten Werbe-Agenten eingesparten Requests und die geringere Bandbreite visualisiert das Browser-Plugin ebenfalls – besonders bei mobilen Verbindung mäßiger Qualität ein echtes Killer-Feature.

Nach der Installation der Chrome- respektive Firefox-Version sitzt DISCONNECT als platzsparender Button in der rechten Ecke des Browser und zeigt lediglich die Anzahl der gefilterten Tracking-Requests. Erst nach dem Mausklick offebaren sich genauere Details:

Disconnect

 

Auf datenschmutz tracken die gleichen Services mit, die in den meisten Blogs eingebunden sein dürften: Twitter, Facebook, dazu diverse Google-Dienste wie das Font-API, Auttomatic (via Akismet und demnächst auch Jetpack) und in meinem Fall anstatt Analytics Clicky für die Besucherstatistik sowie derzeit Livefyre für die Kommentare (hier läuft nämlich gerade der “große 2013er WordPress-Kommentar-Services Test vor Ihren Augen ab). In der Standardkonfiguration blockt DISCONNECT Facebook und Twitter-Request sowie zahlreiche Ad-Netzwerke. Jede geblockte Seite lässt sich wahlweise auch einzeln entblocken. Ein nettes Gadget ist der Visualisierungsmodus:

Disconnect Datenschutz

Disconnect im Visualisierungs-Modus.

 

Raschen Überblick über Funktionsweise und die (einfache) Bedienung des kleinen grünen Datenwächters zeigt das Einführungsvideo:

Fazit: Auf der einen Seite lebt das Social Web zu einem hohen Teil von den ganzen mitgetrackten Daten, auf der anderen Seite fühlen sich viele Surfer bei dem Gedanken unwohl, permanent ihr Nutzungsprotokoll an unbekannte Server auf diversen Kontinten zu schicken. DISCONNECT stellt keineswegs den einzigen Lösungsansatz dar: alle modernen Browser bieten “privates Surfen”, Anonymisierungs-Netzwerke wie TOR gehen noch einen Schritt weiter und obfuskieren die IP-Adresse. DISCONNECT qualififziert sich für mich in erster Linie als Tool bei der mobilen Nutzung – denn ab HSDPA abwärts ist jeder Request ein Request zuviel :frog:

disconnect.me

PS: Außerdem liefert Inspektor AdRequest-Gadget in spezialisierten Fällen auch geballtes Branchenwissen – wer sich beispielsweise schon mal die Frage gestellt hat, welche österreichischen Online-Medien mittels welcher Werbenetzwerke tracken, der werfe DISCONNECT an und staune oder nicke wissend:

Disconnect als Monitoring-Tool