Beiträge

Gewinnspiel: mit datenschmutz gratis zur I-Know

inkowVom 2. bis zum 4. September findet im Messe Congress Graz die I-KNOW Konferenz statt. Unter dem Motto “Where Industry meets Science” stehen Themen wie (Corporate) Semantic Web, Visualisierung, und Wissensmanagement im Fokus der Veranstaltung. Die Veranstaltung teilt sich in einen (in Englisch abgehaltenen) wissenschaftlichen Part und in das deutschsprachige Praxisforum. Genau diese Positionierung an der Schnittstelle zwischen Theorie und Arbeitsalltag macht die Veranstaltung so interessant. Bis zum 28. August kostet das 2-Tagesticket €400,- (€450,- bei Vor-Ort Registrierung) – datenschmutz verlost zwei Konferenzpässe inklusive Catering und Unterlagen. Wer an der Verlosung teilnehmen möchte, benötigt einen Twitter-Account.

Um eine der beiden Freikarten zu gewinnen, benötigen Sie einen Twitter-Account. Wer einen der beiden Konferenzpässe gewinnen möchte, macht folgendes:

  1. Folgen Sie dem Twitter-Account @datenschmutz.
  2. Versenden Sie folgendes Tweet über Ihren Account:
    @datenschmutz verlost 2 Konferenzpässe für die I-KNOW in Graz. Ich möchte gewinnen – Details unter http://datadirt.net/iknow. #dsiknow

Wer zusätzlich einen Kommentar zu diesem Posting hinterlässt und erklärt, warum er gern eines der beiden Tickets hätte, bekommt ein Extra-Los für die Ziehung. (Bitte Twitter-Nickname mit angeben!) Das Gewinnspiel beginnt mit der Veröffentlichung dieses Beitrags und endet am 28. August 2009 um 12:00 Uhr mittags.

Viel Glück bei der Verlosung – ich würde mir die I-KNOW ebenfalls gerne ansehen, bin aber zur gleichen Zeit auf der ars electronica; über einen Gastkommentar der Gewinner zur Konferenz für datenschmutz würd ich mich natürlich freuen. Genaue Details zu den zwei Programmteilen “Wissenschaft” und “Praxis” bietet die Konferenz-Homepage: mit Sicherheit sehr spannend ausfallen werden die Erfahrungsberichte diverser Unternehmen mit Web 2.0 am Arbeitsplatz, Social Media Marketing und semantischen Technologien.

Der Rechtsweg ist ausgeschlossen, über das Gewinnspiel kann kein Schriftverkehr geführt werden, die Gewinner werden via Twitter und/oder E-Mail verständigt und auf datenschmutz veröffentlicht. Im übrigen gelten die Standard-Teilnahmebedingungen für datenschmutz-Gewinnspiele.

Reblog this post [with Zemanta]

Rückblick auf die eDay Podiumsdiskussion

podiumritchieAuf historischem Grund und Boden fand gestern der von der Wirtschafskammer organisierte eDay 2009 statt. Vorträge, Networking und das Tagesprogramm musste ich mir aufgrund anderweitiger Terminverpflichtungen leider entgehen lassen, aber bei der abendlichen Podiumsdiskussion mit dem Thema “Datenschutz 2.0 – Wachstumsmotor oder -bremse” hatte ich die Ehre und das Vergnügen, mit auf der Bühne zu sitzen. Anstatt der üblichen Fragerunde beteiligte sich das Publikum live mit Twitter-Meldungen an der Diskussion – lustiges Format, das wär doch mal was für Live-Kritiken während Opernaufführungen!

In seinem spannenden Einführungsreferat erläutere Professor Peter Purgathofer (TU Wien) anhand einiger Beispiele das schwierige und komplexe Spannungsfeld zwischen Öffentlichkeit und Privatsphäre – ein Antagonismus, der in der nachfolgenden Diskussion noch öfter auftauchen sollte. Mein Lieblingsbeispiel aus dem Vortrag: ein Zimmermädchen sieht am Hotel-Nachtkästchen des Gastes Hämorrhoiden-Salbe liegen, am nächsten Tag wird ihm beim Frühstück ein Sitzpolster angeboten. Service am Gast oder unzulässiges Eindringen in private Bereiche? In genau diesem Spannungsfeld bewegen sich Unternehmen, die Kundendaten auswerten. Fühlen wir uns von Amazon-Produktvorschlägen belästigt, oder nehmen wir erfolgreich personalisierte Angebote als erwünschtes Zusatzservice wahr? Man hat es mit einer klassischen Trade-Off Situation zu tun, wie Nikolaus Futter vom Compass Verlag richtig feststellte: ich geb dir gern ein Stück “Privacy” oder ein paar Daten, wenn ich daraus einen entsprechenden Vorteil ziehen kann.

datenrunde

Diese Fragen tauchten in der von Thomas Rottenberg moderierten Gesprächsrunde natürlich häufig auf. Georg Markus Kainz von den big brother awards vertrat eine recht strikte Linie, was die Datenauswertung betrifft, aber mein Ex-Studienkollege Bernhard Lehner von 123people gibt einfach einen sehr schlechten Bühnen-Bösewicht ab :twisted: In der Tat darf man, wie Gregor Herzog von der WKÖ feststellte, den Faktor “Media Literacy” keinesfalls außer Acht lassen: wir befinden uns, was das Internet als kulturelle Medientechnik betrifft, in einer rasanten Umbruchsphase. Nachfolgende Generationen werden lernen, die mit den Paradigmen des virtuellen Raums umzugehen und die Grenzen zwischen öffentlich und privat besser abzuschätzen. Denn tatsächlich entsteht eine ganze Reihe von Privacy-Problemen daraus, dass vielen Surfern überhaupt nicht klar ist, dass das Internet ungern vergisst und Google versucht, jede Information zu verlinken, die öffentlich im Netz steht. Eine recht ausführliche Zusammenfassung der Diskussion mit dem Titel” Das Twittern beim E-Day 2009” hat telekom-press.at veröffentlicht.

Ich persönlich halte die Frage des staatlichen Umgangs mit Daten für das eigentliche Probleme: denn nur staatliche Institutionen können die Zentralperspektive einnehmen, viel besser, als dies Google je möglich wäre. Und vor Spam und personalisierten Newsletter habe ich weit weniger Angst als vor einem Big-Brother-Staat im Sinne Orwells – und der Data Retention Act tritt demnächst in Kraft. Wer weiterhin Wert auf Briefgeheimnis legt, wird also nicht umhin kommen, sich mit Verschlüsselungstechniken vertraut zu machen, womit man schon wieder beim Thema Literacy angelangt wäre. Ohne Öffentlichkeit keine Privatsphäre und umgekehrt – die beiden Antagonisten bedingen, benötigen und definieren sich gegenseitig, werden ständig neu verhandelt, und zugleich verläuft die technologische Entwicklung wesentlich zu rasch, als dass traditionelle Rechtssysteme legislativ Schritt halten könnten.

Auf jeden Fall kann es nicht schaden, sich ab und an ins Gedächtnis zu rufen, dass die beiden Gegenspieler “Privatheit” und “Öffentlichkeit” eng mit griechischen Vorstellung von Staatsorganisation verknüpft sind und aus lokalen geographischen Verhältnissen resultierten: was am öffentlichen Platz, der Agora, geschah, war Öffentlichkeit und damit Teil des staatlichen Lebens, während die “Privatsphäre” an der Haustür begann. Mich erinnert diese etymologisch-historische Herleitung an die in den 90er Jahren sehr gängige Bezeichnung des Netzes als “Cyberspace”, als virtuellen Raum: und mir scheint, dessen Grenzen müssen erst verhandelt, definiert und verstanden werden. Dass eines der erfolgreichsten Fernsehformate der letzten Jahre aber den semi-ironischen Titel “Big Brother” trägt, zeigt wohl überdeutlich, dass medialer Exhibitionismus im Zeitalter der B-Liga Stars einen eigenartigen Wertekanon per se darstellt, der Andy Warhol (“In the future, everybody will have their fifteen minutes of fame.”) und Georg Franck (“Die Ökonomie der Aufmerksamkeit”) recht gibt.

Danke nochmal an Gerhard Laga für die Einladung zu diesem spannenden Gespräch auf der Bühne und den sehr gemütlichen anschließenden informellen Teil mit großartigem Buffet und hervorragendem Rotwein – und vom eDay 2010 werd ich hoffentlich mehr mitbekommen.

PS: Gefreut hat mich übrigens auch die Tatsache, dass ich mit meiner Meinung, die aufs Semantic Web projizierten Hoffnungen und Erwartungen seien weit übertrieben, keineswegs allein dastehe. Denn woran gerade ausgefeilte semantische Modelle scheitern werden, ist der gute alte Entropie-Faktor, sozusagen das Salz in der Suppe der Kommunikation, kurz: unerwartete, aber dennoch wertvolle Informationen, Futter für kreative Geistesblitze!

PPS: Ein erstes Rückblicks-Video auf den eDay ist bereits online, eine Fotogallerie ebenfalls.

Fotocredits: Die Fotos zu diesem Beitrag hat Stephan Kuzmanov / Vollwertmedia geschossen.

Das Semantic Web nutzen – Interview mit Andreas Blumauer

Andreas BlumauerVergangene Woche hatte ich die Ehre und Freude, meinen ersten Beitrag für die Blogpiloten zu verfassen – und zwar ein Interview zum Themenspecial “Semantic Web”. Mein Interviewpartner Andreas Blumauer ist Geschäftsführer der Semantic Web Company: das Unternehmen bietet Firmen und öffentlich-rechtlichen Institutionen Dienstleistungen rund um das Thema Semantic Web, semantische Technologien und Social Software, von Schulung und Consulting bis hin zur Implementation konkreter Projekte. Gemeinsam mit Tassilo Pellegrini stellte er das Text-Kompendium “Social Semantic Web” für den Springer Verlag zusammen – Informationen rund um den Sammelband findet man im zugehörigen Wiki.

datenschmutz: Die Semantic Web Company befasst sich mit Wissenstransfer und mit dem Einsatz neuer Webtechnologien. In den letzten Jahren gab es zahlreiche Konferenzen und wissenschaftliche Papers zum Thema “Semantic Web” – welche Technologien sind bereits konkret im Einsatz?

Andreas Blumauer: RDF als Basis des Semantic Web ist bereits im “Großeinsatz”, beispielsweise stützt sich das Metadatenmodell der eben veröffentlichten OpenOffice Suite 3.0 auf RDF. Damit erhöht sich das Volumen an Semantic Web Daten weiter dramatisch.

Im Kern des Semantic Web steckt die so genannte “Linking Open Data Cloud”, kurz: LOD-Cloud, die nun schon aus über zwei Billion Triples besteht und eine Reihe interessanter Anwendungen hervorgebracht hat wie z.B. Mobile DBpedia.
Gerade eben hat das W3C nun RDFa, quasi die Microformate des Semantic Web, als Empfehlung verabschiedet. Damit kann man in jedes XHTML Dokument RDF Metadaten einbetten.

Neben Oracle gibt es in der Zwischenzeit bereits auch einige Anbieter ausgereifter Triple Stores (RDF Datenbanken), die Infrastruktur ist nun also da – es ist zu erwarten, dass sich viele Enduser-Anwendungen in den nächsten Monaten dazugesellen werden. Neben Yahoo! SearchMonkey hat sich ja neuerdings auch die Drupal-Community zunehmend den Semantic Web Standards verschrieben und mit einem kleinen Plug-In namens Triplify kann man prinzipiell alle CMS oder Wikis ins Semantic Web einhängen. Ein guter Startpunkt dafür sind jedenfalls auch Semantic Wikis: Die Informationen zu unserem neuen Springer-Band “Social Semantic Web” haben wir beispielsweise mit dem Semantic MediaWiki erfasst und publiziert.

So lassen sich die Zusammenhänge schneller browsen oder mittels facettierter Suche schneller finden. Alle Informationen zu Autoren, Themen oder Artikeln sind außerdem via RDF mit anderen RDF-Quellen leicht zu vernetzen – und darin liegt eigentlich der Mehrwert des Semantic Web.

?: Für semantische Webtechnologien wurde vor einiger Zeit der Begriff Web 3.0 geprägt – dieser Begriff taucht vor allem im Zusammenhang mit ontologischen Strukturierungsversuchen auf. Sind Ihnen konkrete Anwendungsbeispiele bekannt?

!: Web 3.0 ist nach wie vor ein dehnbarer Begriff – die EU interpretiert diesen z. B. ganz anders als die zB. Web 2.0- oder die Semantic Web Community.
Wir verstehen unter Web 3.0 die Anreicherung (oder Konvertierung) von Web (2.0) – Inhalten um Metadaten, Thesauri und teilweise auch bereits von Logik-basierten Ontologien. Im Sinne des Semantic Web geschieht dies unter Verwendung offener Standards des W3C und teilweise auch in Kombination mit offenen RDF-Datenquellen wie DBpedia oder Geonames.

Konkret verwenden diese Standards und Technologien Social-Tagging Plattformen wie Faviki, Automatische Annotations-Services wie OpenCalais von Thomson Reuters, Websites mit zusätzlichen Navigationsmöglichkeiten wie BBC Music oder Oracle’s Pressroom zur facettierten Suche.

Gerade im letzten halben Jahr wurden viele Anwendungen auf Basis des RDF-Standards entwickelt, wobei in vielen Fällen OWL-Ontologien noch eine untergeordnete Rolle spielen, sondern vielmehr sprachliche Ontologien, um unstrukturierte Texte besser erschließen zu können.

?: Vor kurzem wurde die “semantische” Suchmaschine Cuil gelauncht, die allerdings im praktischen nicht-englischsprachigen Einsatz sehr zu wünschen übrigen lässt. Welche Verbesserungen werden semantische Technologien für die Informationssuche bringen?

!: In vielen Fällen möchte man eigentlich Fragen stellen und Antworten bekommen. Wir sind nach all den Jahren Google gewöhnt, Begriffe einzugeben und Dokumente bekommen, aus denen wir dann die Antworten manuell extrahieren. Oft sind jedoch jene Fakten übers Netz verstreut, die man benötigt, um eine Antwort auf eine etwas komplexere Frage zu bekommen.

Natürlich sind damit nicht alle Suchanfragen gemeint. Wenn man z. B. wissen will, welche Adresse ein Restaurant hat, werden nach wie vor Suchtechnologien á la Google die kosteneffizientesten Services ermöglichen. Spannender wird’s dann schon in komplexeren Wissensgebieten wie z. B. den Lebenswissenschaften. Hier zeigen spezielle, ontologie-gestützte Suchmaschinen wie GoPubMed, wohin die Reise geht. Um diese Services jedoch nutzen zu können bedarf es einiger Einarbeitungszeit. Viele Semantic Web Newcomer beklagen sich, dass semantische Suchmaschinen zu kompliziert wären, und Google oder Yahoo doch deswegen so erfolgreich ist, weil sie so einfach zu bedienen wären.

Das mag in manchen Situationen wie gesagt auch stimmen. Wenn Sie aber wissen wollen, auf welchen Universitäten die Kinder der früheren amerikanischen Präsidenten studiert haben, dann muss man sich schon einige Zeit reservieren, um dies mit gängigen Suchtechnologien herauszufinden. Da bieten Technologien wie Freebase oder Parallax, oder eben Anwendungen im Semantic Web interessante Alternativen an – vor allem auch für das unternehmerische Umfeld.

?: Wird sich durch die starke Dominanz englisch-sprachiger Ontologien die große Internet-Kluft zwischen Europa und den USA noch weiter auftun?

!: Nein. Die Thesaurus-Spezifikation des W3C, nämlich SKOS bietet ja die Möglichkeit an, mehrsprachige Suchmaschinen zu unterstützen. Im medizinischen Bereich z. B. wird mit MeSH beispielsweise ein umfassender Thesaurus angeboten, der mehrsprachig, auch in Deutsch verfügbar ist.

?: Wirft man einen Blick auf Firmen und Institutionen, die sich mit semantischen Technologien beschäftigten, so gewinnt man notwendigerweise den Eindruck, dass die gleichen Aufgaben von zahlreichen Firmen parallel gelöst werden – oder ist dieser Eindruck des Einzelkämpfertums falsch?

!: Ich denke, in der Semantic Web Community gibt es eine gute Mischung aus Kooperation und Konkurrenz. Der Markt für semantische Technologien ist momentan ja stark im Wachsen, steckt aber noch in den Kinderschuhen. Ein Konsolidierungsprozess ist daher absehbar, noch sind ja viele Unternehmen stark an universitäre Einrichtungen gekoppelt, die über EU-Forschungsprogramme zunächst finanziert worden sind.

Es ist jedoch ein starker Community-Spirit auch in der SemWeb-Community spürbar. Es gibt viele Akteure und Organisationen, die an einem “größeren Ganzen” interessiert sind und nicht einfach den Markt abschöpfen wollen. Es gibt hier viele Parallelen zur Open Source Community: Offene Standards, offene Daten, offene Geister ;-)

?: Jeder Vertreter semantischer Technologien, mit dem ich bisher gesprochen habe, hat mir hoch und heilig versichert, dass sein System das leistungsfähigste und einzig logische sei. Auf der anderen Seite konnte mir noch niemand eine so simple Anwendung wie eine Websuchmaschine zeigen, die gegenüber Google irgendeinen Vorteil gehabt hätte. Was würden Sie einem Laien zeigen, um ihn von der Relevanz semantischer Technologien zu überzeugen?

!: Wenn ich 2 Minuten Zeit habe, würde ich verbesserte Suchmöglichkeiten á la Exalead und Reegle demonstrieren. Bei einer 5 Minuten-Demo zeige ich, dass es im Semantic Web vor allem um Zusammenhänge zwischen Dingen geht. (Demo) Wenn ich 15 Minuten Zeit habe, demonstriere ich, dass es weiters um eine bessere Vernetzung von Informationen und die zugrundeliegende semantische Annotation geht. (Demo 1, Demo 2) Wenn ich aber eine Stunde Zeit hätte, dann würde ich erst über das Semantic Web an sich sprechen – dem Web of Data, der LOD Cloud und all den Möglichkeiten und Gefahren, die in den nächsten Jahren auf uns zu kommen werden.

Verlosung: 2 300-Euro-Tickets für die Triple-I in Graz!

tripleilogoAm übernächsten Wochenende, vom 3. bis 5. September, findet in Graz die Triple-I statt, zu der auch ich im Praxisforum als Referent eingeladen bin. Aufgrund es diesjährigen großen Sponsoreninteresses freue ich mich sehr, meinen Lesern ein besonders Special anbieten zu können: ich vergebe 2 Gratis-Tickets für das Praxisforum im Wert von je EUR 310,-. Die Verlosung beginnt mit diesem Posting und endet am Sonntag, 31. August. Und weil das hier datenschmutz und nicht das Blog irgendeines windigen “Make-Money-Online Gurus” ist, müssen Sie weder auf irgendeine Seite verlinken, noch Ihre E-Mail für ewig an die Spam-Mafia verkaufen und mir nicht mal Geld für ein Premium-eBook überweisen, um am Gewinnspiel teilzunehmen: ein simpler Kommentar reicht vollkommen.

Das Triple-I Praxisforum beschäftigt sich mit Wissensmanagement, semantischen Systemen und neuen Medientechnologien und bringt hochkarätige Forscher mit Kapitänen (natürlich Wirtschafs-, nicht Schiffs-) zusammen. Die zu verlosenden Tickets umfassen folgende Leistungen:

  • Zugang zu allen Vorträgen, Tutorials, Special Tracks und Ausstellungen
  • Zugang zur englischsprachigen wissenschaftlichen Konferenz
  • Eintritt für 1 Person zur Welcome Reception am 3. September 2008
  • Eintritt für 1 Person zum Gala Dinner am 4. September 2008
  • Warmes Mittags-Buffet, Kaffee, Getränke und Snacks

Kommentieren und Triple-I Tickets gewinnen

Wer Lust hat, sich in der Murmetropole drei Tage lang über den State-of-the-Art des Semantic Web zu informieren und dabei ausgiebig zu networken, ist hier genau richtig – es gelten die üblichen datenschmutz-Teilnahmeregeln, als da wären: wer gewinnen möchte, schreibt einfach nur einen Kommentar zu dieser Story und teilt mit, warum er oder sie in Graz mit dabei sein möchte.

Special Deal: Für jede Ankündigung dieses Gewinnspiels gibt’s ein Extralos, Facebook-Fans von datenschmutz erhalten ein Los zusätzlich (bitte im Kommentar erwähnen!). Im übrigen gelten die üblichen Teilnahmebedingungen.

Triple-I: Wissenschaft und Business vernetzen

Programm und Timetable:
download

Aktuelle Infos, Interviews:
Triple-I Blog
Triple-I RSS Feed

Wiki-Practitioners werden jede Menge Gesprächsstoff finden: die kollaborativen Wissensdatenbanken haben sich innerhalb kürzester Zeit zu einem beliebten Wissensmanagement-Tool in vielen Firmen entwickelt. Wer die Praxis kennt, weiß allerdings, dass es mit der Installation allein bei weitem nicht getan ist: wenn die schöne neue Medienwelt im Unternehmen kein Mauerblümchendasein fristen soll, muss ein Integrations- und Nutzungskonzept festgelegt und in weiterer Folge permanent weiterentwickelt werden – Effizienz statt Informationsflut ist angesagt, wie man auch diesem Interview mit Peter Kemper, Knowledge Manager bei Shell, entnehmen kann. Über die Triple-I sagen die Veranstalter selbst:

Zahlreiche Vortragende aus der Wirtschaft berichten über neue Business-Möglichkeiten, die sich in den Konferenzthemen Wissensmanagement, Neue Medientechnologien und Semantische Systeme eröffnen. Eine begleitende Ausstellung informiert über aktuelle und künftige Produkte und Dienstleistungen. Ein besonderes Highlight ist die heuer erstmalig stattfindende Veranstaltung Professors4Industry. In dieser Veranstaltung bringen international anerkannte Professoren und Professorinnen von renommierten Universitäten aus dem deutschsprachigen Raum ihre Erkenntnisse und Erfahrungen im Bereich Web 2.0 der Wirtschaft näher.

triplecloud

Das Procedere

Von Alexander Stocker habe ich die zwei Gutscheincodes bekommen, mit denen man sich selbst anmelden kann – dazu muss lediglich in Schritt 3 bei der Anmeldung “Activation Code” ausgewählt und der betreffende Code eingetragen werden. Die beiden Gewinner werden im Zufallsverfahren ermittelt und erhalten von mir ihren Code für den Gratis-Konferenzpass via E-Mail zugeschickt. So – damit bleibt mir nur mehr, viel Glück zu wünschen: und ich würd mich natürlich freuen, dem einen oder anderen Stammleser in Graz über den Weg zu laufen.

Web 3.0 = Semantik + Folksonomy?

Den instruktivsten Einstiegs-Artikel zum Thema “Semantic Web”, den ich bislang das Vergnügen hatte zu lesen, veröffentlichte Dr. Cai Ziegler in der aktuellen Ausgabe der c’t. In Sinn oder nicht Sinn – Vom Suchen und Finden der Semantik im Web [c’t – Magazin für Computertechnik. Nr. 21, 1.10.2007, Heise Verlag, S. 172-179] erklärt der Autor konzise und verständlich die Grundlagen von Tim Berners-Lee’s Entwurf eines maschinenlesbaren World Wide Web und zeigt, in welcher Relation unser geliebtes Web 2.0 mit einer derzeit sehr akademischen Disziplin steht.

Die Problematik, die Berners-Lee mit seinem semantischen Modell zu lösen versucht, klingt zunächst trivial: Webseiten sollen maschinenlesbar werden. Das können Scripts wie der Googlebot doch schon längst, mag man einwenden. In der Tat allerdings beschränken sich die “Lesefähigkeit” von Algorithmen derzeit fast ausschließlich auf die bloße Worterfassung und statistische Verfahren: Sinnzusammenhänge bleiben den nicht-menschlichen Interpretatoren völlig verschlossen. Denn um, abstrakt gesprochen, aus einer Gruppe von Wörter sinnvolle Zusammenhänge entnehmen zu können, muss a priori bekannt sein, in welchen Beziehungen die bezeichneten Konzepte stehen. Sogenannte “Ontologien” strukturieren semantische Relationen, indem sie im wesentlichen Gruppen- und Untergruppenzugehörigkeiten definieren: eine Frau etwa ist stets ein Unterelement der Gruppe Mensch, eine Studentin wiederum Unterelement beider vorher genannter Gruppen – nicht jede Frau allerdings gehört der Gruppe Studentin an. Durch ausgefeilte Relationssysteme werden Algorithmen in die Lage versetzt, nicht bloß Häufigkeitsanalysen zu betreiben, sondern dem, was wir menschlichen Leser unter “Sinngehalt” eines Textes verstehen, ein ganzes Stück näher zu kommen.

Die beschriebenen Gruppenrelationen reichen allerdings längst nicht aus: transaktionale Parameter erweitern den Beziehungsfundus und machen jene Medien, die schon längst als Computerdateien und ASCII-Codes auf Festplatten liegen, wesentlich besser “verständlich”. Resultieren könnten daraus wesentlich effektivere Suchmöglichkeiten sowie bislang ungekannte automatische Recherche- und Aggregationsfähigkeiten. Obgleich seit Jahren diverse Beschreibungsstandards existieren, konnten sich semantische Modelle in der Praxis aber bislang nicht breitenwirksam durchsetzen: was sich in der Theorie machbar anhört, artet dank der Komplexität von Welt und Sprache schnell in Sisyphusarbeit aus: selbst die Erfassung einer abgeschlossenen “Domäne” wie Arbeitswelt stößt auf zahlreiche Probleme, ganz zu schweigen von der Fluidität und Veränderbarkeit unserer Sprache.

Spannenderweise führt in jenem Konglomerat aus Techniken und Use-Cases, das uns gemeinhin als Web 2.0 bekannt ist, exakt die gegenteiligen Strategien zu derzeit wesentlich mehr praktischem Erfolg: anstatt zuerst eine vollständige Ontologie zu erstellen, taggen (=beschlagworten) die Benutzer von Social Media Services wie FlickR oder del.icio.us, größter Online-Bookmark-Verwalter der Welt, erst einmal fröhlich drauf los. Aus der schieren Zahl der Anwender kristallisieren sich relevante Kategorien heraus: allen Ungenauigkeiten und Missverständnissen wie etwa verschiedenen Schreibweisen zum Trotz haben sich solche kollektiven Beschlagwortungssysteme als eine der “Killerapplikationen” des neuen Netzes erwiesen. Dr. Ziegler schreibt dazu in dem eingangs zitierten Artikel über die Zukunft des Semantic Web:

Unverhoffte Schützenhilfe mag hierbei vom Web 2.0 kommen. Dabei unterscheidet sich dessen Tao zunächst nahezu diametral von dem des Semantischen Webs: Das “Mitmach-Web” rückt den Menschen in den Vordergrund, sein semantischer Konterpart hingegen die Maschine.
Den Anknüpfungspunkt zwischen den beiden stellen Folksonomies dar, ein Eckpfeiler des Web 2.0. Diese sind das Produkt eines als Social Tagging bekannten Prozesses: User klicken sich durch das Web und annotieren dabei Webseiten, Blogs und andere Medienobjekte, die sie besonders gerne mögen. Solche textuellen, lesezeichenähnlichen Annotationen sind völlig willkürlich und entbehren der normativen Starrheit einer Ontologie.
Doch gilt im Web 2.0 der Leitspruch “Klasse durch Masse”: Dank der Vielzahl taggender Surfer kristallisieren sich schnell die gängigsten Bezeichner für ein Medienobjekt heraus, was der Einigung auf einen eindeutigen Identifikator schon sehr nahe kommt. Struktur entsteht im Mitmach-Web also von unten (bottom-up), nicht top-down wie im Semantischen Web.

Etliche Trendforscher prognostizieren mit Horx’scher Gewissheit die “Ankunft eines neuen Informations-Heilands” in Form einer Verschmelzung der Graswurzel-Strategien des Web 2.0 mit seinem akademischen Counterpart Semantic Web – zu einem neuen, gloriosen Informations-Bastard namens Web 3.0. Man vermeint sofort Großvater Hegel aus dem feuchten Grabe uns Bewohnern des 3. Jahrtausend christlicher Zeitrechnung “These, Antithese!” nachhusten zu hören… was dann allerdings in der dialektischen Logik die Antithese zu Web 3.0 wäre, wird wohl in 10 Jahren eine neue Generation von Semblos (Semantic Bloggers) faszinieren.