, ,

Wie Facebook mit fragwürdigen Experimenten unsere Status-Updates manipuliert

Facebook experimentiert

Ohne ihr Wissen nahmen im Jänner 2012 689.309 Facebook-Nutzer an einem groß angelegten Experiment zum Thema „emotionale Ansteckung“ teil. Das Einverständnis der Untersuchten einzuholen ist ein essentieller Bestandteil der Forschungsethik, den die Facebook-Psychologen allerdings schlichtweg ignorierten. Dass sie systematisch Inhalte von Status-Updates änderten um zu messen, wie sich die Präsenz positiver und negativer Schlüsselbegriffe aufs Kommunikationsverhalten auswirkt, sorgt seit gestern für einen veritablen Fäkaltornado.

Das Experiment: Emotional Contagion

Im Jänner 2012 verbarg Facebook eine Woche lang bestimmte emotional belegte Wörter vor den Augen von 689.003 Nutzern, was damals 0,04% der gesamten Facebook-Population entsprach. Mit dieser Manipulation wollten die Experimentatoren herausfinden, welchen Effekt diese „De-Emotionalisierung“ auf die eigenen Postings und Interaktionen der Testsubjekte habe. Da die Forscher über die gemessene „emotionale Ansteckung“ angeblich verblüfft waren, dürften sie sich im Vorfeld weder mit Forschungsethik noch mit Wirkungsforschung allzu intensiv befasst haben. Der Guardian schreibt:

The results found that, contrary to expectation, peoples‘ emotions were reinforced by what they saw – what the researchers called „emotional contagion“.

Das Resultat zeigte, dass, anders als erwartet, die Emotionen der Testpersonen durch das verstärkt wurden, was sie sahen – die Forscher nennen diesen Effekt „emotionale Ansteckung“.

Für Studiendesign und Durchführung kooperierte Facebook mit Akademikern von Cornell und der Universität von Kalifornien, die Vollversion findet man auf der Page der National Academy of Sciences of the United States. Die Veröffentlichung der Ergebnisse provozierte einen Aufschrei unter amerikanischen Forschern, Netzaktivisten und Rechtsexperten: diese Art der Forschung sei nicht nur unethisch, sondern man riskierte sogar, den getesteten Nutzer emotional zu schädigen.


Studie: Experimental evidence of massive-scale emotional contagion through social networks

Facebook sagt: wir dürfen laut AGBs alles!

Facebooks argumentiert, dass das Experiment sich im Rahmen der von allen Nutzern abgenickten „Data Policy“ bewege. James Grimmelmann, Rechtsprofessor an der Universität von Maryland, hat gestern einen umfangreichen Kommentar veröffentlicht, in dem er diese Argumentation in der Luft zerreißt:

Facebook users didn’t give informed consent: The study says:
[The study] was consistent with Facebook’s Data Use Policy, to which all users agree prior to creating an account on Facebook, constituting informed consent for this research.

The standard of consent for terms of service is low. But that „consent“ is a legal fiction, designed to facilitate online interactions. […] It’s very different from informed consent, the ethical and legal standard for human subjects research (HSR).

Facebook Nutzer wurden nicht informiert und haben nicht zugestimmt. In der Studie heißt es:
[Die Studie] stand im Einklang mit Facebooks Daten-Nutzungs-Richtlinien, denen alle Nutzer vor der Erstellung eines Accounts zustimmen, womit sie auch „informierte Zustimmung“ zu diesem Experiment gaben.
Der Standard für den Fachausdruck „informierte Zustimmung | informed consent“ ist niedrig. Aber diese „Zustimmung“ ist eine rechtliche Fiktion, denn die angesprochene Richtlinie wurde geschaffen, um Online-Interaktionen zu ermöglichen. […] Sie ist völlig verschieden von „informed consent“, dem ethischen und rechtlichen Standard für Forschung an menschlichen Subjekten.

Grimmelmann pflegt seit gestern eine aktuelle Linksammlung mit Primärquellen und Reaktionen auf das Facebook-Experiment. Bis nach Europa scheint die Welle der Empörung bislang erstaunlicherweise noch nicht herübergeschwappt zu sein, abgesehen von diesem Artikel im Satireblog DieTagespresse.com und einigen Beiträgen auf der Futurezone. Dabei gäbe es endlich wirklich Grund für Empörung.

Experiment oder Manipulation oder gar Zensur?

Selbst Facebook-Nutzer, die sich sämtliche AGBs und Richtlinien penibelst durchlesen (Grüße an alle drei!), würden niemals damit rechnen, dass der Betreiber ihrer Plattform inhaltlich in Status-Updates eingreift. Dass Facebook nach eigenem Ermessen und Gutdünken bestimmt, wer wann welche Info-Schnipsel zu Gesicht bekommt, ist bei der Größe und marktbeherrschenden Stellung des Netzwerks bedenklich genug.

Wer weiß schon, welche Experimente zur (Werbeerlös-)Optimierung sich die Forscher in Menlo Park noch ausgedacht haben? Wer weiß, welche Begehrlichkeiten systematisches „Tuning“ bestimmter Inhalte bei kommerziellen und staatlichen Institutionen weckt? Mit dem umstrittenen Experiment hat Facebook eine Grenze überschritten, die das Netzwerk teuer zu stehen kommen könnte. Die Nutzer haben in der Vergangenheit gelernt, dass sie für ein bisschen asynchrone Multimedia-Chatterei mit Freunden jede Menge Privatsphäre aufgeben und mit ihren Daten bezahlen – und sie haben den Deal akzeptiert. Aber heimliche inhaltliche Eingriffe in die Status-Updates der eigenen Freunde stehen auf einem anderen Blatt.

Adam Kramer, der für die Studie verantwortliche Facebook-Mitarbeiter, nahm auf seinem persönlichen Profil Stellung zu den Vorwürfen, verteidigt in seinem Text die Vorgehensweise und schließt mit den Worten:

While we’ve always considered what research we do carefully, we (not just me, several other researchers at Facebook) have been working on improving our internal review practices. The experiment in question was run in early 2012, and we have come a long way since then. Those review practices will also incorporate what we’ve learned from the reaction to this paper.

Zwar haben wir stets sorgfältig erwogen haben, welche Forschungen wir durchführen, aber wir (nicht bloß ich, sondern mehrere Forscher bei Facebook) arbeiten beständig daran, unsere internen Review-Praktiken zu verbessern. Das fragliche Experimente wurde Anfang 2012 durchgeführt, und seither ist viel geschehen. Unsere zukünftigen Review-Praktiken werden auch berücksichtigen, was wir aus den Reaktionen auf diese Studie gelernt haben.

Man darf also gespannt raten, welche weiteren unethischen Experimente Facebook in den Jahren 2012 bis Mitte 2014 mit uns, den Versuchskaninchen, durchgeführt hat. Wir User haben nämlich nur solange Kontrolle über unsere Inhalte wie es Facebook… gefällt.

Titelfoto: Tim Reckmann / pixelio.de

0 comments

Trackbacks

  1. […] es verbirgt sämtliche Zahlenspielereien, ändert aber ansonsten nichts an der Funktionalität Facebooks. Als gelernter Medien-Optimist erhofft Herr Grosser nämlich nicht gerade kleinlaut, einen Beitrag […]