Facebook hat eine Welle der Empörung ausgelöst, als es Ergebnisse einer Studie veröffentlichte, in der die Verbreitung positiver und negativer Emotionen in Netzwerken erforscht wurde. Für diese Studie wurden die Newsfeeds von 689.003 Facebook-Nutzern verändert. Diese Nutzer wussten nichts von ihrer Teilnahme an der Studie. The Atlantic fasst alles Wissenswerte zur Studie zusammen. Wie The Atlantic festhält, ist die Studie unter US-Gesetz legal und wird von den TOS von Facebook abgedeckt. Ähnliches gilt für deutsches Recht wie Rechtsanwalt Thomas Schwenke ausführt:
Die aktuell kritisierte Studie erachte ich dagegen rechtlich als (gerade noch) zulässig. Sie lässt sich z.B. damit rechtfertigen, dass Facebook das Ziel verfolgte den Newsfeed-Algorithmus alleine zur Verbesserung der sozialen Interaktion zu testen. Das heißt Facebook könnte sich auf die Datenverarbeitungserlaubnis zur Erfüllung der Geschäftszwecke berufen. Das gilt, auch wenn die Newsfeedbeeinträchtigung aus meiner Sicht wissenschaftlich unethisch und moralisch verwerflich war.
Letztlich stellt die Studie zunächst erst einmal nichts anderes dar, als das übliche -und ständige- A/B-Testing, wie es bei Facebook, Google und anderen Diensten üblich ist. Gerade Facebook nutzt Feedback auf Veränderungen des Newsfeed-Rankalgorithmus, um diese Veränderungen zu evaluieren.1
Warum also die Aufruhr?
Zum einen dürfte den meisten Nutzern nicht bewusst sein, dass sie sich in einem “konstanten UX-Experiment” befinden. Zum anderen kann man hier durchaus eine Unterscheidung zwischen üblichen A/B-Tests und dieser Studie ziehen.
Der Unterschied liegt unter anderem im Ziel. Will man Facebook selbst verbessern? Oder will man Endnutzer zu Laborratten machen, um zu schauen, wie sie allgemein auf Einträge reagieren?
Selbst wenn man auf einer intellektuellen Ebene argumentiert, dass diese Studie letztlich keinen Unterschied zu anderen A/B-Tests aufweist, wie es einige tun,2 hätte den Verantwortlichen bei Facebook klar sein müssen, welche öffentliche Reaktion es auf diese Studie geben würde.
Und das bringt uns zum eigentlichen Problem, wenn wir das Unternehmen Facebook betrachten. Ein ständig a/b-ierender Entwickler sieht vielleicht keinen Unterschied. Aber wie kann man als Verantwortlicher bei Facebook dieses delikate Thema so fehlinterpretieren?
Man hätte die Studie auch ohne Veränderungen der Newsfeeds durchführen können. Lesend statt manipulierend. Man hätte auch ganz auf die Zusammenarbeit mit den Forschern verzichten können. Man hätte eine öffentliche Debatte vorher führen können, in welcher Form eine solche Studie, deren Ergebnisse durchaus interessant sein können, durchgeführt werden kann.
Facebook, dass seit wenigen Jahren zunehmender Kritik3 bezüglich des Feedranking-Algorithmus ausgesetzt ist, hält es für eine gute Idee, eine Verhaltensstudie durchzuführen, bei der die Nutzer nichts über ihre Teilnahme an der Manipulation ihrer Newsfeeds erfahren.
Es wird deutlich, dass Facebook ein junges Unternehmen ist, dass sich seiner Bedeutung und Verantwortung für den Alltag seiner Nutzer nicht bewusst ist. Es ist sich nicht der Kontroversen bewusst, die es hervorrufen kann. Es ist sich nicht der Grenzen bewusst, die es nicht überschreiten sollte.
In dieses Bild passt der Vice President of Product bei Facebook, der sich über journalistische Entwicklungen wie Buzzfeed und Upworthy beschwert und dabei vollkommen übersieht, dass diese Entwicklungen im Journalismus nur durch die aktuelle Architektur von Facebook groß werden konnten.4
Facebook muss erwachsen werden.
Sprich also vereinfacht gesagt: “Wenn wir nun mehr Gewicht auf diese oder jene Art von Statusupdates legen, bleiben die Leute dann länger auf Facebook und interagieren mehr mit anderen Nutzern auf unserer Plattform? Ja? Dann mehr davon! Nein? Dann sollten wir das wieder ändern.” ↩
Dem ich nicht zustimmen würde. Absicht, also welches Ziel konkret verfolgt wurde, kann nicht einfach ausgeklammert wird. ↩
Kritik, die oft fehlgeleitet und von Eigeninteressen (von Facebook-Page-Betreibern) getrieben wird und oft einer guten Grundlage entbehrt. Trotzdem oder gerade deshalb ist die fehlende Sensibilität von Facebook bei diesem Thema bemerkenswert. ↩
Das heißt nicht, dass Facebook an etwas “schuld” hat hier. Es heißt nur, dass Facebook Teil des großen Ganzen ist. Das sollte zumindest vom VP of Product bei Facebook wahrgenommen und anerkannt werden. ↩
Leonido says
Auch – bzw. gerade – wenn ich nicht ausklammere, „welches Ziel konkret verfolgt wurde“, kann ich den Unterschied zu ständigem A/B-Testing nicht verstehen. Warum sollte es ethisch verwerflicher sein, einen A/B-Test aus Forschungsinteresse zu machen, als wenn es darum geht, mehr Anzeigen zu verkaufen?
Die Aufregung gerade bei einer Forschungsstudie finde ich deplaziert. Ganz allgemein brauchen wir aber durchaus eine Debatte zu Algorithmentransparenz..
Marcel Weiss says
Ich habe mich für einen werbefinanzierten Dienst angemeldet, der mir Beiträge von Freunden und von mir geliketen Publishern anzeigt und so gewichtet, dass ich möglichst viel Zeit mit Interaktion auf der Plattform verbringe.
Ich habe mich nicht für eine Umgebung angemeldet, in der ich ohne vorherige Einwilligung als Subjekt an einer Soziologiestudie teilnehmen könnte.
Man kann ersteres ’schlimmer‘ finden als zweiteres. Aber ersteres ist das, wafür sich die Nutzer angemeldet haben und mit zweiterem konnten sie nicht rechnen oder haben zumindest nicht damit gerechnet.
Nur weil das implizite Versprechen zwischen Facebook und Nutzern ‚für die Forschung‘ gebrochen wurde, macht es nicht weniger zu einem gebrochenen Versprechen.
(Mir geht es allerdings auch nicht darum, das einzuordnen. Das wird zur Genüge überall debatiert. Ob berechtigt oder nicht, der Shitstorm war vorhersehbar. Wichtiger finde ich, dass Facebook das nicht kommen sah. Das deutet auf größere Missstände im Unternehmen hin.)
Leonido says
Ich würde zu ersterem die juristische Metapher des Größenschlusses heranziehen: wenn ich zu dem einen zustimme, dann erst Recht zu dem viel harmloseren anderen. Kann man aber natürlich auch anders sehen.
Was die Vorhersehbarkeit betrifft, sehe ich das auch nicht so kritisch: Facebook spricht seit Jahren relativ offen darüber, dass es Forschern Zugang zu seinen Daten eröffnet, es gibt ein eigenes Portal und als kürzlich der Zittrain über Experimente rund um digitales Gerrymandering geschrieben hat, gab es auch keinen vergleichbaren Shitstorm.
Das alles soll nicht heißen, dass es nicht größere Missstände bei FB gibt. Der „Vorfall“ ist mMn nur nicht ein Beleg dafür..
Marcel Weiss says
Mit Missständen meinte ich auch eher, inwiefern sich Facebook seiner Bedeutung bei den Nutzern und deren Wahrnehmung von FB bewusst ist. Da scheint es größere Defizite zu geben.
Was FB sonst vorher sagte oder Forscher wie Zittrain irgendwo schreiben, bekommt der gemeine FB-Nutzer nicht mit. Wenn 690.000 Nutzer ohne Wissen an einer Studie teilnehmen, bekommt der gemeine Nutzer das über die Medien mit. Das ist eine andere Öffentlichkeit (in jeder Hinsicht eine breitere).
Wie gesagt, ich finde es grundsätzlich nicht so schlimm, wie es mancherorts dargestellt wird, ich kann aber auch sehr gut verstehen, warum Nutzer entsetzt sind. Das ist in erster Linie ein kleines Kommunikationsdesaster.
(Die Medienkontroverse und das Entsetzen sind ja Beweise dafür. Hätte FB das alles schon immer, auch vor der Studie, besser kommuniziert, wäre das so nicht abgelaufen.)