SN.AT / Kolumne / Bits und Bites

Facebook und das große Psychoexperiment

Die Postings von 690.000 Nutzern wurden bei einem Experiment von Facebook manipuliert. Skandal oder egal?

Thomas Hofbauer

Wenn an den Gedanken von Menschen herumexperimentiert wird, klingt das nach Psychothriller, Gänsehaut und Science-Fiction. Wenn bekannt wird, dass derartige Experimente tatsächlich stattgefunden haben, riecht das nach Skandal. Zweieinhalb Jahre ist es her, da wurde für eine Studie die Auswahl der Facebook-Postings von 690.000 Nutzern manipuliert. Man wollte erforschen, wie sich positive und negative Emotionen in sozialen Netzwerken ausbreiten. Entsprechend wurden für Nutzer des englischsprachigen Ablegers Einträge von Facebook-Freunden gefiltert. Den einen wurden mehr positive Nachrichten gezeigt, den anderen mehr negative. Die Studie ergab, dass Menschen, die mehr positive Nachrichten sahen, eher dazu neigten, auch selbst Einträge mit positivem Inhalt zu veröffentlichen - und umgekehrt.

Facebook hat das heftig kritisierte Psychoexperiment verteidigt. Es sei wichtig, zu verstehen, wie Mitglieder auf verschiedene Inhalte reagierten, erklärte man. Warum eigentlich?

Der Schlüssel liegt in einem Facebook-Eintrag, den ein Studienautor gepostet hat: Man habe die Sorge überprüfen wollen, dass sich Menschen ausgeschlossen fühlten, wenn sie positive Nachrichten ihrer Freunde sähen. Und ob viele negative Einträge von Freunden Nutzer veranlassen könnten, Facebook zu meiden. Klingelt es? Facebook meiden, das geht gar nicht. Denn je mehr Zeit Menschen auf Facebook verbringen und je wohler sie sich dabei fühlen, desto größer ist auch die Wahrscheinlichkeit, dass sie Webung positiv aufnehmen.

Was bei Facebook 2012 begann, führte Google bereits 2009 ein. Man filtert seither Suchergebnisse und zeigt Nutzer nur mehr das, was zu ihrem Profil passt. Wer nach "Golf" sucht, erfährt als Golfer alles über seinen Lieblingssport, während der Autonarr verstärkt Informationen zum VW Golf angezeigt bekommt.

Dass diese Filterung gravierenden Einfluss auf die Meinungsbildung haben kann, beschreibt Netzaktivist Eli Pariser in seinem Buch "Filter Bubble". Dort schildert er, wie mit der Zeit Freunde von seiner Facebook-Seite verschwanden. Er ist als politisch eher links denkender Mensch auch mit einigen Konservativen befreundet, doch ihre Postings tauchten unter seinen Neuigkeiten immer seltener auf. Sie wurden einfach ausgesondert.

Das perfekte Nutzererlebnis ist oberstes Ziel aller Internetriesen. Für sie sind ihre Dienste nichts anderes als Geschäftsmodelle. Zwar würde niemand einen Autohersteller schelten, wenn das neue Modell noch komfortabler ist. Aber Komfortverbesserungen wie die Filter bei Facebook und Google, die den wenigsten Nutzern bewusst sind, gehen eindeutig zu weit. Facebook ist für manche mittlerweile mehr als ein Zeitvertreib. Sie richten ihr Leben danach aus. Und es werden immer mehr. Das macht Facebook selbst zum größten Psychoexperiment mit über einer Milliarde Teilnehmern. Dementsprechend transparent sollte Facebook auch gestaltet sein.