Musik: Tom Hempton – A Stitch in Time
DER NEUE ALGORITHMUS
Zu Beginn unseres circa dreimonatigen Experiments zur Filterblase markierten wir verschiedene Medien mit „gefällt mir“. Eigentlich war es unser Ziel, anhand dieser Vergleichsmedien herauszufinden, ob uns Beiträge mit Themen, Ereignissen und Politikern je nach politischer Orientierung unserer Profile angezeigt werden. Doch wenige Tage nachdem das Experiment startete, veröffentlicht Mark Zuckerberg, CEO von Facebook, einen wichtigen Beitrag. Facebook solle wieder persönlicher werden und die persönlichen Momente in den Vordergrund rücken. Viele sehen darin aber auch eine Reaktion auf die Rolle, welche Facebook bei den US-Präsidentschaftswahlen gespielt haben soll. So wurde der Algorithmus angepasst.
Die Anpassung hatte zur Folge, dass die Posts unserer zahlreichen Freunde viel häufiger und prominenter angezeigt wurden, als die der Medienunternehmen. Die Möglichkeit des Vergleichs war also in dieser Form nicht mehr gegeben, weil einfach die Artikel fehlten. Wir mussten zum Teil Minuten lang scrollen, bis wir einen Beitrag eines Vergleichsmediums angezeigt bekamen.
NAIVITÄT UND BLINDES VERTRAUEN
Dennoch haben wir über drei Monate an unseren gefälschten Profilen gearbeitet, um die sogenannte Filterblase im größten sozialen Netzwerk zu erleben. Wir hatten uns, wie im Video erklärt, dafür entschieden, die fiktiven Identitäten von Jonas Hofmann und Dennis Hartman anzunehmen. Dass uns das Experiment auch auf einer persönlichen Ebene belastet, hätten wir zu Beginn nicht erwartet.
Um als authentische Facebook-User wahrgenommen zu werden und keine Zweifel an der Echtheit der Profile aufkommen zu lassen, war es zunächst unsere Aufgabe, in politisch links- und rechtsorientierten Gruppen Freunde mit ähnlichen Interessen zu finden. Dabei machte sich bei uns schnell ein schlechtes Gewissen breit, denn wir haben echten Menschen eine Freundschaftsanfrage geschickt, die diese annahmen, uns dabei aber für Dennis und Jonas hielten. Auch sind diese Menschen wirklich politisch an der AfD oder der Linken interessiert und engagiert. Dahingegen waren unsere Profile ohne eine „echte Seele“ fiktiv und nur ein Abbild unserer Fantasie.
Als wir nun auf „Freundessuche“ waren und eigentlich jeden, der ein politisches Interesse an einer der von uns gewählten Parteien zeigt, hinzugefügt haben, waren wir überrascht, wie viel Vertrauen die Facebook-User in uns hatten. Ohne große Bedenken hatten nach zwei Monaten circa 70 Menschen pro Account unsere Anfrage bestätigt. Nur eine Handvoll Leute haben uns angeschrieben, wollten entweder Kontakt oder zeigten etwas Misstrauen, indem sie fragten, woher denn die Bekanntschaft kommen könnte. Auf der anderen Seite sind wir uns aber auch ziemlich sicher, dass einige unserer Freunde selbst Fake Profile oder Bots waren. Wie wir schienen sie nicht echt zu sein und auch wie wir nur auf der Suche nach potentiellen Facebookfreunden.
URLAUBSBILDER, FOTOS VON HAUSTIEREN ODER DER FAMILIE
Dennoch hatten wir während des Experiments immer wieder das Gefühl, die Naivität und das Vertrauen der Menschen für unsere Zwecke auszunutzen. Während der letzten drei Monate haben wir schließlich kaum Inhalte von Medienhäusern oder verschiedenen politischen Gruppen auf unserer Timeline gesehen.
Viel mehr wurden uns die privaten Inhalte unserer Freunde gezeigt, oft ganz unabhängig von der jeweiligen politischen Einstellung. Urlaubsbilder, Fotos von Haustieren oder der Familie. Dinge, die man normalerweise nie mit Fremden, wie wir es sind, teilen würde. Doch es scheint, dass viele Menschen auf Facebook oft das Gute sehen und gar nicht die Möglichkeit in Betracht ziehen, dass in Dennis und Jonas eigentlich nur ausgedachte und fiktive Persönlichkeiten stecken.
Sollte man wirklich mit den Facebook-Profilen fremder Menschen so umgehen? Sollte es so einfach sein an so private Informationen zu kommen? Wir haben die Profile von Dennis und Jonas nach Ende des Experiments geschlossen, doch stellt sich uns weiter die Frage, welchen Schaden andere Fake Profile oder Bots anrichten können.
GETEILTE INHALTE HABEN PRIORITÄT
An den Tagen, an denen wir sehr viele private Inhalte unserer Freunde auf Facebook zu Gesicht bekamen, fühlten wir uns etwas unwohl. Unbehagen machte sich breit. Doch konnten wir so auch zu der Erkenntnis kommen, dass beispielsweise von unseren Freuden geteilte Artikel über links- oder rechtsorientierte Veranstaltungen wie Treffen, Versammlungen oder Kundgebungen häufiger in unserer Timelime erscheinen als Beiträge von Medienhäusern. Aber auch Artikel, die von den Politikern aus den jeweiligen Parteien veröffentlicht wurden, waren viel prominenter.
Der Facebook-Algorithmus scheint also geteilte Inhalte von Seiten, die man unter Umständen nicht mit „gefällt mir“ markiert hat, den direkten Inhalten der Seiten, die man mit „gefällt mir“ markiert hat, vorzuziehen. Die Freunde, die man auf Facebook hat, scheinen somit einen großen Einfluss darauf zu haben, was man auf seiner Startseite überhaupt an Beiträgen sieht. Und das entspricht dem Konzept der Filterblase: Wir bekommen nur das zu sehen, was unserer Freunde teilen. Und mit diesen teilen wir die politische Einstellung.
UNSER FAZIT
Erlebt haben wir die Filterblase so auf jeden Fall. Die Timeline von Jonas war durch und durch links, die von Dennis entsprach der eines AfD-Anhängers. Doch sind wir uns nicht sicher, was wir davon dem Facebook-Algorithmus und was davon wir uns selbst zuzuschreiben haben. Denn wir haben ja ganz aktiv nach Freunden gesucht, die sich in bestimmten politischen Milieus aufhalten. Facebook hat dann allerdings nicht für mehr Meinungsvielfalt auf unserer Timeline gesorgt. Dadurch, dass die geteilten Beiträge unserer Freunde gegenüber den Artikeln der von uns gewählten Medien bevorzugt werden, hat Facebook die Filterblase noch verstärkt und sie nach außen hin abgeschlossen.
Ein anderer interessanter Fakt am Rande ist noch, dass wir ganz zu Beginn, als unsere beiden Profile noch keine politische Richtung hatten und wir nur jeweils die Vergleichsmedien mit „gefällt mir“ markiert hatten, schon unterschiedliche Inhalte angezeigt bekamen. Weder die Reihenfolge der Beiträge, noch die Beiträge selbst stimmten miteinander überein. Der Algorithmus scheint also schon dann, mit fast keinen Informationen, im Hintergrund zu arbeiten. Umso mehr Informationen dann schließlich über die Nutzer gesammelt werden, desto stärker scheint dann der Effekt zu sein.