Filterblase, Echokammer und Fake News
Das Jahr 2017 ist ein Jahr des Wahlkampfes. Nach Donald Trumps Amtsantritt Anfang des Jahres stehen in den Niederlanden und Frankreich Wahlen an. Im Herbst bestimmen dann die Deutschen über die Zusammensetzung des neuen Bundestages. Davor finden außerdem im Saarland, Nordrhein-Westfalen und Schleswig-Holstein Landtagswahlen statt.
US-Wahlkampf als Blaupause?
Die Erfahrungen aus dem US-Wahlkampf haben bei vielen ein ungutes Gefühl hinterlassen. Von psychologischer Manipulation, Echokammern und Fake News ist da die Rede. Wir wollen in einer vierteiligen Serie in Kooperation mit der Grünen-nahen Heinrich-Böll-Stiftung einmal sachlich und mit gut informierten Wissenschaftlern, Beobachtern und Praktikern über diese Themen sprechen.
Den Auftakt macht das Thema „Filterblase“ oder „Echokammer„. Zersplittert unsere Gesellschaft in kleine Gruppen, die von den anderen nichts mehr wissen wollen? Kursieren in digitalen Parallelgesellschaften Fake News? Zeit für eine Bestandsaufnahme.
In der nächsten Episode unserer vierteiligen Serie beschäftigen wir uns mit automatisierten Programmen, die digitale Reaktionen erzeugen. Im Fokus stehen „Social Bots“ bei Facebook und Twitter. Denn digitale Aufmerksamkeit ist überhaupt nicht teuer. Mehr dazu in Folge 2 zum Thema „Social Bots“.
Der Beitrag zum Nachlesen
Fast jede und jeder von uns ist in einem sozialen Netzwerk angemeldet und dort in der Regel täglich aktiv. Egal ob Facebook, Twitter oder Snapchat, wir vernetzen uns mit Freunden oder Menschen, die wir – warum auch immer – mögen. Auch Nachrichten und Kommentare landen so in unserer Timeline. Konträre Meinungen oder gesellschaftliche Widersprüche tauchen da nur sehr selten auf. Wissenschaftlerinnen und Beobachterinnen sprechen hier von der Filterblase oder Echokammer.
Die Technik
Die „Filterblase“ oder „Echokammer“ entsteht im ersten Schritt immer durch uns Nutzerinnen und Nutzer, weil wir unsere Kontakte wählen. Markus Reuter von der Plattform für digitale Freiheitsrechte netzpolitik.org:
Dadurch entsteht eben ein etwas einseitiges Bild der Welt. Nämlich das, was die eigene Wahrnehmung immer bekräftigt oder die einem zeigt, dass man richtig liegt und dass alle anderen auch so denken. Dieses Ding wird natürlich bei Facebook zum Beispiel durch den Algorithmus noch mehr beeinflusst, indem eben dann dort die Nachrichten, von denen Facebook denkt, dass sie mir noch besser zusagen, bevorzugt ausgespielt werden. Und dadurch bekomme ich eben nicht mehr andere Sichtweisen mit. – Markus Reuter, netzpolitik.org
Nun mag man sagen, dass es schon immer einen Unterschied zwischen taz– und Bild– oder FAZ– und Süddeutsche-Leserinnen und Lesern gegeben hat. Und das ist auch korrekt. Das bestätigt der Kommunikationswissenschaftler Martin Emmer von der Freien Universität Berlin. Er forscht zur Mediennutzung und für ihn sind „Filter Bubble“ oder „Echokammer“ bereits Diagnosebegriffe.
Ganz ausgemacht ist das natürlich auch noch nicht, dass diese Filterbubbles in dieser Form, wie man sie sich idealerweise vorstellt, auch so wirklich existieren. Letztendlich steckt dahinter ja eine Technologie, die ganz andere Zwecke hat. Die eigentlich die Leute auf diesen sozialen Netzwerken halten will, die Nutzerbedürfnisse möglichst optimal befriedigen will, eher aus einer ökonomischen Perspektive heraus. Aus einer Dienstleisterperspektive will man natürlich die Bedürfnisse der Kunden befriedigen. Die hat aber eben, wenn man in den Bereich der politischen Öffentlichkeit kommt, auch Folgen für das, womit Menschen konfrontiert werden, worüber sie sich unterhalten. Damit müssen wir zurechtkommen. Damit müssen auch die Anbieter dieser Technologien zurechtkommen. Und man sieht ja bei Facebook auch, dass die Kollegen da ein bisschen überfordert sind. – Professor Martin Emmer, Freie Universität Berlin
Die Gefahr
Von einer Echokammer oder Filterblase kann eine echte Gefahr ausgehen:
Das bedeutet im Extremfall, dass man sich eine alternative Realität schaffen kann, mit Medien, die abseits der klassischen, etablierten Medien sind, die wirklich eine gewisse Ideologie sehr krass verfolgen. Und dass man sich dadurch eben immer wieder bestätigt findet in seinem Weltbild und auch nicht mehr auf andere Dinge zugreifen muss. – Karolin Schwarz, Hoaxmap
Karolin Schwarz ist eine der Gründerinnen der Hoaxmap. Die Seite sammelt und überprüft Gerüchte und Falschmeldungen über Geflüchtete. Wird eine Lüge eindeutig enttarnt, kommt sie in die Hoaxmap. Mittlerweile sind dort über 450 Meldungen versammelt.
Die Wirkung auf mich
Während das Phänomen Filterblase oder Echokammer in der öffentlichen Wahrnehmung momentan eine sehr große Aufmerksamkeit bekommt, ist die Medienwirkungsforschung da deutlich gelassener. Zwar gibt es nur wenige aktuelle Studien zum Thema, aber einfache Wahrheiten und direkte Zusammenhänge gibt es wohl nicht.
Ich habe vor einigen Jahren eine kleine Studie gemacht, wo wir geguckt haben, ob denn Leute, die sich stärker aus Internetquellen informieren über politische Themen, denn tendenziell andere individuelle Themenagenden entwickeln als Menschen, die sich aus Massenmedien informieren. Und da haben sich interessanterweise relativ wenige Unterschiede gezeigt, weniger starke, als wir ursprünglich vermutet hätten. Die Studien, die es zu Social Media gibt, zu Facebook, deuten ein bisschen auch in diese Richtung. Man kann da sicher Effekte finden, die sind aber oft nicht so stark wie man sich das vorstellt. Weil man immer ein bisschen unterschätzt, wenn man auf so ein Phänomen starrt, in wie viele Kommunikationsnetzwerke wir in unserem Alltag eingebunden sind. Wir kriegen immer, trotzdem wir vielleicht intensive Social-Media-Nutzer sind, auch noch Informationen aus traditionellen Medien mit. Wir unterhalten uns auch Face-to-Face mit Leuten. Das ist immer ein Gegengewicht, das wahrscheinlich auch dauerhaft immer eine Rolle spielen wird. – Martin Emmer
Aber auch Professor Martin Emmer will dieses Phänomen der selektiven Wahrnehmung und ihrer Wirkung auf den einzelnen im Auge behalten.
Hilft ein Verbot?
In der Debatte über die Wirkung von sozialen Netzwerken fordern Politiker schnell mal stärkere Eingriffe oder gar Verbote. Ein gutes Beispiel dafür ist sicher die aktuelle Fake-News-Debatte. Auch hier geht es darum, dass in bestimmten Zirkeln falsche Nachrichten kursieren und für wahr gehalten werden. Hier sind sich alle von uns getroffenen Gesprächspartner einig, dass Verbote hier nicht weiterhelfen.
Verbieten ist ja immer schnell bei der Hand. Mir ist das Grundprinzip zuwider, dass ein Algorithmus entscheidet, was mir gefallen könnte. Twitter versucht da auch in eine algorithmische Geschichte reinzukommen, aber da ist das Prinzip ja eher so, ich folge jemanden und kriege alles, was diese Person macht. Das finde ich viel besser als irgendwie zu gewichten und künstlich zu verknappen. Nee, ich glaube Filter Bubble verbieten kann man nicht und sollte man auch nicht. – Markus Reuter, netzpolitik.org
Algorithmen könnten hier tatsächlich eine Lösung sein. Das sieht auch der Vordenker des „Web 2.0“, Tim O’Reilly so. Staatliche Zensurbehörden oder Gesetze sind aus seiner Sicht der falsche Weg. Er plädiert dafür, neue Algorithmen zu entwickeln, die beispielsweise Fake News früh erkennen und enttarnen.
Man kann künstliche Intelligenz trainieren, in dem man ihr sehr viele Fake-News-Beispiele zeigt. Das wird die Maschine dann erkennen. Man kann die Quelle automatisch prüfen lassen, ist sie vertrauenswürdig? Das kann ein Algorithmus leicht erkennen. Ist die Seite gerade erst angelegt worden oder gibt es die schon lange? Gibt es bereits bekannte Fake-News-Fälle von dieser Webseite? Ein Algorithmus kann das sehr schnell und zu dem Zeitpunkt, wo das Phänomen auftaucht. Wir müssen verstehen, dass ein großer Teil unserer Informationsverarbeitungsprozesse elektronisch wird. Wir brauchen elektronische Redakteure, nicht nur menschliche. – Tim O’Reilly
Ein Ansatz von Facebook in diesem Jahr ist ja die Entwicklung eines Algorithmus, der bei dubiosen Meldungen anschlagen soll und dann ab einer gewissen Relevanz von Journalisten, beispielsweise des Recherchebüros Correctiv.org, anhand gemeinsamer und transparenter Kriterien geprüft werden soll. Basis sind die Grundsätze des internationalen Netzwerks der Faktenchecker des Poynter-Instituts aus den USA. Dazu gehört beispielsweise Transparenz oder das Eingestehen von eigenen Fehlern. Facebook hofft dadurch Falschmeldungen zu verhindern und auch in geschlossenen Zirkeln mit Fakten durchzukommen.
Was lernen wir daraus?
Für politisch interessierte Menschen und politische Parteien wird es in diesem Jahr darauf ankommen, die Filterblase der einzelnen Leute möglichst zu durchbrechen. Für den Hamburger Politikberater und Blogger Martin Fuchs ist dabei der direkte Austausch von Argumenten entscheidend. Er hat einen ganz konkreten Tipp für den Umgang mit gegenteiligen Meinungen von ehemaligen Klassenkameraden oder Freunden von Freunden bei Facebook:
Wenn es zum Beispiel populistische Geschichten gibt, rechts- oder linkspopulistische Sachen, dass man die Leute nicht aus der Freundesliste schmeißt, sondern, dass man versucht, es auszuhalten. Weil genau dieser Kontrapunkt, der mein Weltbild vielleicht auch infrage stellt, ganz ganz wichtig ist für einen politischen Diskurs. Und das gilt für das Digitale sehr sehr stark, aber natürlich auch für das Analoge. Das ist ein Beispiel, was ich, wenn ich Politiker berate, immer wieder erlebe. Die bekommen nicht mehr die reale Welt mit, wenn sie in Berlin sind. Weil das natürlich in Berlin-Mitte ein Mikrokosmos ist. Deshalb müssen sie in ihrem Wahlkreis immer wieder auch dahin gehen, wo wirklich Leute mit Problemen sind, die weit weg sind von ihrer Welt und ihrer Realtität. Das heißt, jeder muss sehr aktiv sein, um die Filterbubble zu durchbrechen. – Politikberater Martin Fuchs
Für Markus Reuter von Netzpolitik ist genau das die Herausforderung für politische Parteien und aus seiner Sicht sind die Rechtspopulisten da einen Schritt weiter.
Aber das ist natürlich schon eine Frage. Wie kann ich in die Filterbubble rein oder auch raus. Das sind auch so Effekte, die man so beobachtet. Zum Beispiel habe ich das Gefühl, die eher rechte Bewegung schafft es aus der Filterbubble raus, weil sie die Gegner in ihrer Filterbubble verlinkt als Gegner. Und dann kommen diese Leute aus der Filterbubble raus und gehen in ein Medium, was linksliberal ist, die taz zum Beispiel, die unglaublich Probleme hat mit rechten Kommentatoren. So etwas kann ja auch passieren. Das aus der Filterbubble raus ist gar nicht mal unbedingt falsch, das zu tun. Ich glaube, das machen nicht alle. Das ist ein Ding, das mir aufgefallen ist, dass die Rechte da eher rausschaut als die Linke. – Markus Reuter
Der Politikberater Martin Fuchs hat einen pragmatischen Ansatz, wie man das Angenehme mit dem Nützlichen verbinden kann.
Dass man zum einen offener durch die Welt gehen sollte, auch durch die Onlinewelt und da sich auch bewusst machen muss, dass man mit Leuten redet, mit denen man sonst nie in Kontakt kommen würde. Ich mach das zum Beispiel so in Hamburg, dass ich jeden Monat in eine Eckkneipe gehe, in einem Stadtviertel, in dem ich nicht wohne, um dort mit Leuten ins Gespräch zu kommen und zu erfahren, was die so umtreibt. – Martin Fuchs
Wir alle müssen also raus aus der digitalen Filterblase oder Echokammer, aber dürfen auch insgesamt etwas gelassener sein. Denn jede und jeder von uns hat unzählige Kontakte, die nicht in digitalen sozialen Netzwerken stattfinden. Die verstörende Vision komplett abgeschotteter Teilgesellschaften scheint zumindest überzogen.