Essen Flüchtlinge Kinder? Sind muslimische Flüchtlinge in einen Streichelzoo eingebrochen, um die Ziegen dort zu töten und zu braten? Bekommen Flüchtlinge kostenlose Bordellbesuche? Nein, natürlich nicht. Eine 30-jährige Leipzigerin hat vor ein paar Wochen die Hoaxmap online gestellt. Dort sammelt sie solche absurden und weniger absurden Gerüchte zu angeblichen Straftaten durch Asylsuchende – inklusive Widerlegung durch Behörden. Dass so etwas im Jahr 2016 nötig ist, schieben einige Beobachter auf soziale Netzwerke und hauptsächlich auf die hierzulande populärste Plattform Facebook. Dort würden solche Gerüchte gestreut und massenhaft verbreitet. Und die Funktionslogik von Facebook, so die Theorie, führt dazu, dass Menschen immer radikalere Ansichten bekommen. Und im Jahr der sogenannten „Flüchtlingskrise“ sind das eben immer radikalere Ansichten über Flüchtlinge.

cms-image-000048645.gif

Katzen-Overkill für Katzenfreunde: Das ist die Logik des Facebook-Algorithmus. (Foto: Anthony Antonellis)
(Foto: Anthony Antonellis)

Facebooks Algorithmus zeigt jedem Nutzer eine individuelle Timeline an, die aus den Posts seiner Freunde und seiner Likes besteht. So entsteht eine sogenannte Filterbubble: Wer zum Beispiel Pegida, die AfD und Frei.Wild mag und Freunde mit ähnlichen Interessen hat, der bekommt tendenziell öfter rechtsextremes oder rechtspopulistisches Gedankengut in seine Timeline gespült als andere. Wozu solche Filterbubbles führen können, ist sozialpsychologisch vergleichsweise gut erforscht. Wer dazugehören will, der wird Posts liken, von denen er glaubt, dass seine Freunde sie gut finden, egal ob er selbst zu 100 Prozent dieser Meinung ist oder nicht. Und Experimente haben gezeigt: Wer mit Gleichgesinnten diskutiert, der hat danach dieselbe Meinung wie vorher, nur extremer. Im Fall von Facebook und anderen sozialen Netzwerken ist das insofern fatal, als man davon ausgehen kann, dass die Menschen vorwiegend mit einer Sichtweise konfrontiert werden. Aber führen Facebook, Twitter und Co. wirklich zu einer Radikalisierung? Muss Facebook deshalb reguliert werden? Jasmin Siri forscht seit 2010 zu sozialen Netzwerken und rechtsextremen und rechtspopulistischen Bewegungen im Netz. Ab April vertritt sie die Professur für Politische Soziologie an der Uni Bielefeld. Siri glaubt: Der Einfluss von Filterbubbles in sozialen Netzwerken wie Facebook wird überschätzt.

fluter.de: Frau Siri, wer sich ein bisschen für Politik interessiert und einen Facebook-Account hat, der durfte in den letzten zwölf Monaten häufig ziemlich drastische Ansichten über Flüchtlinge, Muslime, Politiker, sogenannte „Gutmenschen“ und die „Lügenpresse“ lesen. Wird auf Facebook heute mehr gehasst als früher?

Jasmin Siri: Das glaube ich nicht. Ich beschäftige mich damit seit 2010, und Hass im Netz gab es immer. Damals hat er nur weniger Menschen interessiert, zum Beispiel die antirassistischen oder feministischen AktivistInnen. Was sich in den letzten Jahren geändert hat, ist vor allem die politische Lage. Hier haben sich Konflikte und Unsicherheitsquellen verstärkt, und dies sehen wir auch in den sozialen Medien: Denken wir nur an den Syrienkrieg, die Ukrainekrise oder die aktuelle Situation in der Türkei, an die Fluchtbewegungen und die europäische Wirtschaftskrise. Und: Heute sind mehr Menschen auf Facebook. Mein Vater ist 75 und mittlerweile auch auf Facebook – das heißt, das ist jetzt echter Mainstream. Früher haben sich nur Netzjournalisten mit Filterbubbles auseinandergesetzt, heute muss das auch die „Tagesschau“.

 

Die Filterbubble, das ist dieser seltsame Ort, der entsteht, weil mir Facebook nur Dinge anzeigt, die ich gelikt habe, also die ich im Normalfall eh schon gut finde.

Jedes Medium hat seine eigene Logik. Und die Logik bei Facebook ist eben, dass man sich mit Freunden trifft. Und das kann dazu führen, dass ich, Jasmin Siri, auf die Idee komme, dass es in der Welt nur antirassistische Feministinnen gibt, weil ich etwas anderes kaum sehe. Und wenn, dann nur, weil sich meine Freunde darüber aufregen.

Dr. Jasmin Siri sieht also nur antirassistische Posts, aber das gilt eben auch für die andere Seite: Pegida-Anhänger sehen eher Artikel darüber, wie Flüchtlinge ihnen angeblich die Arbeit wegnehmen. Hat die Filterbubble etwas damit zu tun, dass sich etwa in Clausnitz ein Mob vor einem Bus mit Flüchtlingen zusammengefunden und „Wir sind das Volk“ gegrölt hat?

Auch in den 90er Jahren brannten Flüchtlingsheime, teils standen klatschende Menschen davor. Es kann sein, dass so eine Demo wie in Clausnitz heute durch das Internet leichter zu organisieren ist, und es kann sein, dass es dann auf Facebook mehr Menschen mitkriegen als früher. Der Philosoph Marshall McLuhan sagte: Jedes Medium macht auch immer etwas mit dir. Und durch Facebook wird es einfacher, solche Dinge zu beobachten. Und dadurch empfinden wir sie als gravierender.

 

Ist die Stimmung in den sozialen Netzwerken aggressiver geworden in letzter Zeit?

Es kann dieses Bauchgefühl entstehen, wenn man sich Diskussionen in den sozialen Netzwerken durchliest, vor allem, weil wir alle Unterschiedliches lesen und keinen repräsentativen Schnitt präsentiert bekommen. Ich glaube aber nicht, dass „der Mensch an sich“ bereitwilliger hasst, vielmehr haben sich soziale Medien stärker durchgesetzt, vielleicht sind es daher auch mehr Hasskommentare als früher. Aber Zahlen dafür gibt es nicht, und außerdem kann es viele Gründe dafür geben. Ein möglicher Grund für einen Hasskommentar ist natürlich, dass man hasst. Aber dann gibt es noch die Möglichkeit, dass Menschen das tun, weil es gerade in Mode ist, also schreiben sie das und schauen mal, wie sich das anfühlt. Und dann gibt es auch noch die Trolle, die einfach nur die Resonanz genießen. Für 1.000 Hasskommentare kann es also potenziell 1.000 verschiedene Gründe geben.

Der Netzerklärer Sascha Lobo hat vor Kurzem in seiner Spiegel-Online-Kolumne die These aufgestellt, dass die „Schweigespirale“ auf Facebook keine Gültigkeit mehr hat. Eine Theorie aus den 70ern, die davon ausgeht, dass Leute ihre Meinung lieber für sich behalten, wenn sie glauben, dass sie damit in der Minderheit sind. Lobo sagt, auf Facebook gilt das nicht mehr, weil durch die Algorithmen jeder das Gefühl bekommt, seine Meinung wäre die Mehrheitsmeinung. Einfach weil in seiner oder ihrer Filterbubble keine Opposition existiert.

Das ist ein spannender Gedanke. Natürlich synchronisieren sich Menschen. Wir werden beeinflusst durch die Meinungen, die wir lesen. Bei Facebook wird das noch einmal verstärkt durch den Algorithmus, der bestimmt, welche Postings du siehst. Dadurch entstehen diese Echokammern, in denen man die eigene Meinung viel stärker wahrnimmt als andere. Im schlimmsten Fall wird das dann zu so Kollektivneurosen. Ein tolles Beispiel sind Verschwörungstheorien wie die der sogenannten „Reichsbürger“. Die glauben, Deutschland sei eine GmbH, und erkennen zum Beispiel die Polizei nicht an. Die wählen ihren eigenen Reichskanzler und basteln sich eigene Autokennzeichen und Briefmarken. Aber auch die Reichsbürger gibt es nicht erst seit Facebook.

Facebook ist also nicht schuld daran, dass rassistische Kommentare auf der Plattform zunehmen?

Facebook kann man einiges vorwerfen, zum Beispiel, dass dort vereinfachte und verkürzte Botschaften, wie übrigens überall im Netz, extrem gut funktionieren und dass sie nackte Brüste eher löschen als Hasskommentare. Aber wenn die Frage ist, wann rassistisches Sprechen wieder hoffähig wurde, dann war das ein ehemaliger deutscher Beamter, der mit einem Buch durch die Talkshows und Säle der Republik getingelt ist: Thilo Sarrazin. Das war der Bruch im Diskurs.

Okay. Aber Thilo Sarrazin hatte mit „Deutschland schafft sich ab“ nur einen Bucherfolg. Die AfD zum Beispiel ist eine andere politische Dimension. Die Partei, deren Unterstützer sich teils zu ausländerfeindlichen und teilweise völkischen Parolen bekennen, hat bei drei Landtagswahlen über zehn Prozent geholt, in Sachsen-Anhalt sogar 24 Prozent.

Ja, bei der AfD kann man sagen, dass die auch von gewissen Diskursen in sozialen Medien profitiert oder da andocken kann. Aber: Die AfD profitiert viel mehr von den eben angesprochenen Krisenphänomenen, die sich auch in Wahlergebnissen niederschlagen. Soziale Medien sind da nur ein kleiner Faktor, denken wir nur an islamfeindliche Äußerungen oder Beiträge in den Talkshows des öffentlich-rechtlichen Fernsehens. Übrigens werden die nicht nur von AfD-Mitgliedern getätigt. Man könnte auch sagen, dass die AfD viel mehr von der Sprachlosigkeit der Großen Koalition im Hinblick auf die Folgen von Migration profitiert, von einer Strategie des Nichtsprechens, die es der AfD ermöglicht, sich als die einzige Partei darzustellen, die Probleme anspricht. Außerdem sagen Populismusforscher, dass eine Partei wie die AfD lange überfällig ist in Deutschland. Und zuletzt schauen wir mal, wie lange sich die AfD hält, wenn es um die reale Arbeit in Parlamenten geht. Junge Parteien sind selten besonders stabil, und die AfD hat zwar gerade einen großen Erfolg geschafft, der aber nicht darüber hinwegtäuschen sollte, dass es auch erhebliches Konfliktpotenzial in der Partei gibt, eben zum Beispiel eine völkisch-nationalistische Gruppe, die das bürgerliche Image konterkarieren kann. Ob sich diese heterogene Sammlungsbewegung praktisch als Partei bewähren kann, wird erst die Zeit zeigen. Ich bin mir gar nicht so sicher, dass es die bei der nächsten Bundestagswahl noch gibt.