Der Sieg von Donald Trump bei der US-Präsidentschaftswahl war für viele progressive US-Amerikaner ein ziemlicher Schock. Und wie immer, wenn Schocks verarbeitet werden, hilft es, einen Schuldigen auszumachen. Im Fall der US-Wahl soll unter anderem Facebook auf die Anklagebank. Der Vorwurf: Das soziale Netzwerk hat nichts dagegen unternommen, dass massenhaft falsche „Nachrichten“ Stimmung gegen Hillary Clinton gemacht haben.

Andererseits schützt die US-Verfassung auch die exotischsten Ansichten in Wort, Bild und Schrift als freie Meinungsäußerung, und das finden eigentlich auch die meisten Amerikaner gut so. Es sieht also ganz nach einem Dilemma aus: Wie kann man die Flut an Fake-News auf Facebook eindämmen, ohne die Meinungsfreiheit einzuschränken?

Eli Pariser, der Prophet!

Auch Eli Pariser stellte sich diese Frage. Pariser ist Social-Media-Aktivist und Autor. Er hat für die Graswurzel-Aktivisten von moveOn.org gearbeitet und das Clicktivism-Start-up Avaaz.org gegründet. Und 2011 hat er ein inzwischen berühmtes Buch über die Filterbubble veröffentlicht. Seine These damals: Facebook und sein Algorithmus werden dazu führen, dass wir uns in einer hübschen personalisierten „Realität“ einrichten, die aber mit der echten Welt nicht so wahnsinnig viel zu tun haben muss: Eli Pariser, der Prophet!

Deshalb war es logisch, dass nach der Wahl viele Leute auf die Idee kamen, Pariser um Rat zu fragen. Einziges Problem: Pariser hatte auch keine Ahnung. Aber er hatte eine Idee: Am 17. November, also neun Tage nach der Wahl, legte er ein Google-Dokument an und twitterte den Link an seine ca. 14.000 Follower: „Wenn ihr Facebook wärt, wie würdet ihr versuchen, Fake-News zu identifizieren/zu reduzieren? Ideen bitte hier rein …“

Die ersten Sätze des Dokuments sind von Eli Pariser selbst: „Hallo, ich bin Eli. Ich hab mal mit diesem Dokument angefangen. Schreibt eure Ideen hier unten rein. Achtet darauf, dass ihr Schlüsselsätze fett markiert. Und schreibt euren Namen dazu. Und ihr könnt auch gerne Ideen klauen, wenn ihr sagt, wo ihr sie herhabt.“
Was dann passierte, ist ein ziemlich beeindruckendes Beispiel für Schwarmintelligenz. Journalisten, Informatiker, Professoren oder Privatleute, alle haben sofort angefangen, mehr oder minder sinnvolle Vorschläge aufzuschreiben. Schon einen Tag später war das Dokument 19 Seiten lang. Mittlerweile sind es über 100, das Ding hat ein Inhaltsverzeichnis und ist so schön formatiert, wie es eine Einser-Abiturientin auch nicht besser könnte.

Ein paar Leute haben sinnvolle existierende Projekte vorgestellt, wie etwa die Macher von PropOrNot: Das sind Privatmenschen, die es sich zur Aufgabe gemacht haben, bei online geteilten Texten zu checken, ob ihre Quellen eigentlich russische Propagandaseiten sind. Andere machen Vorschläge, wie Facebook seriöser werden könnte. Zum Beispiel könnten alle Nachrichtenartikel eine Art Wahrheitsindex bekommen, der von seriösen Fact-Checking-Seiten wie mimikama im deutschsprachigen Raum oder snopes.com in den USA zugeteilt wird.

Ob Facebook Lust hat, über die Vorschläge auch nur nachzudenken?

Die meisten würden aber am liebsten gleich den Facebook-Algorithmus ändern. Der könnte zum Beispiel bei der Verteilung von Posts auf die Timelines nicht nur darauf achten, wie viele Leute eine Story teilen und liken, sondern auch, ob die Leute alle zum gleichen politischen Spektrum gehören und wie vertrauenswürdig die sind. Storys, die nur von Rechten geteilt werden oder von Accounts kommen, die viel Unsinn posten, wären dann seltener zu sehen.

Was Eli Parisers Google-Doc-Schwarm in kurzer Zeit geleistet hat, ist enorm, er hat quasi ein wissenschaftliches Buch über Fact-Checking auf Facebook geschrieben. Die große Frage bleibt aber, ob Facebook Lust hat, über die Vorschläge auch nur nachzudenken. Schließlich ist Facebook vor allem eins: ein riesiges Unternehmen, das mit seinen teilgeilen Nutzern Geld verdienen will. Und Facebook-Chef Zuckerbergs Meinung zu dem Thema ist ja bekannt. Als er auf einer Konferenz kurz nach der US-Wahl gefragt wurde, ob er sich vorstellen kann, dass Facebooks Algorithmus etwas mit dem Wahlausgang zu tun haben könnte, meinte er: Das ist verrückt!

Illustration: Katharina Bourjau