Thema – Internet

Suchen Newsletter ABO Mediathek

Er zeigt’s dir

Wie entscheidet YouTube, welches Video du als nächstes zu sehen bekommst? Einblicke in einen umstrittenen und geheimen Algorithmus

Foto: Hahn&Hartung

Im Februar 2018 erschießt ein 19-Jähriger in seiner ehemaligen Schule in Parkland, Florida, 17 Menschen. In den Tagen darauf fordern Überlebende in Interviews schärfere Waffengesetze. Unter ihnen ist auch David Hogg. Der damals 17-Jährige wird zu einem der Gesichter der Jugendbewegung, täglich ist er im Fernsehen zu sehen. Hogg diskutiert mit konservativen TV-Moderator*innen und der Waffenlobby. Seine scharfe Kritik an den Waffengesetzen bringt ihm viele Sympathien.

Auf YouTube bekommt man zur gleichen Zeit ein ganz anderes Bild des jungen Aktivisten. Suchte man in jenen Tagen auf der Videoplattform nach David Hogg, stieß man auf ein reißerisches Video. Hogg sei ein Krisenschauspieler, der für seine TV-Interviews „gecoacht“ werde. Ein Vorwurf, der sich schnell als eine Verschwörungstheorie herausstellt. Trotzdem trägt YouTube noch zur Verbreitung des Videos bei: Wer ein Video über Parkland schaute, bekam das Video oft automatisch empfohlen. Nach kurzer Zeit stand es auf Platz eins der Trends. Die falsche Anschuldigung verbreitete sich rasant. So geriet Hogg noch mehr ins Visier: Unbekannte bedrohten ihn und seine Familie mit dem Tod. 

„Eines der mächtigsten Instrumente zur Radikalisierung im 21. Jahrhundert“

Es ist nicht der erste Fall, bei dem YouTube für seine Empfehlungen kritisiert wird. Die Plattform ist seit längerem dem Vorwurf ausgesetzt, ihre Nutzer*innen in einen Strudel aus politisch radikalen oder emotional erschütternden Videos zu ziehen. YouTube sei „vielleicht eines der mächtigsten Instrumente zur Radikalisierung im 21. Jahrhundert“, schreibt die Soziologin Zeynep Tufekçi. Im Fokus der Kritik steht der YouTube-Algorithmus.

Infografik: Was macht Youtube mit meinen Daten?
 

Vereinfacht gesagt handelt es sich bei einem Algorithmus um eine Anleitung, die Schritt für Schritt ausgeführt wird, um eine Aufgabe oder ein Problem zu lösen. Bei YouTube entscheidet der Algorithmus wesentlich über das, was wir sehen sollen: Er durchforstet neue Videos nach interessanten Inhalten, ordnet Suchergebnisse und empfiehlt uns Videos. „Letztendlich sind YouTubes Such- und Empfehlungsalgorithmen Desinformationsmaschinen“, kritisiert Tufekçi. Stimmt das? Verstärkt der YouTube-Algorithmus wirklich Hetze und Verschwörungstheorien

Das lässt sich gar nicht so einfach beantworten. Denn Google, der Mutterkonzern von YouTube, legt seine Algorithmen generell nicht offen. So bleiben die Kriterien unbekannt, nach denen der Algorithmus Videos bewertet. Warum YouTube ein Video aus der Masse herauspickt, soll geheim bleiben. 

eis.jpg

Foto: Hahn&Hartung

Immer schön dranbleiben: Kaum etwas wird so oft geklickt wie Videos, die Wut und Angst verbreiten …

iphone.jpg

Foto: Hahn&Hartung

… dass Verschwörungstheorien von diesem Auswahlverfahren profitieren, werfen Kritiker dem Konzern vor

Wissenschaftler*innen und Journalist*innen versuchen, Licht in den Algorithmus zu bringen. Seit 2016 untersucht Guillaume Chaslot, ein ehemaliger Google-Mitarbeiter, die Empfehlungen von YouTube. Der IT-Experte hat ein Programm geschrieben, das das Verhalten eines normalen Nutzers simuliert. Sein Programm startet mit einem Video, verfolgt die Kette an Empfehlungen und speichert die Ergebnisse. Das Ergebnis nach Tausenden Durchläufen: YouTube empfiehlt verstärkt Videos, die spaltend, sensationell und verschwörerisch sind. 

 Für YouTube ist nur wichtig, dass die Nutzer*innen weitergucken

Die britische Zeitung „The Guardian“ hat Chaslots Studie für die Suchbegriffe „Clinton“ und „Trump“ für den Zeitraum vor der US-Wahl 2016 überprüft. Die Journalisten bestätigten seine Ergebnisse und fanden eine „überraschende Menge von verschwörerischen Inhalten und Fake News gegen Clinton“. Zudem habe YouTube sechs Mal häufiger Pro-Trump-Videos als die seiner Gegnerin empfohlen. Eine Recherche des „Wall Street Journal“ kam zu einem ähnlichen Ergebnis. YouTube wies die Erkenntnisse zurück; die Methoden der Studien seien nicht korrekt gewesen. 

Warum soll YouTube gerade diese Videos befördert haben? Es gibt keine Hinweise darauf, dass YouTube seine Algorithmen absichtlich zum Vorteil Trumps programmiert hat. Viel eher spielt das Geschäftsmodell von YouTube eine Rolle.

So lässt du dir von YouTube keine Verschwörungsvideos aufquatschen

1) Check, wer hinter dem Video steckt. Handelt es sich um einen seriösen Account, der z.B. seine Quellen darlegt?

2) Vertrau nicht einfach dem Algorithmus. YouTube empfiehlt oft Videos, die noch mehr Öl ins Feuer gießen.


3) Lass dir nichts einreden. Vergleiche die Informationen mit anderen Webseiten.

4) Je länger du guckst, desto mehr Werbung verkauft YouTube. Also tut der Konzern alles, um dich am Bildschirm zu halten. Entscheide bewusst, ob du dranbleiben oder einfach mal abschalten möchtest.

5) Lauf nicht hinterher. Nur weil ein Video viel geklickt wird, ist es nicht wahr. Überleg kurz, warum ein Video so beliebt ist.

YouTube verdient Geld über die Werbung, die es vor und während der Videos abspielt sowie auf der Webseite anzeigt. Google verkaufe unsere Aufmerksamkeit an Firmen, die dafür bezahlen, erklärt Tufekçi. „Je länger Menschen auf YouTube bleiben, desto mehr Geld macht Google.“ Deswegen habe YouTube seinen Algorithmus auf das Engagement eines Videos ausgerichtet. Der Algorithmus verstärkt jene Videos, die Menschen dazu animieren, immer weiterzuschauen, Kommentare zu schreiben oder Likes zu setzen. Hauptsache, die Nutzer*innen bleiben auf der Webseite. 

Heute sperrt YouTube öfter Kanäle, die hetzen

Diese Kriterien scheinen laut dem Algorithmus vor allem sensationelle und verschwörerische Videos zu erfüllen. Wohl kaum etwas wird so oft geklickt wie Videos, die Wut und Angst verbreiten. Klick für Klick liefern sie Sündenböcke und bestätigen Vorurteile. Hinzu kommt: Die Konsumenten von solchen Videos verbringen sehr viel Zeit auf YouTube. Also lernt der Algorithmus von ihnen und empfiehlt den restlichen Nutzer*innen ähnliche Videos. Was sie schauen, muss besonders interessant sein. 

Wann Algorithmen transparent sein sollten – und wann nicht

Von all diesen Problemen weiß YouTube schon lange. Das berichteten ehemalige Mitarbeiter, wie etwa der IT-Experte Chaslot. Er wirft der Firma vor, die toxischen Inhalte bewusst in Kauf genommen zu haben, um die Nutzer länger auf der Seite zu halten. YouTube weist diese Anschuldigungen zurück. Die Algorithmen würden ständig weiterentwickelt und an die neuesten Erkenntnisse angepasst. Häufiger als früher sperrt YouTube Kanäle, die aufhetzende oder verschwörerische Videos hochladen. Seit neuestem soll der Algorithmus auch die Qualität der Videos erfassen, unterstützt durch menschliche Moderator*innen. Kürzlich wurde ein weiteres Update angekündigt: Zuschauer*innen, die Verschwörungstheorien gesehen haben, werden vermehrt Videos von glaubwürdigen Medien vorgeschlagen. 

Ob YouTube damit künftig solche Ereignisse verhindert, wie sie Parkland-Schüler Hogg erleben musste, ist fraglich. Denn das Ziel des Algorithmus ist unverändert: die Nutzer*innen möglichst lange auf der Plattform halten und so die Werbeeinnahmen steigern. 

Fotos: Hahn & Hartung

Dieser Text wurde veröffentlicht unter der Lizenz CC-BY-NC-ND-4.0-DE. Die Fotos dürfen nicht verwendet werden.