Wie funktioniert Youtube? - Der Effekt auf unsere Gesellschaft
Auf dieser letzten Unterseite übers Thema YouTube schauen wir an, wie YouTube und somit auch der YouTube Algorithmus unsere Gesellschaft beeinflusst. Das Thema ist viel komplexer, als dass wir hier auch nur annähernd alle Bereiche abdecken könnten. Falls dieser Teil euch interessiert, empfehlen wir euch in unseren Quellen die originalen Artikel zu lesen.
Definition: Filterblase
Ein wichtiger Begriff dieser Arbeit ist die Filterblase, welcher im 2011 veröffentlichten Buch The Filter Bubble: What the Internet is Hiding from You zum ersten Mal von Eli Pariser erfunden wurde. Grundsätzlich wird er so definiert: „ Eine Filterblase ist in diesem Sinne eine Selektion von Nachrichten, die den eigenen Perspektiven entsprechen, was insbesondere im politischen Bereich zu einer Verhärtung der eigenen politischen Position führen könnte”
( lmsaar.de, Tobias D. Kraft, Micheal Gamer, Katharina A. Zweig, 6.2018)
Extremisierung durch YouTube?
Lasst uns mit einem Beispiel beginnen. In der Studie „Die politischen Dimensionen des YouTube-Algorithmus“ von Louisa Heerde, Isabela Przywara und André Wieczorek wurde untersucht, ob der YouTube Algorithmus eine links- beziehungsweise rechtsextreme Filterblase schaffen kann. In der Studie werden drei Accounts erstellt: einer, der ein generell rechtsextremes Schema aufweist, ein weiterer linksextremer Account und ein neutraler Account, der als Kontrollgruppe dient. Eine Woche lang konsumieren die beiden extremen Kanäle Videos, die ihrer jeweiligen politischen Orientierung entsprechen und der neutrale Account klickt während der gesamten Woche auf keine Videos. Am Schluss werden polarisierende Begriffe wie „Flüchtlinge“ oder „Europa“ eingegeben. Grundsätzlich zeigt sich, dass für den rechtsextremen User sehr rechtsextreme Inhalte dargeboten werden, dem linksextremen Benutzer werden linke, jedoch etwas weniger extreme Videos vorgeschlagen und dem neutralen Benutzer werden Videos vorgeschlagen, die eine rechte Tendenz aufweisen. Auch wenn diese Studie keinesfalls repräsentativ ist, aufgrund der kleinen Accountzahl, ist es dennoch sehr eindrücklich, wie schnell der YouTube Algorithmus eine extremistische Filterblase schaffen kann.
Eine der grössten Gefahren ist die Intransparenz. Dies bedeutet, dass selbst Unternehmen nicht vollständig wissen, welche Inhalte nach welchen Kriterien ausselektiert werden. Obwohl Filterblasen statistische und beweisbare negative Einflüsse auf die politische Ausrichtung von Personen haben können, werden die derzeitigen Effektstärken in der wissenschaftlichen Gemeinschaft meist als eher gering bis moderat betrachtet. Zuiderveen Borgesius erklärte es so „zu dem gegenwärtigen Zeitpunkt die vorhandene empirische Evidenz keinen Anlass zu großer Sorge aufgrund von Filterblasen geben würde” 5 (Zuiderveen Borgesisus et al. ,2016, S. 10). Allerdings ist diese Studie in den USA durchgeführt worden, die bekanntermassen ein zwei Parteiensystem haben. Wie sich Filterblasen auf einen Staat mit vielen Parteien, wie zum Beispiel der Schweiz, wirken, ist noch nicht genügend erforscht, was es uns unmöglich macht ein Fazit zu ziehen.
( isdglobal.org, Johannes Baldauf, Julia Ebner und Jakob Guhlß, 2018)
Im Internet ist fast das gesamte Wissen der Menschheit enthalten. Kein Individuum kann diese Datenmenge nur ansatzweise verarbeiten. Hier setzen Filterblasen ein, diese sortieren Unmengen an Daten, um ein konkretes Informationsbedürfnis zu stillen oder die Daten zu finden, die einen Nutzer interessieren. Dementsprechend verhindern sie den „Information Overload“ ,der im Internet herrscht. Sie lassen uns also den Überblick bei bestimmten Themata behalten. Zudem möchten Menschen nach dem „Prinzip des geringen Aufwandes“ “ („Zipf's Principle of Least Effort”) nicht einen grossen Aufwand aufbringen, um ein bestmögliches Resultat zu erhalten. So sind Filterblasen eine gute und schnelle Methode, um uns zu gewünschten Informationen zu bringen. Friederike Glöß erklärt es in ihrer Masterarbeit so: „Ziel von Suchmaschinen ist es, Informationen der Welt zu organisieren und diese Inforationen den Nutzern leichter zugänglich zu machen. Mit Hilfe von eingesetzten Algorithmen wird dieses Ziel bekräftigt und zudem wird dem Nutzer und Informationskonsument auch noch qualitativ hochwertiger Inhalt angezeigt.”
Wir beenden nun unsere Erklärung von YouTube mit einem Zitat von Eli Pariser über seine Theorie der Filterblasen.
„They are prediction engines, constantly creating and refining a theory of who you are and what you’ll do and want next. Together, these engines create a unique universe of information for each of us - what I’ve come to call a Filter Bubble - which fundamentally alters the way we encounter ideas and information.“ (Eli Pariser, 2011, unbekannt)
Abb.1 (Tanja Messingschlager und Peter Holz, Datum unbekannt, Filter(blase?), mebis.bayern.de)
Abb.2 (Ruhr-Universität Bochum, 2020, Grosses Vertrauen in öffentlichrechtliche Angebote, iwd.de)
Abb.3 (Ruhr-Universität Bochum, 2020,Wie sich die Bundesbürger informieren, iwd.de)