Machen die Algorithmen der sozialen Medien die Nutzer radikaler?
Eine neue Studie aus den USA kratzt an der bisher verbreiteten Kaninchenbau-Theorie, nach der sich Youtube-Nutzer wegen des zugrunde liegenden Algorithmus immer neue radikale Videos ansehen. Doch ganz so eindeutig scheinen die Ergebnisse nicht zu sein.

Bislang ging die vorherrschende Theorie so: Wer auf der Video-Plattform Youtube unterwegs ist und für Verschwörungstheorien empfänglich ist, läuft Gefahr, in eine Art Strudel zu geraten. Wenige Videos mit fragwürdigen Inhalten reichen aus, anschließend schlägt der Algorithmus immer mehr Videos zu diesen Themen vor.
Bezeichnet wird das als Rabbit-Hole-Theorie: Unbedarfte Nutzer geraten in einen Kaninchenbau, verlieren sich darin und radikalisieren sich zunehmend, indem sie immer extremere Videos schauen und von den Algorithmen nur noch solche Inhalte vorgeschlagen bekommen.
Problematische Inhalte werden von wenigen Nutzern geschaut
Eine neue Studie aus den USA kratzt nun an dieser Theorie. Sie wurde zu Beginn der Corona-Pandemie durchgeführt, von Juli bis Dezember 2020. Die Forscher befragten Nutzer, dokumentierten aber auch deren tatsächliches Sehverhalten. Das Ergebnis: Extremistische Kanäle und solche mit alternativen Ansichten zum Weltgeschehen wurden nur von sehr wenigen Teilnehmern geschaut.
Als alternativ bezeichnen die Forscher Kanäle, auf denen von einer vermeintlichen "Mainstream-Meinung" abweichende Standpunkte und Verschwörungstheorien veröffentlicht werden. Zu extremistischen Inhalten zählen die Autoren Kanäle neu-rechter und rechtsextremer Bewegungen sowie der White Supremacists - eine rassistische Ideologie, deren Anhänger die weiße Hautfarbe für überlegen halten.
Weiße Männer mit Hang zum Sexismus anfälliger für extremistische Videos
Mit den problematischen Inhalten kamen 91 Prozent der Nutzer jedoch nie in Kontakt. Rund 15,4 Prozent sahen ein Video eines alternativen Kanals, 6,1 Prozent sahen ein Video eines extremistischen Kanals. Wer die Kanäle abonniert hatte, schaute länger zu, bis zu eine Stunde wöchentlich. Männer mit Hang zum Sexismus waren dabei anfälliger als gebildete und nicht-weiße Personen.
Laut den Studienautoren kamen die Zuschauer alternativer Videos von gewöhnlichen sozialen Netzwerken, während das Publikum extremistischer Inhalte sich aus alternativen sozialen Netzwerken speiste. Video-Empfehlungen von Youtube spielten dagegen eine untergeordnete Rolle: Wer sich zuvor nicht mit extremistischen Inhalten befasst hatte, bekam solche Videos auch nicht empfohlen.
Youtube bleibt das ideale Ökosystem für fragwürdige Inhalte
Am Mittwoch wurde die Studie im Journal Science Advances veröffentlicht. Das Science Media Center hat mehrere Kommunikationsforscher um Stellungnahme gebeten. "Die Studie ist ein weiterer Sargnagel für die These, dass uns die Algorithmen der sozialen Medien immer radikaler machen", findet Fabian Prochazka, Juniorprofessor an der Universität Erfurt. "Nicht die Algorithmen ziehen Menschen zu extremen Inhalten im Netz, sondern extremistisch eingestellte Menschen suchen sich selbst solche Inhalte."
Youtube sei dafür das ideale Ökosystem. Prochazka warnt jedoch davor, mit immer mehr Regulierung gegensteuern zu wollen. "Youtube und andere Plattformen werden auf absehbare Zeit weiterhin zentrale Austragungsorte öffentlicher Diskurse sein."
Der Algorithmus funktioniert nicht überall gleich
Weniger zufrieden gestellt ist Sabrina Kessler, Senior Researcherin am Institut für Kommunikationswissenschaft der Universität Zürich. Es sei nur in den USA und nur mit Menschen getestet worden, die ihr Verhalten aufzeichnen lassen wollten. Deshalb sei fraglich, ob sich die Ergebnisse verallgemeinern lassen. "Es kann sein, dass der Empfehlungsalgorithmus zu anderen Zeiten, bei spezifischen Themen, in anderen Ländern und Sprachen unterschiedlich programmiert ist."
Außerdem sieht Kessler die Kaninchenbau-Theorie durchaus bestätigt, eben für die für Verschwörungstheorien empfänglichen Nutzer. "Personen, die bereits einen alternativen oder extremistischen Kanal abonniert haben, erhalten auch eher Vorschläge für ähnliche Videos." Youtube müsse gegen solche Inhalte vorgehen, damit die Urheber nicht von Werbeeinnahmen und Spenden profitieren.