TikTok drängt die Nutzerinnen und Nutzer sehr schnell in ein bestimmte Ecke – und zu sehr spezifischen Inhalten.
Wer die TikTok-App nutzt, bleibt oft stundenlang bei diversen Kurzvideo-Clips hängen. Dafür ist der Algorithmus verantwortlich, der die Videos für einen auswählt und einen Clip nach dem nächsten abspielt.
Eine Untersuchung des „Wall Street Journal“ zeigt nun, wie TikTok die Videos, die einem angezeigt werden, aussucht.
In einer aufwendigen Datenrecherche mit 100 fiktiven Bot-Accounts hat das Magazin aufgezeigt, nach welchen Kriterien der Algorithmus entscheidet, welche Videos Nutzerinnen und Nutzer zu sehen bekommen, damit sie nicht mehr abdrehen.
Der TikTok-Algorithmus merkt sich offenbar binnen weniger Videos genau, wer wann wie lange welche Videos anschaut.
Was für den TikTok-Algorithmus zählt
Dabei ist es weniger entscheidend, aus welchem Land jemand kommt, sondern vielmehr, was für Hashtags zu den Videos gesetzt worden sind. Bereits nach einer relativ kurzen Zeitspanne von zwei Stunden kann der Algorithmus den Nutzerinnen und Nutzern perfekt aufs Interessensprofil zugeschnittene Videos anzeigen.
Die Untersuchung des Wall Street Journal hat gezeigt, dass die Zahl der Likes und Shares der einzelnen Videos dabei offensichtlich eine untergeordnete Rolle spielt. Viel entscheidender ist, ob jemand ein Video auch zu Ende angesehen hat. Ziel der TikTok-Plattform ist es jedenfalls, die Nutzerinnen und Nutzer dazu zu bringen, möglichst lange auf der Plattform zu bleiben.
Hinein in die Filterbubble
Der TikTok-Algorithmus spielt den Nutzerinnen und Nutzern deshalb hauptsächlich personalisierte Inhalte aus, die zum Teil nicht mehr im Mainstream, sondern auch in Nischen und an Rändern zu verorten sind. An diesem Punkt nun besteht gemäss dem Algorithmus-Forscher Jonathan Stray auch die größte Gefahr: Wer TikTok nutzt, wird sofort in eine bestimmte Bubble gezogen. Je mehr Videos eine Person aus einem bestimmten Bereich anschaut, desto mehr bekommt sie aus diesem Bereich angezeigt. Bei niedlichen Katzen- und Tiervideos mag das harmlos sein, bei extremistischen Inhalten oder Verschwörungstheorien ist es aber fatal.
Laut Jonathan Stray gerät man durch die „inhaltliche Verengung“ immer weiter in den Sog hinein, wodurch politische Radikalisierung gefördert werden kann. Der TikTok-Algorithmus ist nicht der einzige und erste, der so funktioniert und diese Gefahr mit sich birgt. Auch Facebook und YouTube sind schon dafür kritisiert worden, diese Tendenzen zu verstärken.
TikTok hat das Ganze jedoch zur Perfektion getrieben und ist deshalb noch gefährlicher.
Heikel ist zudem, dass TikTok insbesondere von Kids und Jugendlichen genutzt wird, die ihre Interessen noch viel öfter als Erwachsene ändern. Der Algorithmus kommt so kaum mit der Entwicklung der Kids und Teenager mit, was sogar die Weiterentwicklung der Interessen behindern könnte.
Quelle:
Netzpolitik: Warum der TikTok-Algorithmus gefährlich ist (futurezone)
Siehe auch:
YouTube als Propagandakanal für Verschwörungstheorien
Facebook & Co.: Ausgleich und Mäßigung stören das Geschäft
Facebook fördert Verschwörungstheorien