Eine Studie belegt, dass sich die QAnon-Verschwörungsideologie unter anderem dank Facebook in diesem Jahr weltweit verbreiten konnte. Facebook hat viel zu spät reagiert.
Alarmierend ist insbesondere, dass im Sommer mehr Nutzer Verschwörungsmythen teilten als Beiträge etablierter Medien.
In der Coronakrise hat die QAnon-Verschwörungsideologie an Popularität gewonnen. Ein bisher Unbekannter namens „Q“ postet seit Herbst 2017 auf sogenannten Imageboards seine „QDrops“ mit vermeintlich brisanten Informationen, die angeblich direkt aus dem Weißen Haus stammen.
Anhänger von „Q“ glauben, dass ein „Deep State“ existiere, ein geheimer Staat im Staate, der gegen Donald Trump intrigiert.
Sie glauben ausserdem, dass eine Elite aus Politikern, Prominenten und jüdischen Unternehmern die Welt beherrsche und in unterirdischen Tunneln und Höhlen Kinder foltere, um aus ihrem Blut ein angebliches Verjüngungsmittel namens Adrenochrom zu gewinnen. Das ist nicht nur ausgesprochen absurd. Es ist auch eine erneuerte Version der uralten antisemitischen Ritualmordlegende.
Zwar sind solche Verschwörungstheorien kein neues Phänomen. Doch Millionen Internetnutzer zu erreichen ist bisher nur dem anonymen „Q“ gelungen.
Inzwischen ist die QAnon-Bewegung aber auch im öffentlichen Raum sichtbar. Bei Demonstrationen von Corona-Leugnern tauchen ihre Codes und Logos auf, teilweise auch begleitet von neurechten Provokateuren.
Dass QAnon sich so stark verbreiten konnte, schreiben Fachleute auch dem größten sozialen Netzwerk Facebook zu. Der US-Konzern begann zwar im Oktober, Seiten und Gruppen mit QAnon-Bezug zu löschen. Dies geschah jedoch nach drei Jahren allzu zögerlich. Denn in der Zwischenzeit konnten sich Profile von Privatpersonen etablieren, die weiter existieren und bis heute unverblümt Falschinformationen verbreiten.
Zu diesem Resultat kommt eine gemeinsame Studie des britischen Institute for Strategic Dialogue (ISD) und des US-amerikanischen News-Start-ups NewsGuard.
Die Wissenschaftler haben für ihre Analyse „The Boom Before the Ban: QAnon and Facebook“ 200.000 Beiträge auf der Facebook-Plattform analysiert. Die Auswertung ergab, dass drei der zehn aktivsten QAnon-Communitys deutschsprachige Facebook-Gruppe waren.
Corona-Pandemie begünstigt QAnon
Die Studie hat auch gezeigt, dass die Abrufe von QAnon-Inhalten auf der Plattform seit Ausbruch der Corona-Pandemie sprunghaft angestiegen sind. Und diese Beiträge wurden rege geteilt.
Qanon-Anhänger bewegen sich viel im Netz. Das hängt auch damit zusammen, dass eines der Mantras von «Q» lautet: „Recherchiere selbst“. Und weil seine vermeintlichen Prophezeiungen meist ziemlich unverständlich sind, ist das eine endlose Aufgabe. Sie zu entschlüsseln generiert Daten für Facebook und zieht die Nutzer weiter hinein in die Erzählung über die große Weltverschwörung.
Gemeinsam haben diese Art Verschwörungserzählungen stets, dass eine kleine Gruppe im Geheimen gegen die Menschheit agitiert. Das liefert einfache Erklärungsmuster in einer immer komplexer werdenden Welt, insbesondere in Zeiten einer Pandemie: Gut gegen Böse, Arm gegen Reich, Trump gegen Biden – solche verallgemeinernden Polarisierungen ziehen immer.
Weit verbreitet war laut den Auswertungen der Wissenschaftler zum Beispiel die Falschbehauptung, dass der ehemalige US-Präsident Barack Obama seinen Nachfolger mithilfe hoher Regierungsbeamter ausspioniere. Häufig wurden auch Falschinformationen zur Corona-Pandemie abgerufen.
Donald Trump selbst hat offensichtlich nichts einzuwenden gegen die Bewunderung der QAnon-Anhänger. Bewunderung braucht er wie Wasser zum Leben. Als er sich auf Nachfrage eines Journalisten im Weißen Haus erstmals zu der QAnon-Bewegung äußerte, sagte er, er wisse nicht viel darüber, „außer dass ich gehört habe, dass sie mich sehr mögen, was ich zu schätzen weiß.“ Das nahm die „Q“-Community zum Anlass, noch eifriger QAnon-Inhalte zu verbreiten.
Der Algorithmus von Facebook fördert QAnon-Beiträge
Zwischen Juni und September 2020 interagierten mehr Social-Media-Nutzer mit QAnon-Inhalten als mit Artikel etablierter Medien, wie zum Beispiel den Nachrichtenseiten des „Wall Street Journal“ oder des britischen „Guardian“.
Der Facebook-Algorithmus selbst wirkt kräftig dabei mit, dass sich falsche oder radikale Erzählungen so schnell verbreiten. Bereits im Jahr 2016 hatte der Konzern herausgefunden, dass sich „64 Prozent aller Beitritte in extremistische Gruppen“ auf die eigenen Empfehlungstools zurückführen ließen.
Dabei ist es nicht mehr so entscheidend, wie lange Nutzer vor den Beiträgen verweilen, sondern ob sie damit interagieren. Denn wer interagiert, das heisst teilt, kommentiert oder likt, produziert Daten und verrät dadurch etwas über seine Vorlieben. Und diese Daten wiederum sind wichtig für die Werbekunden des Netzwerkes.
Quelle:
Wie Facebook den QAnon-Hype erst möglich machte (Welt)
Anmerkungen:
Dass die Algorithmen der sogenannten sozialen Medien Extremismus und Verschwörungstheorien begünstigen ist skandalös.
Emotionale Posts, die Wut, Ärger und Abscheu auslösen, werden von Nutzerinnen und Nutzern stärker gelikt und geteilt als sachliche, differenzierte Beiträge. Und dann kommt der Facebook-Algorithmus und entscheidet, dass Posts, die oft gelikt und geteilt werden, offenbar wichtig sind für die Community und die Nutzerinnen und Nutzer länger an die Plattform binden, wodurch man ihnen mehr Werbung einblenden kann. Und darum werden solche Posts, welche die gesellschaftliche und politische Polarisierung fördern, von Facebook mehr gezeigt als die sachlichen, differenzierten Posts. Hier geht etwas fundamental schief und wenn Facebook und andere asoziale Medien nicht willens sind, das zu ändern, braucht es staatliche Regulierung. Es kann nicht sein, dass von diesen Plattformen rein als kommerziellen Interessen Extremismus gefördert wird,