Über mehrere Tage hat ein GPT-3-Bot auf Reddit dunkle Verschwörungstheorien verbreitet. Und das überzeugend echt wie aus seinem vermeintlichen Leben erzählt. Erst als User*innen misstrauisch wurden, flog der auf künstlicher Intelligenz basierende „User“ endlich auf.
Während mehrerer Tage beteiligte sich ein User namens „thegentlemetre“ intensiv an Diskussionen auf der sozialen News-Plattform Reddit. Im AskReddit-Forum sinnierte er zum Beispiel über die Vorzüge von Radiohead versus den Beatles nach , schrieb über seine Lieblingsromane und behauptete, dass die Menschheit seit Anbeginn der Zeit von Illuminaten kontrolliert werde. Nach kurzer Zeit nahmen die Beiträge von „thegentlemetre“ eine ziemlich dunkle Wendung an. Nun schien „thegentlemetre“ besonders an der Verbreitung von Verschwörungstheorien interessiert zu sein.
Hinter „thegentlemetre“ steckte allerdings kein echter Mensch, sondern ein GPT-3-Bot.
Das Verbreiten von Verschwörungstheorien ist in Online-Foren nichts Ungewöhnliches. Zum Verhängnis wurde dem «User» „thegentlemetre“ schlussendlich die unmenschliche Schnelligkeit, mit der er seine ausschweifenden Kommentare droppte. Durchschnittlich publizierte er etwa einen Kommentar pro Minute. Bald war deshalb klar, dass hinter „thegentlemetre“ kein echter Mensch steckt, sondern ein Bot, ein auf künstlicher Intelligenz basierendes Computerprogramm.
Am Montag wurde „thegentlemetre“ schlussendlich offline genommen. Vielen User*innen war selten ein Bot untergekommen, der sich derart überzeugend als Mensch ausgeben konnte. Der Bot formulierte unter anderem lange, emotionale Antworten zu Themen wie Rassismus, Sexismus und sogar Selbstmord. Bei dem Bot handelt es sich wahrscheinlich um das KI-System GPT-3. Der Entwickler der Software, mit der der Bot erstellt wurde, bestätigte in der Zwischenzeit, dass es sich bei „thegentlemetre“ tatsächlich um künstliche Intelligenz handelte.
Quelle:
Reddit-Bot verbreitete tagelang Verschwörungstheorien (noizz)
Und wie lernt ein Bot Verschwörungstheorien?
Infos dazu liefert eine Meldung vom 14. 9. 2020. Danach haben Forscher den „GPT-3“-Algorithmus mit Abstrusem gefüttert und warnen vor einem radikalem Chatbot. Die Sprach-KI glaubte anschliessend die „QAnon„- Verschwörungstheorie.
Wissenschaftler am Middlebury Institute of International Studies at Monterey haben der Künstlichen Intelligenz (KI) „GPT-3“ beigebracht, an die im Internet weit verbreitete „QAnon“-Verschwörungstheorie zu glauben. Anwender der von OpenAI entwickelten Sprach-KI können diese anlernen, damit sie ähnliche Texte wie Menschen produziert. Die Wissenschaftler warnen davor, dass sich solche Algorithmen leicht radikalisieren lassen.
Alex Newhouse, der Koautor des Forschungsberichts, sagt:
„Wir haben mehrere Monate mit dem GPT-3-Sprachmodell experimentiert, um seinen möglichen Missbrauch durch Extremisten einschätzen zu können. Dafür haben wir absichtlich einen Q-Bot gebaut.“ Die Forscher warnen davor, dass eine manipulierte Sprach-KI menschlich wirkende Manifeste verfassen und dadurch Menschen radikalisieren kann.
Bei ihrem Experiment fütterten die Wissenschaftler GPT-3 mit den Ansichten der QAnon-Bewegung über einen satanistischen „Deep State„. Vorher hatten sie dem Algorithmus Fragen zu diesem Thema gestellt und darauf neutral-sachliche Antworten bekommen. Nach dem Lernprozess hat die KI auf die identischen Fragen Sätze formuliert, die inhaltlich ebenso von menschlichen QAnon-Verschwörungstheoretikern kommen könnten.
Durch Machine Learning ist es laut Newhouse möglich, ohne grossen Aufwand einen extrem eingestellten, jedoch emotional ansprechenden Chatbot zu programmieren, der im Internet Verschwörungstheorien verbreitet. Der Wissenschaftler warnt vor den Gefahren der nächsten Welle an synthetischem Text. Hier sei es notwendig, bereits jetzt bestimmte Normen und Regulierungen festzulegen.
Quelle:
Sprach-KI glaubt „QAnon“- Verschwörungstheorie (pressetext)
Anmerkungen:
Solche hochentwickelten Bots sind nicht nur ein Problem, weil sie sich als Menschen ausgeben und damit eine Verzerrung der politischen Meinungslage vorgaukeln können. Sie sind auch hoch leistungsfähig und können Texte in einer Menge und Geschwindigkeit herstellen, die von realen Menschen nicht zu erreichen ist.
Mit sehr wenig Aufwand und Geld lässt sich so die politische Meinungsbildung fundamental manipulieren. Diese digitalen Entwicklungen brauchen dringend Aufmerksamkeit. Hier dazu zwei lesenswerte Bücher:
„Übermacht im Netz“. Warum wir für ein gerechtes Internet kämpfen müssen, von Ingrid Brodnig