„Jeder bekommt den Feed, den man verdient.“ Das hört man oft, wenn man sich beschwert, dass der eigene Feed auf den diversen Social Media Plattformen voll mit Fake News und rechten Geschwurbel ist. Man soll seinen Feed und den dahinter stehenden Algorithmus trainieren, sodass er Dinge, die man abstoßend findet oder die konträr zu eigenen Meinung sind, nicht mehr auftauchen. Tatsächlich kann man das versuchen, aber eine Garantie bekommt man nicht, dass nervige Lügen aus der Timeline verschwinden.
Ganz wichtig: Den Podcast koennt ihr hier direkt oben im Browser, aber auch auf diversen Plattformen wie u.a.
Apple - Spotify - Google - Amazon oder als RSS-Feed
anhören und abonnieren. Gerade Apple & Spotify-Abrufe helfen dem Format, denn dort gibt es entsprechende Rankings!
Wenn ihr dann dort noch Techlounge bewerten könntet, ja vielleicht gar einen Feedback-Kommentar hinterlassen würdet… das hilft unserem Format sehr. Danke!
Dahinter steckt auch die Strategie der Betreiber der Plattformen. Denn erfahrungsgemäß reagieren Nutzer auf Posting, die ihren Blutdruck in Wallung bringen, mit höheren Engagementraten. Also mit mehr Kommentaren, Likes oder Reposts. Und genau darauf zielt das Geschäftsmodell der Betreiber ab. Es gibt drei wichtigen Faktoren für sie, wenn es um die Interaktion mit den Nutzern geht.
Monthly Active User. Also wie oft ein User die Plattform nutzt
Retention Time - Wie viel Zeit ein Nutzer auf der Plattform verbringt
Engagementrate - Wie oft jemand mit dem Content interagiert oder selbst welchen erstellt.
Der Algorithmus des Feeds ist genau darauf ausgerichtet und er kann mit einer gewissen Sicherheit vorhersagen, ob und wie man auf Postings reagiert. Am Ende steht natürlich das Ziel, dass die Daten den Anzeigekunden beweisen, dass ein möglichst hoher Preis pro Anzeige gerechtfertigt ist.
Das Problem an der Sache: Dem Algorithmus ist es egal, wer den Inhalt erstellt hat. Ob das ein Mensch oder ein Bot war, spielt keine Rolle.
Genau das machen sich Betreibern von Bot-Farmen zur Nutze. Sie fluten die Plattformen mit Inhalten, die Kunden bestellen. Manche politischen Akteure sollen auch eigene Bot-Farmen angelegt haben, mit denen sie Kampagnen steuern.
So kommt es dann, dass insbesondere die vom Verfassungsschutz als faschistisch eingestufte Partei AfD auffällig aktiv innerhalb der sozialen Netzwerke ist. Postings, die die politischen Inhalte der Partei verbreiten, kann man in allen Netzwerken finden. Gleichzeitig fluten Bots die Kommentarspalten von angesehenen, der AfD aber kritisch zugewandten Journalist/innen wie Nicole Diekmann oder Jan Böhmermann. Ein Blick auf die Accountnamen verrät schon, dass es sich um Bots handelt. „GHneRk5034“ um mal ein Beispiel zu nennen.
Die Frage ist aber auch: „Warum sehen wir so einen Dreck überhaupt?“ Warum reicht es nicht, dass ich einen chronologischen Feed der von mir abonnierten Kanäle bekomme? Die Antwort lautet: weil die Plattforminhaber daran nichts oder nur wenig verdienen.
Betreiber der Plattformen profitieren enorm von den Bot-Farmen. Denn die Bots schaffen die Aufmerksamkeit, sie erhöhen die Engagementraten und damit verdient man mehr durch die angezeigte Werbung. Es gibt also überhaupt keinen Grund, etwas dagegen zu unternehmen, solange die Bots Inhalte zeigen, die nicht gegen ein Gesetz verstoßen.
Die Plattformen machen es zu einfach. Sie stehen auf dem Standpunkt „Wir sind nur technischer Dienstleister“, welche Auswirkungen die Postings auf ihrer Plattform haben, interessiert sie nur dann, wenn sie gesetzlich gezwungen sind etwas zu unternehmen.
Doch diese Sichtweise greift zu kurz und ist schlichtweg unverantwortlich. Warum das so ist und welche Lösungen Plattformen anbieten müssen, erfahrt ihr in unserem Podcast.
Links zum Thema
Teuer ist das Ganze schon einmal nicht. 500 US-Dollar kostet eine Software, mit der sich 10.000 Twitter-Accounts steuern lassen. Accounts, die dann Tweets verfassen, andere retweeten, Nutzern folgen oder bestimmte Hashtags verwenden. #alternativefacts zum Beispiel. Ganz automatisch. Und immer im Sinne des Auftraggebers.
Die EU-Kommission hat eine Studie mit dem Titel "Gesetz über digitale Dienste: Anwendung des Risikomanagementrahmens auf russische Desinformationskampagnen" vorgestellt. Demnach hat Russland auf den großen Social-Media-Plattformen seine Desinformationskampagnen mithilfe kremlfreundlicher Konten zwischen Januar und Mai 2023 ausgebaut. Über alle Social-Media-Plattformen hinweg soll das durchschnittliche Engagement dabei um 22 Prozent angestiegen sein.
Eine gute Nachricht vorweg: Viele Userinnen und User wissen, dass man auf Social Media keine Falschinformationen teilen oder liken sollte. Viele von ihnen tun es aber trotzdem, weil sie Falschnachrichten nicht erkennen. Das ist ein Ergebnis einer repräsentativen Studie, die die Stiftung Neue Verantwortung veröffentlicht hat. Im Herbst 2020 sollten sich dafür 4.191 Userinnen und User ab 18 Jahren Posts von Instagram, Facebook und Youtube anschauen und einschätzen, für wie glaubwürdig sie sie halten.
Es ist nicht immer leicht, einen Bot zu erkennen. Die Zeiten, in denen Bots aus dem englischen schlecht übersetzte Posting auf Deutsch weiter verbreitet haben, sind lange vorbei. Doch es gibt ein paar Dinge, auf die man achten kann, wenn man sich nicht sicher ist, ob man es mit einem echten Menschen oder einem Bot zu tun hat.
Diesen Post teilen