Studie Wenige Bots können Stimmung manipulieren
Schon wenige Social Bots können Stimmungen in sozialen Medien deutlich beeinflussen. Zu diesem Ergebnis kommt eine Studie der Uni Duisburg-Essen, die auf einem Experiment basiert.
Einem virtuellen Experiment zufolge können wenige Social Bots ausreichen, um in einem Netzwerk die Stimmung zu lenken. Dies fand ein interdisziplinäres Team der Universität Duisburg-Essen (UDE) bei Forschungen zum Einfluss dieser Softwareroboter in sozialen Medien heraus. Die Ergebnisse wurden jetzt im "European Journal of Information Systems" veröffentlicht.
Social Bots sind Computerprogramme, die in sozialen Medien wie echte Nutzer agieren und automatisiert Botschaften verbreiten. Bots sollen Zustimmung oder Ablehnung simulieren und so Debatten und Stimmungsbilder manipulieren. Befürchtet wird auch, dass dadurch die politische Meinungsbildung in sozialen Netzwerken beeinflusst werden kann - beispielsweise vor Wahlen.
Experiment soll Einfluss zeigen
Projektleiter Björn Ross erklärte, für die Studie hätten die Forscher "ein Netzwerk mit 1000 virtuellen Akteuren simuliert und angenommen, dass die Meinungen zu einem Thema 50 zu 50, positiv und negativ, sind. In der Hälfte der Fälle gewinnt eine Seite die Oberhand - ohne dass Bots im Spiel sind."
Der Co-Autor German Neubaum verwies in diesem Zusammenhang auf Erkenntnisse zur sogenannten Schweigespirale. Aus der Forschung sei bekannt, "dass Menschen sich weniger trauen, ihre Meinung zu vertreten, wenn sie sich damit in der Minderheit wähnen". "Deswegen haben wir untersucht, wie Bots eine solche Spirale auslösen können." Dabei fand das Team heraus, dass bereits eine geringe Anzahl von zwei bis vier Prozent Bots erreichen könnten, dass Nutzer in einer kontroversen Diskussion lieber still sind. Dadurch steige die Wahrscheinlichkeit von 50 Prozent auf zwei Drittel, dass sich die von den Robotern unterstützte Meinung durchsetze. Es entstehe ein falscher Eindruck der Stimmungslage.
Bots noch zu erkennen
"Wie erfolgreich Bots Einfluss nehmen, hängt unter anderem von drei Faktoren ab", erläuterte Ross. "Wie viele Verbindungen gibt es zwischen den Nutzern eines Netzwerks? Wo werden die Bots in diesem platziert, zentral oder am Rand? Und vor allem, sind sie so gut programmiert, dass sie wie ein Mensch agieren?"
Noch seien Social Bots nicht so vollkommen, dass sie sich nicht erkennen ließen. Doch wahrscheinlich würden sie nach und nach optimiert - auch für wenig wünschenswerte Zwecke wie Täuschungen. Dann könnten sich Softwareroboter tatsächlich zu einer Gefahr für die Demokratie entwickeln.
Der Einfluss von Social Bots wird viel diskutiert. Ein zentrales Problem dabei ist das Erkennen von Bots. Einige Tools definieren einen Bot nach der Aktivität und gehen beispielsweise bei mehr als 50 Tweets täglich von einer automatisierten Steuerung aus. Doch diesen Wert erreichen auch manche menschliche Nutzer. Zudem gibt es auch Konten, die zwar automatisiert bestimmte Inhalte retweeten, aber nicht versuchen, menschenähnlich zu agieren.
Studie zum UN-Migrationspakt
Für Aufsehen sorgte im Dezember eine Untersuchung, wonach mehr als ein Viertel aller Tweets zum Migrationspakt von Social Bots abgesetzt wurden. Wichtig für die Verbreitung der Inhalte seien neben Twitter auch Plattformen wie YouTube. Die Analyse zeigte zudem, dass die mutmaßlichen Bots im Umfeld von AfD-Konten agierten: So erstellte Botswatch eine Grafik mit einer Netzwerkwolke. Daraus lasse sich erkennen, wie stark die Debatte von der AfD getrieben sei.
Social-Media-Experten wiesen allerdings darauf hin, dass nicht bekannt sei, welche Kriterien Botswatch für die Identifikation von automatisierten Konten benutzt. Erfahrungsgemäß sei es kompliziert, Bots zu erkennen, schrieb der Analyst Luca Hammer. Programme, die Social Bots erkennen sollen, lägen oft falsch. Vielmehr müsse man analysieren, wie einzelne Konten agierten, wie sie auf Anfragen reagieren und vieles mehr. Für eine sehr große Zahl von Accounts sei das kaum zu leisten.
Sorge vor der Europawahl
Eine große Rolle bei den Online-Diskussionen spielen Fake-Accounts und anonyme Netzwerke, die koordiniert agieren, um bestimmte Themen zu setzen, Diskussionen zu kapern und politische Gegner zu diskreditieren. Solche Netzwerke waren bei der US-Wahl 2016 zu beobachten und im Bundestagswahlkampf 2017 aktiv. Auch im Hinblick auf die Europawahl im Mai herrscht die Sorge, dass versucht wird, die Stimmung durch Desinformation und Fake News zu manipulieren.