Aktuell
Home | Nachrichten | Medien | Studie: Schon wenige Social Bots können Diskussionen beeinflussen
Je menschenähnlicher sie agieren, desto mehr Erfolg haben Bots.

Studie: Schon wenige Social Bots können Diskussionen beeinflussen

Social Bots können ein gefährliches Zünglein an der Waage sein. Denn wie eine Studie nun nahelegt, reichen schon wenige der automatisierte Meinungsmacher aus, um Diskussionen zu manipulieren.

Schon eine geringe Anzahl sogenannter Social Bots in einem sozialen Netzwerk kann genügen, um die Stimmung zu lenken. Zu diesem Ergebnis kommen Forscher der Universität Duisburg-Essen in einer Studie. Dafür haben die Wissenschaftler ein Netzwerk mit 1000 virtuellen Akteuren simuliert und angenommen, dass die Meinungen zu einem Thema zur einen Hälfte positiv und zur anderen negativ verteilt sind.

Ohne die Software-Roboter im Spiel gewann in der Hälfte der Fälle eine Seite die Oberhand. Aber bereits eine geringe Anzahl von zwei bis vier Prozent Bots genügte, um Nutzer in einer kontroversen Diskussion dazu zu bringen, mit ihrer Meinung hinter dem Berg zu halten, fanden die Forscher heraus. So steige die Wahrscheinlichkeit von 50 auf 66 Prozent, dass sich die von Social Bots unterstützte Meinung durchsetzt und das Stimmungsbild verfälscht.

Bots können eine Schweigespirale auslösen

Die Forscher schließen daraus, dass Bots in der Lage sind, das bekannte Phänomen der Schweigespirale auszulösen. Das bedeutet, dass Menschen sich weniger trauen, ihre Meinung zu vertreten, wenn sie sich damit in der Minderheit wähnen.

Lesen Sie hier: „Star Wars“ – der Kampf wird auch im Netz geführt

Mitentscheidend dafür, wie erfolgreich die Programmierer von Social Bots Einfluss nehmen können, seien drei Faktoren: die Anzahl der Verbindungen zwischen den Nutzern, die Platzierung der Bots zentral im oder am Rand des Netzwerks sowie die Qualität ihrer Programmierung. Je menschenähnlicher sie agieren, desto mehr Erfolg hätten die Bots. Allerdings seien sie noch nicht so vollkommen, dass man sie nicht enttarnen könnte.

Von RND/dpa