So enttarnt man „Social Bots“

Schreibt der Roboter oder ein Mensch? Automatisierte Meinungsmache im Netz lässt sich mit etwas Mühe oft enttarnen.

Schreibt der Roboter oder ein Mensch? Automatisierte Meinungsmache im Netz lässt sich mit etwas Mühe oft enttarnen.

Berlin. Von Mensch zu Mensch - das war einmal: US-Forscher gehen davon aus, das allein bei Twitter bis zu 15 Prozent der Accounts automatisch von Computer-Software mit Tweets beschickt werden.

Weiterlesen nach der Anzeige
Weiterlesen nach der Anzeige

Diese „Bots“ von Menschen aus Fleisch und Blut zu unterscheiden, ist inzwischen überraschend schwierig: Wenn sie nicht ganz plump programmiert sind, sehen viele „Bot“-Profile auf den ersten Blick wie ganz normale Nutzer aus. Erkennungsprogramme versagen.

Was derzeit bleibt, sind der gesunde Menschenverstand und Indizien, die helfen können, „Bots“ bei Facebook, Twitter & Co zu enttarnen. Wir nennen sieben Aspekte, die Sie dabei beachten müssen.

Seriosität

Zunächst sollte man prüfen, wer dem angeblichen Account-Inhaber überhaupt folgt. Denn "Bot" und "Bot" gesellt sich gern. Hilfreich kann es auch sein, Profilbild und -beschreibung genauer unter die Lupe zu nehmen: Ein aus dem Netz kopiertes Foto ist ebenso verdächtig wie eine fehlende oder sinnlose Profilbeschreibung, informiert das von der Landesmedienanstalt Nordrhein-Westfalen mitgetragene Medienportal "Handysektor.de".

Weiterlesen nach der Anzeige
Weiterlesen nach der Anzeige

Inhalte

Indizien für einen „Bot“-Account können von Thema, Tenor oder Quellenverweis her immer ähnlich lautende Post sein. „Bots“ posten zudem oft sehr viele Inhalte, führen aber kaum Dialoge oder stören solche gezielt, etwa mit Beleidigungen oder Provokationen. Verdächtig sind auch seltsamer Satzbau oder wiederkehrende Grammatikfehler.

Likes und Follower

Verteilt ein Account massenhaft Likes, kann das „Handysektor.de“ zufolge ein weiteres Indiz für eine „Bot“-Tätigkeit sein. Umgekehrt ernten „Bot“-Posts oft kaum Likes oder Kommentare.

Aktivität

Mehrere Dutzend Posts am Tag - können die von einem einzigen Menschen stammen? Regelmäßig wird in diesem Zusammenhang die Zahl 50 genannt: Ab dieser Zahl Postings pro Tag soll man es wahrscheinlich mit einem „Bot“ zu tun haben. „Das ist natürlich eine beliebige Definition. Es gibt auch Menschen, die so oft posten“, sagt der Wirtschaftsinformatiker Christian Grimme von der Uni Münster. „Daran allein kann man es nicht festmachen.“ Auf der Suche nach Gewissheit könne man etwa auch schauen, ob der Account einen menschlichen Tag-Nacht-Zyklus verfolgt. „Aber selbst das reicht nicht aus.“

Weiterlesen nach der Anzeige
Weiterlesen nach der Anzeige

Reaktionszeit

"Bots" können rasend schnell reagieren, weil sie rund um die Uhr das jeweilige soziale Netzwerk nach den vom Programmierer vorgegeben Schlüsselwörtern oder Hashtags durchsuchen. Ganz plakativ zeigt das auf Twitter etwa der bekannte "Bot"-Account Pfannkuchenpolizei. Schreibt jemand in einem Beitrag das Wort "Berliner", meldet der "Bot" sich umgehend mit einem Hinweis, dass der Berliner in Berlin nun einmal Pfannkuchen heißt.

Weiterentwicklung

Es gibt aber längst "Bots", deren Entwickler versuchen, bekannte Erkennungsmerkmale zu vermeiden. Einige haben echte Profilbilder, setzen absichtlich nicht zu viele und nicht zu wenige Nachrichten ab, folgen nicht beliebig oder simulieren in ihren Posts sogar menschliche Tagesabläufe, Denkpausen oder Nachtruhe, um nicht aufzufallen. Automatisch lassen sich diese "Bots" oft nicht zuverlässig erkennen, sagt Christian Grimme, der das Projekt Propstop leitet, das Propaganda-Angriffe über Online-Medien untersucht.

Prüfseiten

Von "Social-Bot"-Prüfseiten à la Botometer (Indiana University) oder Debot (University of New Mexico), die per Mustererkennung arbeiten, hält Grimme nicht viel: Im Rahmen des Propstop-Projektes haben die Wissenschaftler "unauffällige" "Bots" gebaut und die Accounts zur Prüfung auf den Seiten angegeben. "Diese Verfahren haben auch bei unseren Bots weitgehend versagt", fasst Grimme die Ergebnisse zusammen.

Weiterlesen nach der Anzeige
Weiterlesen nach der Anzeige

Die Erkennungsraten hätten bei rund 50 Prozent gelegen. „Mit dieser Information kann ich natürlich nichts anfangen, ich muss mich dann doch hinsetzen und mir den Account selber angucken“, sagt der Informatiker. Einfach gestrickte „Bots“ identifizierten die Prüfseiten relativ leicht. Das schaffen Menschen meist aber auch.

„Bot“-Armeen

"Von der technischen Seite ist es wichtig zu bedenken, dass diese Bots im Prinzip beliebig skalierbar sind: Wer ein Programm hat, mit dem sich ein Bot steuern lässt, kann damit auch eine ganze Armee von Bots lenken", schreibt Simon Hegelich, Professor für Political Data Science an der TU München in einem Paper. Solche "Bot"-Heere sind im Netzwerk Twitter bereits entdeckt worden.

Eine hochwertige Software, mit der sich ein Verbund von bis zu 10.000 Twitter-Accounts steuern lässt, ist Hegelich zufolge für 500 US-Dollar (rund 425 Euro) zu haben. Fehlen nur noch Konten für die Bots. Aber auch die sind Hegelich zufolge käuflich: 1000 gefälschte Konten kosten zwischen 45 US-Dollar (38 Euro) für einfache Twitter-Accounts und 150 US-Dollar (128 Euro) für „gealterte“ Facebook-Accounts.

Weiterlesen nach der Anzeige
Weiterlesen nach der Anzeige

Von dpa/RND/zys

Mehr aus Digital

 
 
 
 
 
Anzeige
Empfohlener redaktioneller Inhalt

An dieser Stelle finden Sie einen externen Inhalt von Outbrain UK Ltd, der den Artikel ergänzt. Sie können ihn sich mit einem Klick anzeigen lassen.

 

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen übermittelt werden. Mehr dazu in unseren Datenschutzhinweisen.

Letzte Meldungen