# taz.de -- Automatisierte Profile in Online-Netzwerken: Ein Twitterbot zum Verlieben
       
       > Profile auf Twitter und Facebook werden oft von Programmen kontrolliert.
       > Sie werden selten erkannt und können Beziehungen zwischen Menschen
       > verändern.
       
 (IMG) Bild: Zwitschert da wirklich ein Mensch?
       
       BERLIN taz | Es ist nicht mehr einfach im Netz zwischen Mensch und Maschine
       zu unterscheiden. Ist der oder die Unbekannte gegenüber, mit dem oder man
       seit Wochen flirtet, ein Mensch oder nur ein Flirtprogramm? Ist die
       attraktive Frau, die mit einem befreundet sein will, echt? Oder nur ein
       Roboter, der Daten abfischen will?
       
       Profile auf sozialen Netzwerken werden häufig von Programmen, genannt
       Socialbots, kontrolliert. Manche erledigen offensichtlich automatisierte
       Aufgaben, wie etwa Twitter nach Schlagworten zu durchsuchen und die
       gefundenen Meldungen wiederzugeben. Doch viele andere sind kaum noch von
       Menschen unterscheidbar.
       
       Zwei neue Studien haben nachgewiesen, dass es erstaunlich leicht ist, Bots
       in Onlinenetzwerke einzuschleusen und dass sie überraschende Auswirkungen
       auf die menschlichen Nutzer haben können.
       
       [1][Im ersten Fall] erforschten Wissenschaftler der kanadischen University
       of British Columbia das Netzwerk Facebook, indem sie Programme schrieben,
       die gefälschte Konten auf Facebook führten. Mit Erfolg: Ein Fünftel der
       Freundschaftseinladungen der Botkonten auf Facebook wurde angenommen. Sie
       erhielten so innerhalb einer Woche Zugriff auf Tausende werberelevante
       Datenpunkte – Alter, Adressen und Telefonnummern. Auch das Abwehrsystem
       Facebooks versagte: Von 102 Botkonten wurden nur 20 gesperrt.
       
       [2][In der zweiten Studie] nahmen sich Tim Hwang und seinen Kollegen vom
       Forschungsprojekt Web Ecology das Netzwerk Twitter vor. Drei Teams
       versuchten mit selbst geschriebenen Programmen die Verbindungen zwischen
       2.700 Nutzern auf Twitter zu beeinflussen. In den Erfolgsindex gingen alle
       Verbindungen ein, die die Twitterbots mit den Menschen im Netzwerk aufbauen
       konnten sowie alle namentlichen Nennungen des Programms durch die
       menschlichen Nutzer.
       
       Auch hier hatten die Forscher Erfolg: Im Schnitt folgten den Programmen im
       Schnitt 62 Nutzer und sie wurden 33 mal erwähnt. Doch auch das Netzwerk
       hatte sich verändert: Durch den Einfluss der Bots waren auch die
       Verbindungen zwischen den Menschen angestiegen.
       
       ## Für 25 Euro zu kaufen
       
       „Unsere ersten Ergebnisse deuten darauf hin, dass solche Bots soziale
       Gruppen stark beeinflussen können“, sagt Tim Hwang. Mit Schwärmen dieser
       Programme könnten viel größere Effekte erzielt werden, ganze
       Onlinenetzwerke könnten beispielsweise aufgebaut und zu einem bestimmten
       Zeitpunkt für eine Werbekampagne genutzt werden.
       
       Andererseits können sie auch eingesetzt werden, um missliebige Netzwerke zu
       bekämpfen: „Programme, die Gruppen zusammenbringen, können Gruppen auch
       sprengen.“ Aufstände, die über soziale Netzwerke organisiert werden,
       könnten durch einen Schwarm von Socialbots effektiv bekämpft werden.
       
       Doch schon die Experimente, das Sozialverhalten von Nutzern ohne das Wissen
       der Betroffenen zu steuern, sind höchst umstritten. „Man kommt da in
       ethisch fragwürdige Gebiete“, gibt Hwang zu. Doch Bots würden schon jetzt
       im Netz eingesetzt und seien für fragwürdige Zwecke für rund 25 Euro zu
       kaufen. “Je mehr wir über Bots wissen, desto besser können wir Menschen
       helfen, sie zu erkennen und dagegen zu verteidigen.“ Sein Team
       veröffentliche deshalb alle Informationen über die Experimente
       nachträglich, inklusive des Quelltexts der eingesetzten Roboter.
       
       Die Ergebnisse der Studien offenbaren eine der größten Schwächen von
       Online-Netzwerken: die Nutzer selbst. „Wir haben festgestellt, dass sobald
       ein Twitterbot als Mensch akzeptiert wurde, diese Einschätzung nur selten
       in Frage gestellt wird“, so Tim Hwang. Das Problem ist in Diensten wie
       Twitter schon angelegt: Durch die Kürze der Nachrichten verschwimme, ob auf
       der anderen Seite Intelligenz oder Algorithmen stecke.
       
       Und die Programmierer werden gewiefter: Um ihre Programme besser zu tarnen,
       schrieben Hwang und Kollegen ein Programm, das regelmäßig Menschen vorwarf,
       Twitterbots zu sein. Die entrüsteten Antworten werden aufgezeichnet und von
       anderen Twitterbots eingesetzt.
       
       Hwangs Twitterbots sind gut, sehr gut. So gut, dass sie heikle Situationen
       herbeiführen können. Beispielsweise als sich ein Twitter-Nutzer in einen
       „weiblichen“ Twitterbot verliebte. Als der Nutzer immer mehr flirtete,
       schalteten Hwang und Kollegen das Programm ab.
       
       5 Mar 2012
       
       ## LINKS
       
 (DIR) [1] http://www.lersse-dl.ece.ubc.ca/record/264/files/ACSAC_2011.pdf
 (DIR) [2] http://www.pacsocial.com/files/pacsocial_field_test_report_2011-11-15.pdf
       
       ## AUTOREN
       
 (DIR) Lalon Sander
       
       ## ARTIKEL ZUM THEMA