Twitter bald von Bots unterwandert?
Datum: 12. März 2012
Autor: Wolf Galetzki
Kategorien: Kurz notiert

Einen Einblick auf mögliche zukünftige Entwicklungen im Internet, und im speziellen in sozialen Medien, zeigt ein aktuelles Forschungspapier von US-amerikanischen Wissenschaftlern auf. Ausgangspunkt bildet ein vom Web Ecology Project – eine interdisziplinäre Internet-Forschungsgruppe – lancierter Wettbewerb, bei dem es darum ging, die meisten Follower um sich zu scharren. Wichtigstes Ergebnis dieses ursprünglichen Experiments war, dass es mittels automatisch von Bots erstellter Twitter-Accounts möglich war eine sehr große Gefolgschaft an Followern zu erhalten. Diese ersten Forschungsarbeiten wurden nun in ein eigens gegründetes Unternehmen ausgegliedert und weiterentwickelt. Das nun veröffentlichte erste Untersuchungspapier wirft einige weitreichende Resultate und Fragen auf. Die konkrete Versuchsanordnung besteht aus zwei Phasen. In der ersten Phase wurden zuerst insgesamt 2.700 Twitter-Accounts über die Dauer von 54 Tagen beobachtet. Nach 34 Tagen wurde die gesamte Untersuchungsstichprobe in kleinere Einheiten von je 300 Usern zergliedert. Jeder dieser Unterstichproben wurde anschließend ein automatisches Twitter-Programm, ein Socialbot, zugeteilt, womit gesamthaft 9 Bots zum Einsatz gekommen sind.

Es haben sich u.a. folgende wichtige Aussagen ergeben:

  • Die 9 Socialbots haben in ihrer jeweiligen Einsatzgruppe praktisch identische Ergebnisse hervorgerufen, was auch nicht überraschend ist, da alle Bots mit den gleichen Einstellungen programmiert wurden. Im Durchschnitt postete jeder dieser Bots 36 Tweets und folgte 19 Nutzern am Tag.
  • Am Ende des 21-tätigen Untersuchungszeitraums der zweiten Experimentierphase kam jeder dieser nichtmenschlichen Twitter-User durchschnittlich selbst auf 62 Follower. Außerdem erhielt jeder dieser Bots im Mittel 33 Tweets durch Retweets und Nennungen.
  • Die Tätigkeit der Socialbot hat gleichzeitig auch eine verstärkte Aktivität bei den menschlichen Usern ausgelöst. So nahmen die Follower in der 2. Phase (mit Bots) gegenüber der 1. Studienphase (ohne maschinelle Tweets) im Durchschnitt um 43% zu.

Man mag gerade das letzte Ergebnis als positiv sehen, da sich die Kommunikation unter den menschlichen Twitter-Nutzern durch die Socialbots ausgeweitet hat. Welche Qualität diese Kommunikation hat, steht aber auf einem anderen Blatt. Schwerwiegender ist aber, dass es mit den Bots möglich ist, das Verhalten der Menschen zu verändern. Geschickt eingesetzt könnten diese Bots durch bestimmte Interessengruppen, die auf eine hohe Anzahl von Follower angewiesen sind, das Twitter-Netzwerk missbrauchen.

Dies ist eine besorgniserregende Entwicklung, deren Folgen kaum abzusehen sind. Wenn Bots, d.h. Maschinen, im Web nicht von Menschen mehr zu unterscheiden sind, dann fragt man sich schon für was diese Kommunikationskanäle noch gut sein sollen? Der eigentliche Grund, d.h. die Kommunikation zwischen Menschen zu ermöglichen und Nachrichten auszutauschen, wird damit ad absurdum geführt. Wenn man das Ganze noch etwas weiter spinnt, können diese Bots für alle möglichen Kampagnen - etwa für Werbung, Nutzerzahlen für Homepages oder Klickraten für Werbebanner - eingesetzt werden, um vermeintliche menschliche User auf Webseiten, sozialen Netzwerken oder Diskussionsforen vorzutäuschen. Diese Manipulationen dürften nur schwer zu entdecken sein und würden sich folglich kaum verhindern lassen. Solche Bots würden zudem vermutlich mit steigendem Erfolg eine Unmenge an Webtraffic erzeugen. Ein Großteil des Datenverkehrs im Internet wird bereits heute durch Nicht-Menschen, nämlich den Crawlern und Suchbots der Suchmaschinen verursacht. So soll Google laut einer Untersuchung aus dem September 2010 bereits für mehr als 6% des weltweiten Internetverkehrs allein verantwortlich sein (http://ddos.arbornetworks.com/2010/10/google-breaks-traffic-record/).

In einer anderen aktuellen Untersuchung zu dem Kurznachrichtendienst Twitter wurde zudem festgestellt, dass lediglich etwas mehr als ein Drittel (36%) aller Tweets, die User empfangen, als lesenswert eingestuft werden. 39% der Tweets werden als „geht-so“ und 25% werden mit dem Prädikat „nicht lesenswert“ beurteilt. Forscher der Carnegie Mellon University, MIT und Georgia Tech haben über die Website „Who gives a Tweet?“ (http://needle.csail.mit.edu/wgat/) Daten von Twitter-Nutzern gesammelt und ausgewertet. Basierend auf dieser Analyse geben sie u.a. folgende Empfehlungen für lesenswerte und informative Tweets:

  • Alte Nachrichten sind keine guten Nachrichten, d.h. nicht immer und immer wieder die gleichen Meldungen verbreiten. So langweilt man schnell andere User.
  • Eine eigene Meinung zu einer Geschichte beitragen, also nicht nur eine Nachricht kopieren, sondern sie etwa mit Kommentaren oder Zahlen ergänzen.
  • Sich kurz fassen, da Twitter-Leser es prägnant mögen. Zudem lässt man so Platz für Kommentare in Re-Tweets.
  • Zu kurz sollte es dann aber auch nicht sein. Deswegen entsprechende Hinweise auf den Inhalt/Kontext geben, damit die Leser wissen, worum es bei einem Link oder Foto konkret geht. Dies ist übrigens eine weit verbreitete Unart auch in Diskussionsforen, wo man auf eine Frage oftmals nur einen Link erhält, der dann auf eine Seite mit 1.000 Einträgen führt, nur nicht auf die Antwort, die man sucht.
  • Nicht zu viele der Twitter-spezifischen Syntax wie Hashtags oder speziellen Abkürzungen verwenden, da diese so schwer verständlich bzw. lesbar sind.
  • Und jammern kommt übrigens bei der Twitter-Gemeinde auch nicht gut an. Also lieber öfter mal etwas Positives tweeten.

Für Privatpersonen sowie auch für Unternehmen ist diese noch nicht abgeschlossene Studienreihe sicher sehr hilfreich. Zur Informationskompetenz gehört nämlich nicht nur zu wissen, wie und wo man Informationen findet und bewertet, sondern auch das Wissen, wie man selbst wertvolle Informationen produziert.

Mehr zum Thema:

Clarivate führt abonnementbasierten Zugang für Bibliotheken ein

Clarivate hat eine neue abonnementbasierte Strategie für den Zugang zu akademischen Inhalten eingeführt und schafft damit den einmaligen Kauf von digitalen Sammlungen, gedruckten und digitalen Büchern für Bibliotheken ab. Das Unternehmen verfolgt laut eigener Aussage...

Neue EU-Leitlinien zur Definition von KI-Systemen

Die Europäische Kommission hat am 6. Februar 2025 neue Leitlinien zur Definition von Künstlicher Intelligenz (KI) veröffentlicht. Diese sollen die Anwendung der ersten Vorschriften des KI-Gesetzes (Verordnung (EU) 2024/1689) erleichtern und eine einheitliche Auslegung...

KI-Halluzinationen: Keine Chance auf Besserung, oder etwa doch?

Große Sprachmodelle (LLMs) wie ChatGPT haben die Art der Mensch-KI-Interaktion revolutioniert. Sie bieten beeindruckende sprachliche Fähigkeiten, erzeugen jedoch oft sogenannte Halluzinationen – erfundene oder verzerrte Informationen, die sich als Fakten präsentieren....

Wissenschaft für alle: Diamond Open Access als Öffentliches Gut

Der Zugang zu wissenschaftlichem Wissen bleibt eine der größten Herausforderungen für mehr Gerechtigkeit in Bildung, Forschung und globaler Entwicklung. Diamond Open Access, ein Modell, das wissenschaftliche Veröffentlichungen für Autor:innen und Leser:innen kostenlos...

Audiostreaming in Deutschland: ein Trend, der Generationen verbindet

Audiostreaming ist aus dem Alltag vieler Menschen nicht mehr wegzudenken. Ob Musik, Podcasts oder Hörbücher – 82 Prozent der Deutschen ab 16 Jahren nutzen diese Angebote mittlerweile regelmäßig. Eine repräsentative Umfrage von Bitkom Research zeigt, wie stark...