Bundestag-Studie sieht Gefährdungspotenzial durch Social Bots
Datum: 10. Februar 2017
Autor: Erwin König
Kategorien: Studien

In dem kürzlich zu Ende gegangenen US-Wahlkampf, der bekanntlich mit dem Sieg des sehr aktiven Twitter-Nutzers Donald Trump endete, waren Social Bots auf beiden politischen Seiten, d.h. Republikaner und Demokraten, ein wichtiges Hilfsmittel, um ihre jeweiligen Botschaften unters Volk zu bringen. Auch bei der sogenannten Brexit-Abstimmung soll der Einsatz dieser Meinungs-Roboter für den Wahlausgang entscheidend gewesen sein. Im Vorfeld der diesjährigen Bundestagswahl hat das Büro für Technikfolgenabschätzung beim Bundestag untersucht, inwieweit dieser Einfluss über sozialen Medien den Wahlkampf eventuell beeinflussen kann. Laut dieser Untersuchung stellen diese Meinungs-Bots eine gewisse und nicht zu unterschätzende Gefahr für Wahlmanipulationen dar.

Mit den vorliegenden, ersten Untersuchungsergebnissen sollen Antworten auf folgende Fragen gegeben werden:

  • Welche Wirksamkeit haben Social Bots bereits heute und wie kann dieser Einfluss nachgewiesen werden?

  • Für welche (weiteren) Zwecke können Social Bots noch eingesetzt werden?

  • Welche Abwehrmöglichkeiten gibt es gegen Social Bots, d.h. wie kann man diese Meinungsmanipulationen erkennen und verhindern?

Das aktuell vorliegende Thesenpapier zu Social Bots wurde auf der Grundlage von Interviews mit 25 Fachleuten sowie einer Analyse der bestehenden Literatur zu diesem Thema erstellt. Folgende Aussagen und Thesen werden darin u.a. gemacht:

  • Social Bots können charakterisiert werden als mit Menschen kommunizierende Computerprogramme die versuchen, eine menschliche Identität vorzugaukeln, mit denen bestimmte Meinungen verbreitet bzw. bestehende manipuliert werden sollen.

  • Technisch gesehen entsprechen sie anderen Bot-Arten, wie digitale Assistenten oder Chat-Bots. Der einzige Unterschied besteht in der mit dem Einsatz dieser Programme gewollten Zielsetzung, d.h. eben der Meinungsmache.

  • Social Bots gehören einer Reihe von ähnlichen – bezogen auf die Zielsetzungen –Online-Akteuren an wie Spam-Mails, Foren-Trolle und andere menschliche Online-User, deren jeweiliges Handeln immer ausschließlich auf die Beeinflussung bestehender Meinungen mit Desinformationen abzielt.

  • In der Presse und Fachliteratur finden sich konkret aber nur sehr wenige nachgewiesene Fälle, wo es zu einer spürbaren Einflussnahme solcher Bots bzw. Bot-Netze gekommen ist. Besonders der Kurznachrichtendienst Twitter scheint in erster Linie zu diesem Zweck missbraucht zu werden. Bei Facebook gibt es schon deutlich weniger solcher Fälle, die identifiziert werden konnten.

  • Meinungsroboter werden zurzeit besonders zur Diskreditierung oder für Beleidigungen von Personen eingesetzt. Mehrheitlich wird aber versucht, die inhaltliche Auseinandersetzung bei bestimmten Themen zu verzerren, indem ausgesuchte Themen, Personen oder Produkte übermäßig erhöht werden.

  • Bots können nach heutigen Erkenntnissen nur Einfluss auf Wahlen nehmen, wenn solche anstehenden Entscheidungen oder Abstimmungen zwischen den Befürwortern und Gegnern stimmenmäßig auf des Messers Schneide stehen. Bei solch einer knappen Ausgangslage können Social Bots durchaus den entscheidenden Unterschied ausmachen, allerdings können die Bots diese Ausgangslage nicht selber entstehen lassen.

  • Das größere Gefahrenpotenzial für demokratische Gesellschaften geht von Social Bots aber wahrscheinlich eher durch eine schleichende Vergiftung unserer Streit- und Diskussionskultur aus. Auffällig sind heute die bei politischen Themen vermehrt zu beobachtenden unversöhnlichen Positionen, die eigentlich jegliche Diskussionen verunmöglichen. Social Bots, bzw. genauer deren Hintermänner, versuchen hier gezielt durch die Verbreitung von Des- und Falschinformationen dieses Klima herzustellen.

  • Über die Urheberschaft von Social Bots lässt sich nur in sehr wenigen Fällen etwas konkret aussagen, d.h. die Aufdeckung oder Rückverfolgung der Ersteller und Auftraggeber bleibt überwiegend im Dunklen.

  • Social Bots sind aber nicht nur geeignet, bei politischen und gesellschaftlichen Debatten Zwietracht und Misstrauen zu fördern, sondern können gezielt auch für die Beeinflussung von Konsumenten oder für den Börsenhandel eingesetzt werden. In den letzten Monaten und Jahren finden sich z.B. vermehrt falsche Twittermeldungen, die das Ziel haben, die Aktienkurse von Unternehmen in die gewünschte Richtung zu lenken.

  • Social Bots gefährden weiterhin die IT-Sicherheit. Nicht der Programmcode enthält Schadsoftware, sondern z.B. die in den Meldungen enthaltenen Links, die durch menschliche Unachtsamkeit angeklickt und dann erst Viren, Trojanern und anderer Schadsoftware Tür und Tor öffnen.

  • Social Bots sind natürlich für die sozialen Netzwerke selbst eine Bedrohung. Nimmt die Verbreitung von Falschmeldungen weiter zu, bzw. allgemein die Verbreitung von immer mehr nicht-menschlicher Beiträge, dürfte dies auf Dauer das Vertrauen der User in die sozialen Medien unterlaufen. Wenn die Nutzer diese Plattformen nur mehr als automatisierte Informationsmüllschleudern wahrnehmen, hat dies direkte Auswirkungen auf die Geschäftsmodelle dieser Unternehmen, d.h. deren Einnahmen.

  • Bisher sind nur wenige dieser Bot-Netze entdeckt worden. Ob die technischen Möglichkeiten bei der Enttarnung der Social Bots wirklich der schnellen Weiterentwicklung der Bots hinterherhinkt, wie es in diesem Bericht behauptet wird, darf man aus guten Gründen hinterfragen. Die bisher aufgedeckten Fälle von Bot-Netzwerken zeigen eigentlich, dass dies nicht so komplex ist. Einfache Datenanalyse-Methoden würden hier schon ausreichend sein. Da aber in der Regel nur die Betreiber dieser sozialen Netzwerke vollständigen Zugang zu den Protokolldaten haben, müssten sie selber in der Pflicht stehen, diesen Missbrauch aufzudecken. Zudem müssen soziale Netzwerke wesentlich mehr gegen die Erstellung von Fake-Accounts tun. Nur durch diese falschen Konten ist es überhaupt möglich, dass so große Bot-Netze entstehen können.

  • Mit der Problematik der Social Bots wird nach Meinung der Studienverfasser eine ethische Diskussion rund um Algorithmen ausgelöst werden. Möglicherweise wird dies zu einem zweiten Internet führen das sicherer aber auch kostenpflichtig ist. Das Eintreten dieser Prognose scheint aus heutiger Sicht eher unwahrscheinlich zu sein. Denn die Gratismentalität im Netz ist immer noch weit verbreitet. Genauso wie sich die User in den letzten zwei Jahrzehnten mit dem immer größeren Werbeangebot im Internet arrangiert haben, dürfte dies auch mit den Falschmeldungen und nicht-menschlicher Kommunikation passieren. Ein an das frühere BTX-System erinnernde, kostenpflichtige Netzwerksystem würde zudem wieder viele Menschen von diesem zweiten Internet ausschließen. Politisch dürfte dies kaum durchsetzbar sein.

Klar werden viele der üblichen Gegner der Mainstream-Politik sich gegen diese Ergebnisse wehren. Allerdings zeigt schon solch eine Reaktion, dass sie keinerlei Interesse an einer wirklichen Auseinandersetzung mit der Meinung Andersdenkender besitzen. Wieso meinen diese Vertreter, dass die absichtliche Manipulation von Meinungen mittels Falschmeldungen und Desinformationen ein demokratisches Grundrecht sei? Die Antwort ist mehr als offensichtlich: weil sie eben kein Interesse an der Meinungsfreiheit und -vielfalt einer Demokratie haben. Und um das gleichfalls festzuhalten, Social Bots sind nicht allein ein politisches Problem, sondern werden auch in der Wirtschaft und anderen gesellschaftlichen Bereichen in wachsendem Maße eingesetzt um Meinungen zu beeinflussen. Somit sind Meinungsroboter in erster Linie ein soziales Problem oder anders ausgedrückt die große Achillesferse der sozialen Medien-Plattformen. Wenn soziale Medien wie Facebook und Twitter nicht komplett zu Abfall- und Informationsmüllhalden verkommen wollen, braucht es etwas mehr als medienwirksame, aber oberflächliche und ineffiziente Bekämpfungen von Fake-News. Ein grundlegendes Problem bei den meisten sozialen Medien ist ihr Streben nach immer mehr Accounts, um in jedem Quartalsbericht den Aktionären ein expandierendes Unternehmen zu präsentieren. Dafür wird offensichtlich in Kauf genommen, dass sich darunter eine nicht unerhebliche Anzahl von Fake-Accounts befindet. Diesen falschen Usern wird durch die Plattform-Betreiber viel zu wenig Aufmerksamkeit gewidmet. Laut einer Untersuchung durch das Sicherheitsunternehmen Proofpoint aus dem Jahr 2014 soll es sich bei ca. 40 % aller Facebook- und 20 % aller Twitter-Konten um Fake-Accounts handeln.

Ergänzend zu diesem Bericht sei erwähnt, dass zwei britische Forscher kürzlich ein bisher unbekanntes, riesiges Twitter-Botnetz aufgespürt haben. Zu diesem Netz gehören mehr als 350.000 Bots. Auch diese Studie liefert Hinweise, dass solche Bot-Netze oftmals genauso leicht zu entdecken sind wie sie aufgebaut werden können, wenn sich die Betreiber dieser Plattform die Möglichkeiten (und nicht nur zur Steigerung ihrer Werbeeinnahmen) der Datenanalyse zu Nutze machen würden. Für ihre Arbeit haben die Wissenschaftler ca. 1 % der englischen Twitter-User untersucht. Dabei haben sie beobachtet, dass es eine ungewöhnliche Verteilung bei der Ortsangabe der Tweets von einigen Usern gibt. Mehr als 3.000 dieser Nutzer haben als Absendeort ihrer Tweets "auf hoher See" oder "unbewohnte Gebiete" angegeben. Weiterhin haben alle diese Twitter-"Nutzer" maximal 11 Tweets abgesetzt und 10 Follower gehabt. Versendet wurden alle diese Tweets nur von Mobiltelefonen auf Basis des Windows Betriebssystems. Viele der Textnachrichten enthielten zudem Begriffe oder Auszüge aus den Star Wars-Romanen. Aus diesen Kennzeichen konnte dann ein Botnetz von mehr als 350.000 identifiziert und abgeleitet werden. Seit kurzer Zeit fordern einige hiesige Politiker ein staatliches Verbot solcher Bot-Netze. Ob damit das Problem beseitigt oder eingegrenzt werden kann ist aber zweifelhaft. Gilt übrigens ebenso für die Forderung nach einer Art "Wahrheitsministerium" wegen Fake-News. Eigentlich sollten eher die Betreiber dieser sozialen Medien – und hier besonders Twitter – ein eigenes Interesse zeigen, Bot-Netze zu finden und zu eliminieren.

Fast völlig vergessen gegangen ist im Rahmen der Fake News- und Meinungsroboter-Diskussionen die Rolle der Suchmaschinen, oder sagen wir einfach von Google. Wieso schafft es Google bis heute nicht, offensichtlich unseriöse Seiten aus dem Index zu schmeißen? Reichen die von Google genutzte künstliche Intelligenz und selbstlernende Algorithmen noch nicht einmal für solche simple Filterungen? Immer wieder finden sich kriminelle, mit Schadsoftware versehene oder Falschinformation verbreitende Seiten hoch in den Trefferlisten, selbst bei ganz unspezifischen Anfragen. Deutsche, unseriöse Seiten sind u.a. schon formal sehr einfach zu erkennen, dass sie im Impressum meistens keine reale Adresse und Personenangaben enthalten. Die Antwort dürfte ebenfalls simpel sein: Google will Geld mit diesen oft besuchten und angeklickten Seiten verdienen. Mit Google Adsense betreibt Google eines der größten Werbenetzwerke im Internet. Diese eingeblendeten Anzeigen bringen viel Bares in die Kassen des führenden Suchmaschinenbetreibers. Und wer hier gleich wieder von Zensur spricht: Das hat nichts mit Zensur zu tun, sondern hier geht es um Sicherheit und den Kampf gegen absichtliche Falschinformationen. Gerade unseriöse Seiten schludern, bzw. verheimlichen nur gerne ihre Urheberschaft, um eben Falschmeldungen oder Betrug ("Online-Shops") zu begehen.

Abschließend zu diesem Thema sei auf einen neuen Fachartikel hingewiesen, der die potenziellen Gefahren von sozialen Netzwerken für unsere Gesellschaft hervorhebt, allerdings einmal von einem völlig anderen Blickwinkel aus. Unzählige Internet-Experten, und natürlich Herr Zuckerberg selbst, preisen seit Jahren unaufhörlich die Vereinfachung beim Austausch von Informationen und Kommunikation durch die sozialen Medien. Wissenschaftler der Universität Maribor in Slowenien sehen dies völlig anders. Laut ihrer Analyse führen Facebook und Co. vielmehr zu einer Art Inseldenken und zu einer intellektuellen Isolierung der Menschen. Allerdings wird in dieser Untersuchung nicht den Algorithmen, sprich der sogenannten Filterblase, die Schuld gegeben, sondern unserem eigenen Kommunikationsverhalten. Wir neigen nur allzu gerne dazu alles auszublenden was nicht unserer eigenen Meinung und Vorstellung entspricht. Der Aufbau der sozialen Netzwerke fördert genau dieses Verhalten. Ein weiterer Effekt von sozialen Netzwerken ist die ausgesprochene Gruppenbildung, wo andere Meinungen nicht geduldet werden, d.h. der bekannte und gefürchtete Gruppendruck.

Die sich teilweise widersprechenden Resultate aus den hier vorgestellten Studien und Beiträgen verdeutlichen, wie gering unser Verständnis von den Kommunikationsprozessen mittels sozialer Medien ist. Trotzdem gibt es in der aktuellen Diskussion viele Experten, die schon genau wissen wollen, wie groß oder wie gering – je nach Position des Verfassers – der Einfluss der Meinungs-Bots ist, obwohl das Phänomen der Bot-Netze relativ neu ist. Möglicherweise sind diese Bots viele harmloser als dies manche Politiker heute befürchten, aber das wird sich erst in den nächsten Jahren zeigen. Hysterie, Aktionismus oder komplette Verharmlosung sind im Zusammenhang mit Themen wie Falschnachrichten, Social Bots oder Filterblasen sicher keine zielführenden Verhaltensweisen.

Quellen:
Del Vicario, Michela et al.: "The spreading of misinformation online"; in: Proceedings of the National Academy of Sciences of the United States of America (PNAS), 2016, Vol. 113, No. 3, 554-559, doi: 10.1073/pnas.1517441113, online abrufbar unter http://www.pnas.org/content/113/3/554.full
Echeverría, Juan; Zhou, Shi: "The 'Star Wars' botnet with >350k Twitter bots"; Januar 2017, online abrufbar unter https://arxiv.org/abs/1701.02405

Kind, Sonja et al.; Büro für Büro für Technikfolgen-Abschätzung beim Deutschen Bundestag (Hrsg.); VDI/VDE-IT (Hrsg.): "Social Bots. Thesenpapier zum öffentlichen Fachgespräch »Social Bots – Diskussion und Validierung von Zwischenergebnissen« am 26. Januar 2017 im Deutschen Bundestag"; Januar 2017, online abrufbar unter http://www.bundestag.de/blob/488564/4a87d2d5b867b0464ef457831fb8e642/thesenpapier-data.pdf

Schlagwörter: Bot-Netze, Desinformation, Meinungsroboter, Social-Bots, soziale Medien, Wahlmanipulationen

Mehr zum Thema:

Gen Z und Millennials lieben digitale Medien UND Bibliotheken

Die Generation Z und Millennials, die für ihre tiefgreifende Verbindung zur digitalen Welt bekannt sind, zeigen überraschenderweise auch eine starke Affinität zu physischen Bibliotheken, wie neue Studien der American Library Association zeigen – die Ergebnisse sind...

Auskunfts- und Informationsdienste in Bibliotheken

Die Studie Reference service in libraries like mine: A comparison of current reference service in libraries serving medium, small, and very small institutions von Julie E. Sweeney (Ryan Library, Point Loma Nazarene University, USA)1 zielt darauf ab, die Lücke in der...

Die transparente Dokumentation von Cultural Heritage Datasets

Angesichts der Probleme in Bezug auf Datenqualität und unzureichende Dokumentation von Datensätzen hat die Machine Learning Community begonnen, standardisierte Verfahren zur Erstellung von Datenblättern für maschinelles Lernen zu entwickeln. Das Hauptziel besteht...