Aufmacherbild: (C) Pixabay
„Hässlich, ich bin so hässlich, so grässlich hässlich! Ich bin der Hass!“ Was vor mehr als 30 Jahren ein eingängiger Songtext war, das spielt sich heute vielerorts im Internet ab. In sozialen Medien, Foren und Kommentaren – vor allem wenn es um soziale, ökonomische oder politische Themen geht. Was viele Nutzer nicht ahnen: Hassparolen, Hetze und Meinungsmache kommen nicht immer von realen Menschen, sondern möglicherweise von Software, den sogenannten Social Media Bots. Forscher suchen nach Wegen, sie zu entlarven.
Social Bots kreieren über Fake-Accounts ein Kartenhaus an Botschaften, das mitunter gefährlich stabil werden kann. Verunglimpfungen, Gerüchte, Beschimpfungen und sogar Morddrohungen – in der gefühlten Anonymität des Netzes wagen so manche Nutzer einen Rundumschlag und fühlen sich bestätigt durch andere, die vermeintlich in die gleiche Kerbe schlagen. So eine Stimmung kann durch Social Bots allerdings auch künstlich angefacht und aufgestachelt werden, und wird es häufig auch. Forscher haben nachgewiesen, wie einfach man über solche Techniken große Mengen von Nutzern erreichen kann. Sie beschäftigen sich aber auch damit, wie man Bots erkennen und sich vor ihnen schützen kann.
CSI für Schadsoftware
Auf der Spur von Fake-Accounts in sozialen Netzwerken, die nicht von Menschen, sondern von einer Software gesteuert werden, sind etwa Dr. Simon Hegelich vom Forschungskolleg der Universität in Siegen und seine Kollegen im Team „Social Media Forensics“ (SoMeFo). Das Projekt wird im Rahmen der Innovations- und Technikanalyse (ITA) vom Bundesministerium für Bildung und Forschung (BMBF) gefördert.
Die Gefahren, die von Social Bots ausgehen, sieht Dr. Hegelich etwa in der politischen Meinungsmache und der Beeinflussung von Trends. Laut Schätzungen stecken hinter 10 Prozent der Facebook-User in Wahrheit Social Bots, bei Twitter werden die Tweets auf 5 bis 20 Prozent der Accounts durch böswillige Software generiert. Und 10 Prozent bedeuten in beiden Fällen Millionen und Abermillionen von „künstlichen“ Nutzern. Eine nicht zu unterschätzende Macht. Um nun solche falschen Profile zu erkennen, verwenden die Forscher Algorithmen, die unter anderem das Profilbild und das Zeitprofil der Posts miteinbeziehen.
Im folgenden Video des Forschungskollegs erklärt Dr. Simon Hegelich, wie autonome Bots Entscheidungen treffen, anderen Accounts folgen und sogar Texte erstellen können. Auch die Gefahr der „Orchestrated Public Opinion“ wird angesprochen –also die Vorgehensweise, gezielt die öffentliche Meinung zu manipulieren.
Interview mit Dr. Simon Hegelich
Einige Fragen hat uns Dr. Hegelich direkt beantwortet:
Intelligente Welt: Herr Dr. Hegelich, wer ist der Abnehmer solcher Erkennungswerkzeuge? Werden sie nur die Forscher selbst einsetzen, werden sie den Betreibern sozialer Netzwerke angeboten oder könnte sie zum Beispiel auch eine Redaktion kaufen, um zu analysieren, wer in den eigenen Social-Kanälen Mensch ist und wer Maschine?
Dr. Simon Hegelich: In unserem Projekt „Social Media Forensics“ werden wir zwei unterschiedliche Programme entwickeln – allerdings sind sie erst im Proof of Concept Status:
– Die eine Anwendung ist für alle Nutzer gedacht, die einen Account bei Twitter merkwürdig finden. Unser Programm überprüft dann diesen Nutzer, gibt eine Wahrscheinlichkeit an, mit der es sich um einen Bot handelt, und erklärt, was genau verdächtig an diesem User ist. Das Prinzip ist sehr ähnlich wie das Produkt unserer Kollegen aus Indiana „Truthy: Bot or Not“. Nur dass deren Seite sehr stark auf der Analyse der Sprache basiert und daher für deutsche Accounts nicht gut funktioniert.
– Das zweite Programm wird ein dezentraler Spam-Filter. Hier denken wir gerade an Redaktionen von Medienseiten, die Troll- oder Bot-Kommentare automatisch aussortieren wollen. Das Prinzip funktioniert so: Man legt selbst einen Datensatz an, in dem unerwünschte Kommentare markiert werden. Der Algorithmus findet dann ähnliche Kommentare und blockt diese. Der Betreiber der Seite kann die Kommentare dann nachträglich zulassen, oder auch falsch sortierte Kommentare per Hand blocken. Das Prinzip ist also wie bei einem Spamfilter …
Aber wie gesagt, wir sind ein Forschungsprojekt und die Entwicklung dieser Programme wird im Rahmen des Projekts nicht abgeschlossen werden. Im Anschluss, also ab 2017, kann ich mir allerdings sehr gut vorstellen, entsprechende Anwendungen fertig zu entwickeln.
Intelligente Welt: Nachdem auch die Bot-Software schlauer wird, kann man überhaupt ein fertiges Produkt anbieten oder müsste dieses regelmäßig upgedatet werden?
Dr. Simon Hegelich: Wie Sie richtig anmerken, machen solche Programme nur Sinn, wenn sie lernfähig sind. Bei dem dezentralen Troll-Spamfilter ist das gegeben. Der Bot-Detector müsste tatsächlich regelmäßig aktualisiert werden.
Intelligente Welt: Können Sie auch einschätzen, welchen Einfluss Bot-Software auf Analyse-Tools wie zum Beispiel Google Trends hat?
Dr. Simon Hegelich: Meiner Meinung nach ist die Wahrscheinlichkeit, dass alle Trends, Klickstatistiken und ähnliches massiv manipuliert sind, sehr groß. Erstens gibt es bereits viele Beispiele, die dies belegen. Neulich wurde bekannt, dass Ticketbörsen massiv von Bots manipuliert werden. Letztes Jahr gab es einen großen Kaggle*-Wettbewerb, in dem ein Online-Auktionshaus nach Bots in seinen Daten hat suchen lassen. Und es lassen sich noch viele ähnliche Fälle finden.
Zweitens ist es etwa bei Google Trends so, dass nur Besuche gezählt werden, bei denen Java-Script aktiviert ist. Dadurch sind einfach gehaltene Bot-Programme automatisch außen vor. Sie können sich aber sicher denken, dass es nicht schwierig ist, diese Hürde zu überwinden.
Wer mehr über Dr. Simon Hegelich und seine Arbeit erfahren möchte, kann ihm auf seinem Blog folgen. Weitere Artikel mit ihm zum Thema Bots finden sich unter anderem auf welt.de, derwesten.de oder swr3.de.
* Erklärung zu Kaggle: Das Handelsblatt schreibt: Das 2010 gegründete Portal bietet eine Lösung für ein häufiges Problem: Zwar verfügen Firmen über ungeheuer große Datensätze, aber nicht die passenden Algorithmen, die die Daten ordnen und nützlich machen. Auf Kaggle können sie die Daten hochladen und ihr Problem beschreiben. Experten aus der ganzen Welt versuchen dann, eine Antwort zu finden. Sie treten in einem Wettbewerb um den besten Algorithmus an – wer gewinnt, bekommt eine Geldprämie. Dabei ist es ganz egal, ob der Teilnehmer Professor an einer renommierten Universität oder ein Hobbytüftler ist.
Vorsicht vor fremden Freunden
Über Bots kann nicht nur Propaganda (zum Beispiel politische Beeinflussung) oder Werbung (etwa Empfehlungen für bestimmte Produkte) gezielt verbreitet werden. Sie können auch Daten sammeln und danach für Cyber-Attacken missbrauchen. Schon 2011 berichtete etwa ZDNet von einer Untersuchung aus Kanada: Forscher der University of British Columbia in Vancouver zeigten in ihrer Studie „The Socialbot Network“, dass Programme bei Facebook als Nutzer auftreten und dort persönliche Informationen sammeln können. Sie generierten dafür 102 „Socialbots“, mit Namen und Profilbild eines fiktiven Facebook-Nutzers, der Nachrichten und Freundschaftsanfragen versenden konnte, und schleusten diese ins Netzwerk ein.
In der ersten Phase schickten die Bots Freundschaftsanfragen an rund 5.000 Facebook-Mitglieder. Mehr als 900 der Anfragen wurden angenommen. Daraufhin schickten die Bots weitere Anfragen an rund 3.500 Facebook-Freunde von Nutzern, die sich in Runde eins als Freunde hatten werben lassen. Diesmal stimmten mehr als 2.000 Nutzer der Freundschaftsanfrage zu, was den Erwartungen der Forscher entsprach (Nutzer mit einem gemeinsamen Freund stimmen häufiger einer Anfrage zu). So bekamen die Bots innerhalb von nur acht Wochen Zugang zu den Konten tausender Nutzer und konnten insgesamt mehr als 250 Gigabyte Daten auslesen.
Gesunde Skepsis ist angebracht
Social Bots im Netz-Alltag zu erkennen, ist für den normalen Nutzer schwierig. Das PC Magazin gibt hierzu einige Tipps, wie man sich vor falschen Facebook-Freunden schützen kann – egal ob es sich dabei um Menschen oder Bots handelt. Denn wenn diese Zugriff auf persönliche Daten erlangen, kann das auch für den Nutzer selbst gefährlich werden. Vor allem ein vernünftiges Maß an Skepsis ist wichtig. Und ähnlich wie bei E-Mails, sollte man auch in sozialen Netzwerken ein gewisses Maß an Vorsicht beim Anklicken von Links, Bildern oder Videos walten lassen. Denn auch auf diesem Weg könnten Schadprogramme wie Viren oder Spionagesoftware ins System eingeschleust werden.
Meinung oder Manipulation
Was kann man also noch glauben? Kommuniziert man mit Menschen oder Maschinen? Ist eine Stimmung im Netz real oder wurde sie künstlich erzeugt? Werden Social-Media-Nutzer aber auch Politik, Medien und Wirtschaft mit gezielt eingesetzten Meldungen in die Irre geführt? Und welche Auswirkungen kann es haben, wenn etwa politische oder wirtschaftliche Entscheidungen von solchen Werkzeugen beeinflusst werden? Der Umgang mit Manipulation im Netz scheint nicht nur für Forscher ein wichtiges Thema zu sein, mit dem man sich noch ausführlich auseinandersetzen wird müssen.
Für den einzelnen Nutzer ist es in erster Linie ratsam, sich eben nicht blindlings treiben zu lassen, wenn das Netz mit Hass, Angst oder Hetze geflutet wird. Seine Meinung zu vertreten, ist die eine Sache. Man sollte sich aber auch darüber vergewissern, ob diese Meinung auf eigenen Erfahrungen, Recherchen, Gefühlen, Erkenntnissen oder auch Ängsten basiert – oder aber, ob sie durch die Botschaften einer Bot-Armee ferngesteuert sein könnte.