Social Bots greifen immer stärker in gesellschaftliche Debatten ein
In den Redaktionen großer Medienhäuser haben Social Bots längst Einzug gehalten. Statt Menschen entscheidet in immer mehr journalistischen Büros eine Software, welche Nachrichtenmeldungen den Redakteuren als relevant und wichtig angezeigt werden. Sie liefert automatisiert und branchenspezifisch News aus Forschungseinrichtungen, Institutionen, Universitäten, Unternehmen und Onlinequellen und übernimmt so die Vor-Recherche.
Schöne neue Welt? Jein. Social Bots können uns unverkennbar Arbeit abnehmen – automatisiert auf immer gleiche Kunden-Anfragen antworten oder umfangreiche Recherchen im Netz in kürzester Zeit durchführen. Sie können aber auch Themen künstlich deutlich mehr Bedeutung verschaffen, als dies in der realen Welt möglich wäre, und so politische Stimmungen und Entscheidungsprozesse verändern.
Nicht-humane Meinungsmacher
„Social Bots“, so die Definition des Büros für Technikfolgen-Abschätzung beim Deutschen Bundestag „sind Computerprogramme, die eine menschliche Identität vortäuschen und für manipulative Zwecke eingesetzt werden, indem sie wie Menschen im Internet kommunizieren.“
Wie sie auf den Plattformen kommunizieren, geschieht dabei aber keinesfalls autonom. Ein Bot wird mit Hilfe eines Softwareprogramms in der Regel von einer Person gesteuert. Dieses Softwareprogramm sorgt dann wiederum dafür, dass sich Bots mit Hilfe von künstlicher Intelligenz weitestgehend eigenständig durch das Internet bewegen. Sie suchen anhand von Hashtags nach relevanten Themen, teilen und kommentieren Beiträge und folgen anderen Accounts. Ihre Fähigkeit, sich automatisch in Diskussionen einzumischen und gezielt auf bestimmte Aussagen mit Likes oder Kommentaren zu reagieren, sorgt dafür, dass die Relevanz von bestimmten Themen künstlich angeregt und dadurch manipuliert wird.
Umgangssprachlich ist das psychologische Phänomen unter dem berühmten „Herdentrieb“ bekannt. Der Grund: Im ältesten Teil des Gehirns, dem Hirnstamm, ist das Bedürfnis des Menschen hinterlegt, zur „Herde“ zu gehören und nicht im Abseits zu stehen. Diese tiefer liegenden Hirnregionen beeinflussen uns stärker als die Großhirnrinde, die zum logischen und bewussten Denken befähigt.
In der Manipulationsfähigkeit liegt nach Auffassung einiger Experten eine Gefahr für den demokratischen Meinungsbildungsprozess. Eine durch Bots gesteuerte Relevanzsteigerung kann insofern Einfluss auf reale Menschen nehmen, indem einer Aussage allein durch die Häufigkeit ihres Auftretens Vertrauen geschenkt wird.
Dass diese Gefahr nicht ganz unbegründet ist, zeigen zahlreiche Studien. Ob zur US-Präsidentschaftswahl 2016, beim Brexit-Referendum oder in vielen anderen Fällen – Bots wurden aktiv eingesetzt und haben bestimmte Aussagen gezielt in die Diskussion eingebracht und damit einigen Themen künstlich eine höhere Relevanz verliehen.
(K)eine Frage der Haltung
Auch in Deutschland konnten 2017 – wenn auch damals nur in geringem Maße – Bot-Aktivitäten nachgewiesen werden. Dass das auch hierzulande möglich ist, liegt daran, dass die Verwendung solcher Bots bisher in Deutschland nicht reglementiert wurde, also nicht verboten ist. Stattdessen liegt die Entscheidungsgewalt bei den Plattformen selbst. Bots können nur dann gelöscht werden, wenn sie gegen die Bestimmungen der Plattform verstoßen. Zudem haben nur die Plattformbetreiber die Möglichkeit, die nicht-öffentlichen Nutzerdaten einzusehen und damit Bots überhaupt eindeutig zu erkennen.
Obwohl entsprechende Gesetze bisher fehlen, haben sich die deutschen Parteien im Voraus darauf geeinigt, auf Bots während des Wahlkampfes zu verzichten. Doch hier liegt ein Problem: Die Parteien können zwar ihre Position gegenüber Bots bekräftigen. Einfluss auf die Absicht eines Einzelnen haben sie dadurch noch lange nicht, denn Bots kann quasi jeder mit nur wenigen Programmierkenntnissen erstellen. Damit wird die Kontrolle solcher Programme erschwert und bleibt entsprechend in den Handlungssphären der Social Media Unternehmen.
„Good Bots, Bad Bots“
Der Einsatz von Bots ist jedoch nicht immer nur damit verbunden, Meinungen zu manipulieren und politische Stimmungen anzufeuern. In einigen Bereichen helfen sie dabei, bestimmte Abläufe zu vereinfachen. Sinnvoll können Bots zum Beispiel eingesetzt werden, um standardisierte Abläufe zu unterstützen. Chatbots können bei Reisebuchungen assistieren oder dabei helfen, passende Restaurants zu finden.
Allerdings sind diese Bots im Gegensatz zu Social Bots transparent gekennzeichnet. In der politischen Arena dagegen verschwimmt, was real und was fake ist. Doch wie kann man Bots erkennen?
Social Bots erkennen
Der Datenanalyst Luca Hammer sieht die Lösung in der qualitativen Auswertung von Bots, um Fehler bei automatisierten Massenuntersuchungen zu verhindern. Allerdings werden hierzu die Nutzerdaten der sozialen Netzwerke benötigt, die die Betreiber nicht freiwillig offenlegen. Gleichzeitig ist dieser Prozess mit sehr viel Zeitaufwand verbunden.
Zur Identifikation kann aber auch der von Informatikern der University of Indiana programmierte Botometer verwendet werden. Dieser analysiert Twitter-Profile auf 1.150 Merkmale und kann anhand dessen feststellen, ob es sich um einen Bot handelt oder eben nicht. Dennoch ist das Tool nicht perfekt. Es kann nur Bots erkennen, deren Charakteristika bereits zuvor mit Hilfe anderer Methoden erkannt wurden. Außerdem können nur öffentliche Profile untersucht werden, private Accounts fallen aus dem Raster. Schaut man sich beispielsweise das Profil von Bundesgesundheitsminister Karl Lauterbach (SPD) an, so wird dem Account mit 2,4 ein mittlerer Wert von maximal 5 zugewiesen. Dieser Wert gibt Auskunft darüber, wie wahrscheinlich es ist, dass es sich bei einem Kanal um einen Bot (hoher Wert) oder um einen echten Menschen handelt (niedriger Wert). Zum Vergleich, das Profil des Robert-Koch-Instituts wirkt auf den Botometer anscheinend ‚menschlicher‘: Der Twitter-Kanal kommt auf einen Wert von 1,8. Beiden ist jedoch gemeinsam, dass 0,6 Prozent der Follower als sogenannte ‚Echo-chamber-bots‘ analysiert werden, die politische Inhalte in großem Umfang teilen und löschen.
Mit prüfendem Blick durch das Internet
Der Botometer zeigt, dass die Wissenschaft noch am Anfang steht, um Bots wirksam identifizieren zu können. Besonders in der Corona-Pandemie hat sich gezeigt, dass Social Bots vermehrt in den sozialen Netzwerken auftauchen und sich in Diskussionen einmischen. 2020 fand ein Forscherteam der Carnegie Mellon University heraus, dass sich fast jeder zweite Twitter-Account, der sich seit Januar 2020 zum Thema ‚Corona‘ geäußert hat, wie ein Social Bot verhält.
Im täglichen Surfen auf den Social Media Kanälen bleibt Privatpersonen leider nur die Möglichkeit, Accounts mit sehr hohem Traffic kritisch unter die Lupe zu nehmen. Ein vermeintlicher Notarzt, der erst seit kurzem twittert, aber für seine Tweet 15.000 Likes kassiert, könnte – wie in der Pandemie vereinzelt aufgedeckt – tatsächlich ein bezahlter Fake-Account sein.
Um zu prüfen, ob man es mit einem Social Bot zu tun hat, hilft es zunächst, sich die Historie der Aktivität und die Followerstruktur des Kanals anzusehen. Ist man danach immer noch unsicher, kann man versuchen mit dem Bot zu kommunizieren. Ziemlich schnell sollte deutlich werden, dass der Bot immer zu den gleichen, tendenziösen Inhalt von sich gibt. Dann heißt es ganz wie im echten Leben bei unangenehmen Gesprächen: Sorry, ich muss dann mal weg!
Autoren: Verena Köttker, Philip Hülsmann
Recent Comments