URI: 
       # taz.de -- Manipulation durch Social Bots: Mensch oder Maschine
       
       > Automatisiert in sozialen Netzwerken verbreitete Beiträge können die
       > öffentliche Meinung beeinflussen. Das ist auch für deutsche Politiker
       > wichtig.
       
   IMG Bild: Menschen. Keine Bots
       
       Berlin taz | Teuer ist das Ganze schon einmal nicht. 500 US-Dollar kostet
       eine Software, mit der sich 10.000 Twitter-Accounts steuern lassen.
       Accounts, die dann Tweets verfassen, andere retweeten, Nutzern folgen oder
       bestimmte Hashtags verwenden. #alternativefacts zum Beispiel. Ganz
       automatisch. Und immer im Sinne des Auftraggebers.
       
       Social Bot wird dieses Phänomen genannt, wobei „Bot“ als Abkürzung für
       Roboter steht. In die Kritik geraten diese Bots derzeit, weil sie in
       sozialen Netzwerken wie Twitter, Facebook, Instagram oder Google+
       automatisiert Beiträge verbreiten und dabei von von Menschen verfassten
       Beiträgen kaum zu unterscheiden sind.
       
       Es gibt die Bots in unterschiedlichen Komplexitätsstufen: Die einfachsten
       retweeten oder favorisieren nur Nachrichten mit bestimmten Hashtags, um für
       eine größere Verbreitung und Wahrnehmung zu sorgen. Bei komplexeren Bots
       erstellt der Algorithmus entsprechend der Vorgaben selbst Kurznachrichten.
       Hierbei spielt auch künstliche Intelligenz eine Rolle, damit die
       Nachrichten möglichst nicht von denen menschlicher Urheber zu unterscheiden
       sind. In der Praxis wäre es beispielweise möglich, einen Social Bot darauf
       zu programmieren, auf jeden Tweet mit einem Pro-Clinton-Hashtag wie
       #ImWithHer zu reagieren und dazu jeweils einen variierenden Antworttweet
       abzusetzen, der Clinton der Korruption beschuldigt.
       
       500 US-Dollar. Die Zahl stammt aus einer Studie von Simon Hegelich,
       Professor an der Hochschule für Politik an der Technischen Universität
       München. Und sie zeigt, warum Social Bots für alle, die Meinung machen
       wollen, so attraktiv sind: Wie viele Werbeflächen an Bushaltestellen muss
       man buchen, wie viele TV-Spots, wie viele Google-Ads, um in einer ähnlichen
       Dimension wahrgenommen zu werden wie mit einer Bot-Stärke, die der
       Einwohnerzahl einer Kleinstadt entspricht?
       
       Das Problem bei den Social Bots: Anders als bei Werbung auf Webseites oder
       dem Werbespot im Fernsehen ist nicht ersichtlich, dass hier jemand – oder
       etwas – unterwegs ist, dem es vor allem darum geht, die Meinung der
       Empfänger zu beeinflussen. Und noch weniger ist ersichtlich, wer hinter der
       anschließenden Verbreitung – durch Retweets, Favorisierungen und Nutzung
       eines Hashtags – steckt. Stammen die Tweets, die Trump beleidigen, vom
       demokratischen Wahlkampfteam? Oder aus Trumps eigenem Umkreis, um seiner
       Gegnerin in der Diskussion diskreditierendes Verhalten vorwerfen zu können?
       Oder versucht hier jemand, einen viel gelesenen Hashtag für kommerzielle
       Zwecke zu nutzen?
       
       ## Wie Bots auffallen
       
       Dabei ist nicht einmal klar, wie hoch der Anteil computergenerierter
       Nachrichten in den Netzwerken überhaupt ist. „Wir haben keine Social Bots
       auf unserer Plattform“, heißt es etwa bei Facebook schlicht. Diese seien
       schließlich nicht erlaubt. Auch Twitter verweist darauf, dass solche
       Profile auf der Plattform verboten seien. Allerdings kam der Forscher
       Philip Howard von der Universität Oxford nach einer Untersuchung von 9
       Millionen Tweets, die nach dem ersten TV-Duell von Hillary Clinton und
       Donald Trump gepostet wurden, zu dem Ergebnis: Jeder dritte Tweet aus dem
       Trump-Lager kam von einem Bot, bei Clinton knapp jeder vierte.
       
       Tabea Wilke hat mit Botswatch ein Werkzeug entwickelt, das Social Bots in
       Echtzeit erkennen kann. Als Bot gilt ein Account dabei unter anderem, wenn
       er über 50 Tweets am Tag absetzt – selbst sehr fleißige menschliche Nutzer
       hierzulande kommen laut Wilke nur auf 20 bis 25 Tweets. „Twitter ist
       deswegen relevant, weil wesentliche Influencer die Plattform nutzen“, sagt
       sie. Politiker zum Beispiel. Wer es also schaffe, hier Debatten zu
       manipulieren, der beeinflusse die politische Diskussion.
       
       Das Potenzial zeigt Wilke etwa anhand einer Auswertung der Tweets während
       einer Sendung „Hart aber fair“ vom Dezember. Mehr als 20 Prozent der Tweets
       seien hier von Bots abgesetzt worden – ungewöhnlich viele, sagt Wilke. Und
       es gibt Auffälligkeiten. Als Bots identifizierte Accounts verwendeten etwa
       Schlagworte wie „Islam“, „Merkel“ oder „AfD“ häufiger als die Accounts mit
       menschlichen Nutzern. „Erdoğan“, „eingeladen“ oder „Polizei“ kam dagegen
       bei Bots nicht vor, sondern nur bei menschlichen Twitterern. Das zeige
       zumindest, dass Bots eine Diskussion verschieben könnten, erklärt Wilke.
       Der konkrete Einfluss, den das am Ende auf Menschen habe, sei aber kaum
       messbar.
       
       Die Grünen fordern nun zumindest eine verpflichtende Kennzeichnung. „Bots
       per se sind weder gut noch schlecht. Aber Social Bots sind ein Phänomen,
       das zu Diskursverschiebungen im Netz führen kann, zum Beispiel durch das
       massenhafte Verbreiten von Falschnachrichten“, begründet Konstantin von
       Notz, netzpolitischer Sprecher der Grünen-Fraktion, den Vorschlag. Wie das
       im Detail aussehen soll, ist allerdings unklar. Bislang haben CDU, SPD,
       Linkspartei, Grüne, FDP und – nach anfänglichen gegenteiligen Aussagen –
       auch die AfD auf freiwilliger Basis erklärt, im anstehenden
       Bundestags-Wahlkampf nicht auf Social Bots setzen zu wollen. Das Problem:
       Das kann sich nur auf offizielle Accounts beziehen. Wenn ein Parteimitglied
       selbst entscheidet, Bots für die Wahlwerbung einzusetzen, würde auch ein
       Gesetz nicht greifen.
       
       ## Ausmaß des Potenzials ergründen
       
       Auch Katrin Weller, Leiterin des Teams Social Analytics and Services am
       Leibniz-Institut für Sozialwissenschaften, geht davon aus, dass die Social
       Bots einen Einfluss auf die Meinungsbildung haben. „Wenn damit der Eindruck
       erweckt wird, dass es eine große Community gibt, die eine bestimmte Ansicht
       vertritt, dann kann das sowohl Politiker beeinflussen als auch dazu
       beitragen, die eigene Meinung zu festigen.“ Für besonders anfällig hält
       Weller Nutzer, die ihre Informationen lediglich über einen einzelnen
       Medienkanal – also beispielsweise ausschließlich über Facebook – beziehen.
       Und das sei immer häufiger der Fall.
       
       Trotzdem hält Weller den Vorstoß der Grünen nicht für praktikabel. Den
       Betreibern einschlägiger Bots komme es gerade darauf an, dass ihre Postings
       nicht als automatisch generiert erkannt würden. „Bot-Farmen in Russland
       wird man damit vermutlich nicht in den Griff bekommen.“ Für
       vielversprechender hält sie es, die Plattformbetreiber zu verpflichten.
       „Die haben ganz andere Möglichkeiten, Bots aufzuspüren.“ Tabea Wilke von
       Botswatch spricht sich vor allem für eine Stärkung der Medienkompetenz von
       Nutzern aus.
       
       Einig sind sich von Notz und Weller darin, dass durchaus noch mehr
       Forschung nötig wäre, um das Ausmaß des meinungsbildenden Potenzials von
       Social Bots zu ergründen. Auch das Büro für Technikfolgen-Abschätzung beim
       Deutschen Bundestag arbeitet seit Oktober an einer Untersuchung dazu. In
       einem Papier, das die Zwischenergebnisse zusammenfasst, heißt es, dass
       gesicherte Nachweise über die Wirkung fehlten. Und dass man den Fokus nicht
       nur auf die Politik, sondern auch die Wirtschaft lenken müsse.
       
       So wurde vor zwei Jahren in einem der wenigen gut belegten Fälle der
       Börsenkurs eines Technologieunternehmens durch Social Bots per Twitter in
       die Höhe getrieben, als im Börsenhandel eingesetzte Algorithmen auf von
       Bots verbreitete Gerüchte hin investierten. Die Verluste nach dem Aussetzen
       des Handels, die waren dann real.
       
       30 Jan 2017
       
       ## AUTOREN
       
   DIR Svenja Bergt
       
       ## TAGS
       
   DIR Twitter / X
   DIR Schwerpunkt Meta
   DIR Social Bots
   DIR Hashtag
   DIR Lesestück Recherche und Reportage
   DIR Schwerpunkt UN-Migrationspakt
   DIR Social Bots
   DIR Fake News
   DIR Fake News
   DIR künstliche Intelligenz
   DIR Fake News
   DIR künstliche Intelligenz
   DIR Twitter / X
       
       ## ARTIKEL ZUM THEMA
       
   DIR UN-Migrationspakt auf Twitter: Angeblicher Bot-Grusel
       
       Jeder vierte Tweet zum Migrationspakt soll von einem Bot stammen. Ob wahr
       oder nicht: Wir müssen viele Infos im Netz genau hinterfragen.
       
   DIR taz-Bot Judith Botler zum Frauentag: { track: „#genderwahnsinn“ }
       
       Zum Weltfrauentag haben wir einen Bot programmiert. Warum? Weil das
       Programmieren eine Form der Selbstermächtigung ist.
       
   DIR Rechtswissenschaftler über Fake News: „Regierung ist nicht die Instanz“
       
       Kampf gegen Fake News im Netz: Rechtswissenschaftler Karl-Heinz Ladeur regt
       die Einrichtung privater Schiedsgerichte an.
       
   DIR Umgang in Sozialen Netzwerken: Schwarz-Grün gegen Social Bots
       
       Die Grünen fordern eine Kennzeichnungspflicht für maschinell erstellte
       Meldungen. Die CSU auch – und will sich auch um Cybermobbing und Fake News
       kümmern.
       
   DIR Gespräch zwischen Computern: Talk to my Bit!
       
       Künstliche Intelligenzen haben eine eigene Sprache entwickelt, in der sie
       sich verständigen können. Die taz hat ein Gespräch protokolliert.
       
   DIR Maßnahmen gegen Falschnachrichten: Die Wahrheitsbehörde regelt das
       
       Das Bundesinnenministerium erwägt, ein „Abwehrzentrum gegen Desinformation“
       einzurichten. Als Hauptakteur der Fake News sieht es Russland an.
       
   DIR Datenexperte über Social Bots: „Manipulation ist nicht so einfach“
       
       In Online-Netzwerken wimmelt es von Social Bots – Software, die sich als
       Mensch ausgibt. Wie verändert das den öffentlichen Diskurs?
       
   DIR Prosa von Social-Media-Robotern: Der Bot in meiner Timeline
       
       Bots sind Twitter-Accounts, bei denen ein Programm die 140 Zeichen
       generiert. Einige kommen äußerst kreativ und politisch daher, andere nicht.