URI: 
       # taz.de -- Community-Management: Für Respekt in der Kommentar-Spalte
       
       > Community-Manager*innen sollen Kommentare auf den Seiten der
       > Öffentlich-Rechtlichen regulieren. Doch der raue Ton geht vielen an die
       > Substanz.
       
   IMG Bild: Wie Community-Manager*innen täglich mit Hatespeech umzugehen kann auf die Psyche schlagen
       
       Islamistengesocks, unzivilisierte Halbwilde“, schreibt der User, dessen
       Profilbild einen Mann mit adrettem Haarschnitt und Anzug zeigt. Doch das
       ist nicht er selbst – sondern der Bösewicht aus einer TV-Serie. Das Profil
       ist Fake, der Nutzer ein Troll, der vorsätzlich im Internet Unruhe stiftet.
       
       Im Jahr 2022 erhielt [1][allein das ZDF] nach eigenen Angaben über 12
       Millionen Kommentare auf seinen Social-Media-Kanälen. Die meisten sind
       harmlos. Einige wie der obige, enthalten Hass, Beleidigungen und Drohungen.
       Um einen respektvollen Austausch zu ermöglichen, beschäftigen viele
       Rundfunkanstalten daher Community-Manager*innen wie Melissa.
       
       Melissa arbeitet beim Deutschlandfunk (DLF) und heißt eigentlich anders.
       Ihren echten Namen möchte sie lieber nicht in der Zeitung lesen, auch weil
       sie befürchtet, dass User*innen sie kontaktieren könnten. Melissa
       [2][löscht Hasskommentare auf Facebook,] leitet Diskussionen auf Instagram
       und Twitter, beantwortet Fragen in den Foren des Senders. Im Fachjargon
       nennt sich das Moderation. Zu dieser ist der ÖRR laut einem Urteil des
       Bundesverwaltungsgerichts vom November 2022 nicht nur berechtigt, sondern
       teilweise sogar verpflichtet, um EU-Wettbewerbsrichtlinien zu erfüllen. Die
       Menschen, die sich darum kümmern, brauchen starke Nerven.
       
       „Ich lese ungefähr 1.000 Kommentare am Tag, davon sind etwa 10 Prozent
       problematisch und noch mal 20 Prozent Spam, viele Sex-Bots und
       Finanz-Coaches“, erzählt Melissa. „Mit das Übelste, was ich bisher gelesen
       habe, war eine sehr plastische Beschreibung davon, wie jemand einen
       Klima-Kleber töten wollte.“
       
       ## Wenig sichtbar
       
       Community-Management ist ein wenig sichtbares Arbeitsfeld in Deutschland,
       obwohl es inzwischen in fast jedem größeren Unternehmen zu finden ist,
       besonders in der Medienbranche. Wie viele Community-Manager*innen es
       genau in Deutschland gibt ist schwer zu sagen. Das Berufsbild ist nicht
       geschützt und eine Erfassung daher schwer möglich. Mit 38 Jahren gehört
       Melissa zu den Älteren in der Branche. Viele der Community-Manager*innen,
       mit denen die taz für diesen Text sprach, studieren noch, verdienen sich
       mit dem Job etwas dazu. Für Melissa aber ist es ihre Haupttätigkeit.
       
       Ein Ziel der Moderation ist, dass die Community die sogenannte
       [3][Netiquette einhält]. Diese hauseigenen Verhaltensregeln gehen bei den
       Formaten des ÖRR meist über die Guidelines von Facebook & Co hinaus. So
       kann die Netiquette z. B. vorschreiben, dass Kommentare sachbezogen,
       konstruktiv und respektvoll sein sollen. Leider gelingt das nicht immer.
       
       „Moderation hat definitiv einen Effekt. Aus Studien wissen wir, dass allein
       die Präsenz von Moderation dazu führt, dass Nutzer*innen lieber an
       Diskussionen teilnehmen“, sagt die Kommunikationswissenschaftlerin
       Dominique Heinbach. Sie forscht an der Uni Mainz zu Moderation und
       Community-Management und hat mit Prof. Dr. Marc Ziegele (Uni Düsseldorf) in
       Kooperation mit der Landesanstalt für Medien NRW das sogenannte
       Kasi-Prinzip entwickelt. Dieses enthält verschiedene Moderationsstile, den
       kognitiven (K), affektiven (A) und den sozial-integrativen Stil (SI). Sie
       konzertieren sich auf die Bestärkung positiver, konstruktiver und
       bereichernder Kommentare. Dabei soll auf Gefühle der Menschen eingegangen,
       positive Rückfragen gestellt und die Interaktion untereinander gefördert
       werden.
       
       „Häufig liegt in der öffentlichen Debatte und in Redaktionen ein großer
       Fokus auf dem Eindämmen von Hatespeech und Inzivilität, also von
       unerwünschten Beiträgen. Wir haben versucht, das Ganze andersrum
       anzugehen.“ Eine große Studie mit Praxispartnern zeigte, dass die
       Kasi-Methoden zu einem besseren Klima führten. Sie nahmen aber auch mehr
       Zeit in Anspruch als das bloße Löschen von Hasskommentaren. „Natürlich
       braucht man genug Personal dafür“, sagt Heinbach.
       
       ## Es fehlt an Kapazitäten
       
       Tom Klein koordiniert das Community-Management beim Hessischen Rundfunk und
       bestätigt die Wirksamkeit von Heinbachs Methoden: „Wir haben Testungen
       durchgeführt und nicht nur gemerkt, dass die Diskussionen besser geworden
       sind, sondern auch, dass die Arbeit für unsere Community-Manager*innen
       viel befriedigender geworden ist.“ Leider fehlten im eng getakteten
       Arbeitsalltag oft die Kapazitäten. „In der Coronazeit hatten wir manchmal
       Postings mit 10.000 und mehr Kommentaren. Da kann man nur noch das
       Schlimmste verhindern, aber keinen sachgerechten Diskurs mehr führen.“
       
       Rechtlich ist es aber nicht ganz einfach, Kommentare zu löschen oder
       Nutzer*innen zu blockieren. Schnell hagelt es Vorwürfe: Der ÖRR betreibe
       „Propaganda“, erhebe „Zwangsgebühren“ und betreibe Zensur. Auch dem bereits
       erwähnten Urteil des Bundesverwaltungsgerichts ging die Klage eines Nutzers
       voraus. Das Gericht urteilte, dass die Löschung von Kommentaren auf der
       Facebookseite des MDR zwar weitgehend rechtens war, gab dem User aber in
       einem Fall recht. Ein Eintrag hätte nicht gelöscht werden dürfen.
       
       Der Kläger hatte zu einem Beitrag über eine Razzia bei der verbotenen
       rechten Vereinigung „Blood & Honour“ gefragt, „ob man dabei den Attentäter
       von Straßburg finden wird“. Der MDR löschte, weil der Anschlag islamistisch
       motiviert war, die Razzia aber Neonazis traf. Hier sah das Gericht die
       fehlende Themenbezogenheit zu eng gefasst.
       
       „Meinungsfreiheit heißt nicht, dass jeder alles überall sagen kann“, sagt
       Tom Klein. „Wir haben als Redaktionen ein Hausrecht.“ Der ÖRR kann davon
       Gebrauch machen, wenn Kommentare vom Thema abweichen. Private Medienhäuser
       haben beim Löschen recht freie Hand, doch der ÖRR muss ein breites
       Meinungsspektrum akzeptieren. Bei Beleidigungen, strafrechtlich relevanten
       Äußerungen, Gewaltandrohungen oder Volksverhetzung ist aber Schluss.
       
       ## Es schlägt auf die Psyche
       
       Täglich mit Hatespeech umzugehen kann auf die Psyche schlagen. Auch Melissa
       war wegen ihres Jobs bereits in therapeutischer Behandlung. Bei ihrem
       vorherigen Arbeitgeber war sie während Corona mehrere Wochen
       krankgeschrieben, weil der Druck zu groß wurde.
       
       „Community-Manager*innen fragen sich häufig, wer hinter dem Hass
       steckt, in welche Richtung der Diskurs geht. Sie fragen sich: Ist das
       wirklich das Abbild unserer Gesellschaft?“ sagt Judith Strieder,
       Psychologin bei HateAid, einer Organisation, die sich für Betroffene von
       digitaler Gewalt einsetzt und für Community-Manager*innen. Einige ihrer
       Klient*innen entwickelten psychische Leiden aufgrund ihrer Arbeit, wie
       Konzentrationsschwierigkeiten, Schlafstörungen oder depressive
       Verstimmungen. „Das ist eine Arbeit, bei der man gut auf sich aufpassen
       muss“, sagt Strieder.
       
       Besonders schwierig seien Themen, von denen Moderator*innen selbst
       betroffen sind, etwa geschlechtsspezifische Gewalt oder Rassismus. Vor
       allem Täter*innen aus dem rechten Spektrum nutzten das Internet
       strategisch, um politische Gegner*innen mundtot zu machen. So waren laut
       Bundeskriminalamt im Jahr 2019 ganze 73 Prozent aller strafbaren
       Hasspostings rechts motiviert. „Es ist wichtig, die Menschen darüber
       aufzuklären, dass Menschen, die digitale Gewalt verbreiten, nur eine
       kleine, aber sehr laute Minderheit sind“, sagt Strieder.
       
       ## KI könnte helfen
       
       Tatsächlich beteiligen sich nur wenige Menschen aktiv an
       Onlinediskussionen, während viele unbeteiligt mitlesen. Laut einer Studie
       von ARD und ZDF schrieben 2020 lediglich 10 Prozent der User*innen
       gelegentlich Kommentare auf Facebook und Instagram. Die Zahl der
       sogenannten „Heavy User“ ist noch deutlich geringer.
       
       Um den Moderator*innen ihre Arbeit zu erleichtern, sieht Dominique
       Heinbach in der Zukunft Potenzial bei automatisierten KI-gestützten
       Modellen, die etwa Kommentare anhand von Reizwörtern und Sprachmustern
       filtern. Diese würden immer besser und seien zumindest bei eindeutigen
       Verstößen eine willkommene Unterstützung. Bis die KI jedoch wirklich
       zuverlässig funktioniere, werde es noch dauern. Bis dahin sei es wichtig,
       dass Community-Management auch in den Redaktionen weiter als
       journalistische Arbeit anerkannt und im redaktionellen Prozess mitgedacht
       wird, sagt Heinbach. Das sieht auch Melissa so: „Viele Institutionen geben
       das CM an unterbezahlte Studis oder Praktikant*innen weiter, die dann
       mit Anfang 20 Burnout haben.“ Das müsse sich ändern. „Es muss als richtiger
       Beruf wahrgenommen werden und dafür muss man auch Geld in die Hand nehmen.“
       
       7 Oct 2023
       
       ## LINKS
       
   DIR [1] /60-Jahre-ZDF/!5922942
   DIR [2] /Doku-ueber-Social-Media/!5528146
   DIR [3] /LeserInnen-Kommentare/!118006/
       
       ## AUTOREN
       
   DIR Fabian Schroer
       
       ## TAGS
       
   DIR Hass
   DIR Hate Speech
   DIR ZDF
   DIR Deutschlandradio
   DIR IG
   DIR Netzkultur
   DIR Social Media
   DIR Donald Trump
       
       ## ARTIKEL ZUM THEMA
       
   DIR „Hass im Netz“: Tödliche Wirkung des Internets
       
       Seit dem Tod der Ärztin Lisa-Maria Kellermayr wird über „Hass im Netz“
       diskutiert. Dabei ist Hass nicht nur digital. Er hat immer auch analoge
       Folgen.
       
   DIR Doku über Social Media: Löschen. Ignorieren. Löschen
       
       „Im Schatten der Netzwelt – The Cleaners“ zeigt jene Menschen, die von
       Manila aus die sozialen Medien für uns aufräumen.
       
   DIR Netiquette und Nachrichtenwert: Zu groß, um gelöscht zu werden
       
       Wer auf Twitter droht, hetzt oder zu Gewalt aufruft, muss mit Konsequenzen
       rechnen. Nicht so Donald Trump. Ist das gerecht?