Counterstrategien gegen Hassrede im Netz.

Linke Perspektiven auf gängige Praxen und utopische Möglichkeiten


Von Ellen Wesemüller

„Hassrede betrifft alle“, lautet eine beliebte Catchphrase der No-Hate-Speech-Aktivist*innen. So richtig dieser Aufruf für Empathie und Engagement ist, so falsch ist er in der Sache. Online-Hatespeech betrifft nicht alle. Sie richtet sich gegen diejenigen, die bereits gesellschaftlich benachteiligt sind, sowie gegen diejenigen, die sich solidarisch erklären.

1. Wen trifft Hass? Opfer von Hatespeech

Vorweggenommen: Es gibt nicht viele bundesweite Studien mit repräsentativem Charakter, die die Betroffenheit von Hatespeech untersuchen. Eine der wenigen und ersten wurde 2019 vom Institut für Demokratie und Zivilgesellschaft veröffentlicht.[1] Sie zeigt, dass Hassrede die Macht- und Diskriminierungsstrukturen der Gesellschaft fortsetzt. Während 38 Prozent der Befragten angaben, Hass im Netz wahrgenommen zu haben, war der Wert bei Menschen mit Migrationsgeschichte beispielsweise signifikant höher (48 %). Die Gründe hierfür sind vielfältig. Nicht nur nutzen bestimmte Milieus vermehrt soziale Netzwerke, sie haben aller Wahrscheinlichkeit nach auch eine höhere Sensibilität für das Thema, was mit dem wichtigsten aller Gründe zusammenhängen mag: Sie sind häufiges Ziel von Hassrede. Gefragt, auf welche Gruppen sich Hasskommentare bezogen, antworteten 94 Prozent „auf Menschen mit Migrationshintergrund“, gefolgt von Muslim*innen (93 %), Geflüchteten (93 %), Arbeitslosen (88 %) und Frauen (88 %). Mit Herkunft, sozialer Lage und Geschlecht sind damit die Diskriminierungsstrukturen nachgezeichnet, die auch die Offline-Welt maßgeblich prägen.

Hassrede ist kein in Worte gegossenes Gefühl, sondern eine sprachliche Handlung mit dem Ziel der Abwertung oder Bedrohung von Menschen aufgrund deren – vermuteter oder realer – Zugehörigkeit. Migrationsgeschichte ist eine dieser Zugehörigkeiten, Geschlecht eine andere. Schon das Gutachten zum Zweiten Gleichstellungsbericht sprach 2017 davon, dass „Menschen häufig wegen ihres Geschlechts, ihrer Geschlechtsidentität oder ihrer sexuellen Orientierung von Gewalt, Drohungen, Stalking, Mobbing und Cybersexismus betroffen“[2] sind. Bereits damals wurde gefordert, Plattformbetreiber stärker zur Verantwortung zu ziehen, Betroffene besser zu unterstützen, den Arbeitsschutz von Community-Manager*innen zu verbessern und auch Soloselbstständige in ihrer Arbeit besser zu schützen. Ebenfalls aus 2017 stammt eine Studie von Amnesty International, für die weltweit 4.000 Frauen befragt wurden.[3] Fast ein Viertel der Befragten (23 %) gab an, mindestens einmal Belästigung oder Missbrauch in den sozialen Medien erlebt zu haben. Viele zensierten sich daraufhin selbst: 32 Prozent der Frauen erklärten, dass sie ihre Meinung zu bestimmten Themen nicht mehr veröffentlichten. Einschlägige Handbücher rechtsextremer Online-Aktivisten und Aktivistinnen, z. B. das 2018 veröffentlichte „Handbuch für Medienguerillas“ aus dem Umfeld Reconquista Germanica, empfehlen, mittels Online-Beleidigungen auf die Familie als schwachen Punkt abzuzielen und als „Opfer“ junge Frauen und Studentinnen in den Fokus zu nehmen.[4] Im September 2019 schlossen sich Aktivist*innen und Politiker*innen unter dem Aufruf #NetzOhneGewalt zusammen.[5] Die Unterzeichner*innen konstatierten eine Zunahme verbaler sexualisierter Gewalt im Netz gegen politisch aktive Frauen. Der Veröffentlichung des Appells vorausgegangen war ein Beschluss des Landgerichts Berlin gegen Renate Künast. Das Gericht hatte geurteilt, die Grünen-Politikerin müsse sich heftige sexistische Äußerungen anonymer Facebook-Nutzer*innen gefallen lassen.[6]

Studien[7] zufolge sind Männer sogar häufiger von Hassrede betroffen als Frauen, was auch von Hatern gerne als Argument gegen No-Hate-Speech-Kampagnen ins Feld geführt wird. Dabei unterscheidet sich jedoch nicht nur die geschlechtsspezifische Mediennutzung, sondern auch die Schwere des Angriffs massiv: Während betroffene Männer eher beschimpft und mit Androhungen körperlicher Gewalt eingeschüchtert werden, sind Frauen häufiger von sexualisierter Gewaltandrohung betroffen. Während elf Prozent der Frauen wegen ihres Geschlechts angegriffen werden, gilt das nur für fünf Prozent der Männer. Von welchem Geschlecht Männer häufiger angegriffen wurden, untersuchen die Studien dabei nicht – die These, dass Männer ebenfalls häufiger Opfer von Männern als von Frauen werden, scheint nicht allzu gewagt.

„Klasse“ als Diskriminierungsgrund taucht in den Umfragen kaum auf, vielleicht auch, weil diese Kategorie weder in der Fremd- noch in Selbstwahrnehmung ausreichend präsent ist. Doch auch soziale Ungleichheit reproduziert sich im Netz: Von allen Internet-Milieus sind die mit dem formal niedrigsten Bildungsniveau, nach einer Sinus-Studie von 2018 die „Unbekümmerten“ genannt, am stärksten von tatsächlichen Negativerfahrungen betroffen: Sie wurden im Vergleich am häufigsten im Internet beleidigt (32 %, im Vergleich zu 27 % insgesamt).[8]

Hassrede richtet sich nicht nur gegen gesellschaftlich benachteiligte Personen, sondern auch gegen Menschen, die sich solidarisch mit ihnen erklären oder über diese berichten. Besonders häufig betroffen sind Journalistinnen mit Migrationsgeschichte, bei denen sich der Hass nicht auf die von ihnen veröffentlichten Inhalte, sondern auf ihre (vermeintliche) Herkunft oder Hautfarbe konzentriert. Sind es weiße Männer, arbeiten sich die Hater eher an den Inhalten ab.[9] Dies ist ein Beispiel dafür, wie verschiedene Diskriminierungsformen sich verschränken und einander verstärken können.

Im Mai 2020 veröffentlichte das Institut für interdisziplinäre Konflikt- und Gewaltforschung seine zweite Umfrage unter Medienschaffenden.[10] Das Ergebnis: 59,9 Prozent der befragten Journalist*innen gaben an, in den vergangenen zwölf Monaten mindestens einmal angegriffen worden zu sein. Zum Vergleich: 2017 berichteten lediglich 42,2 Prozent aller Befragten von Angriffen. Die meisten Angriffe fanden in sozialen Netzwerken (60 %) statt, 2017 spielten diese gegenüber den Angriffen „von Angesicht zu Angesicht“ noch eine untergeordnete Rolle (22,1 %). Aus Sicht der Journalist*innen gibt es Themen, die besonders häufig Hass nach sich ziehen. An erster Stelle steht „Migration“, dicht gefolgt von „AfD“ und „Flüchtlinge“. 82 Prozent der Journalist*innen, die selbst angegriffen wurden, vermuten, dass die Angreifer und Angreiferinnen aus dem politisch rechten Milieu stammen.

2. Hater

Die digitale Welt bietet rechtsextremer Propaganda günstige Bedingungen: Inhalte verbreiten sich nicht nur schnell, soziale Netzwerke werden auch als Ort der Rekrutierung und Radikalisierung genutzt. Dabei orientieren sich Rechtsextreme bei der Ausgestaltung ihrer propagandistischen Inhalte an den Medienkonsumgewohnheiten des Publikums und bemühen sich, diese bestmöglich zu bedienen.[11] Zum Beispiel werden Inhalte so aufbereitet, dass rechtsextreme Botschaften mittels nachgeahmter Computerspiele verkündet werden. Anlässlich einer Kommunalwahl in Macerata, Italien, wurde beispielswiese das bei Jugendlichen beliebte Computerspiel „Hitman“ als Grundlage für die Darstellung bzw. Verherrlichung des Rechtsextremisten Luca Traini als Auftragskiller herangezogen. Dieser hatte zuvor mehrere Menschen mit Migrationsgeschichte ermordet.

Im Kern dieser menschenverachtenden Ideologie und der dazugehörigen Propaganda geht es stets um das Narrativ „Gut“ gegen „Böse“, das auch als „Star-Wars-Effekt“ bezeichnet wird.[12] Darüber hinaus nutzen Rechtsextremisten und Rechtsextremistinnen weitere Kommunikationsstrategien, beispielsweise das Hijacking von Hashtags, die Emotionalisierung von Debatten oder die gezielte Verbreitung von Desinformationen.

Rechtsextreme verfolgen auch oft eine klare Medienstrategie. Der Christchurch-Attentäter beispielsweise veröffentlichte vor seiner Tat nicht nur eine politische Erklärung im Netz, er nahm die Morde auch mit einer Kamera auf. Der australische Rechtsterrorist hatte es darauf angelegt, Medien für seine politischen Zwecke zu nutzen. Indem sie über seine Inhalte berichteten, würden sie sie reproduzieren und verbreiten.[13] Auch der antisemitische Attentäter von Halle filmte seinen Amoklauf mit einer Kamera und übertrug dies live auf der bei Gamern beliebten Streaming-Plattform Twitch. Außerdem kursiert im Internet sein rechtsextremes Manifest, in dem er in englischer Sprache seinen Plan und seine Zielgruppen (Muslime, Christen, Kommunisten) beschreibt.

Die fatale Verdrängung von Nutzer*innen aus dem öffentlichen Diskurs („Silencing“) ist vor allem Beleidigungen und Bedrohungen geschuldet. Einschlägige Gruppierungen benutzen diese systematisch, um Nutzer*innen einzuschüchtern, mundtot zu machen und so den Eindruck einer Meinungshoheit zu vermitteln. Wissenschaftliche Studien[14] sowie Zahlen des Innenministeriums[15] belegen, dass dieses gezielte Vorgehen vor allem aus dem rechtsextremen Spektrum kommt: In der 2019 neu geschaffenen Kategorie „Tatmittel Hassposting“ wurden 1.524 Straftaten registriert. Davon wurden 1.108 Delikte dem rechten Spektrum zugeordnet, 199 dem linken. Die Täter und Täterinnen machen sich die Defizite bei der Strafverfolgung hierbei bewusst zunutze. So weisen oben genannte Handbücher darauf hin, dass man sich nicht zu strafrechtlich relevanten Aussagen hinreißen lassen, sondern auf Beleidigungen konzentrieren solle.

3. Strategien gegen Hassrede

Wenn Studien zu Hatespeech die Auswirkungen auf die psychologische Gesundheit der Betroffenen und das demokratische Gefüge untersuchen, ist ihnen gemein, dass sie einen negativen Effekt feststellen: Menschen ziehen sich aus sozialen Netzwerken zurück, Journalist*innen üben Selbstzensur. Aus diesen Gründen engagieren sich seit einigen Jahren Akteure der Zivilgesellschaft gegen Hatespeech und fordern dieses Engagement auch von Politik und Unternehmen ein. Mit einigem Erfolg: So änderte Facebook im Juni 2020 seinen Algorithmus im Kampf gegen Fake News, der nun Primärquellen höher ranken soll.[16] Twitter reagierte im November 2019 mit neuen Funktionen wie dem Ausblenden vermeintlicher Hasskommentare. Seit Mai 2020 besteht die Möglichkeit, gänzlich auf die Kommentarfunktion zu verzichten oder sie erheblich einzuschränken.


1. Zivilgesellschaftliche Counterstrategien

Seit 2016 gründen sich in Deutschland immer mehr Initiativen, um Hass im Netz zu bekämpfen. Die Vernetzungsstelle „Das NETTZ“[17] listet 96 dieser Ansätze, 2018 bis 2019 förderte das Bundesprogramm „Demokratie leben!“ 34 Modellprojekte,[18] die Bundeszentrale für politische Bildung weitere 24.

Exemplarisch soll an dieser Stelle auf die Facebook-Gruppe #ichbinhier eingegangen werden, auf das „No Hate Speech Movement Deutschland“, die Landesmedienanstalt NRW sowie auf „HateAid“. All diese Initiativen bieten jeweils spezifische Ansätze von Counterstrategien, die allerdings auch ihre Schwachstellen haben.

#Ichbinhier

Die Facebook-Gruppe #ichbinhier wurde 2016 von dem Kommunikationsberater Hannes Ley nach dem Vorbild der schwedischen Gruppe #jagärhär gegründet. Gruppenmitglieder identifizieren zunächst (Medien-)Beiträge bzw. Kommentare, die Schmähungen, Beleidigungen, aufhetzende Kommentare, Desinformationen und Falschdarstellungen enthalten. Nachdem diese in der (geschlossenen) Gruppe geteilt wurden, setzen die Mitglieder auf Gegenrede: Sie schreiben selbst sachliche und respektvolle Kommentare und unterstützen entsprechende Beiträge anderer User*innen mit Likes. Dabei wird das Hashtag #ichbinhier verwendet. Die Facebook-Gruppe, die inzwischen einen gemeinnützigen Verein gegründet hat, gilt mit ihren rund 44.700 Mitgliedern und vielfältigen Medienkontakten als Vorreiter auf dem Gebiet der „Many-to-Many“-Kommunikation.

Eine 2019 veröffentlichte Studie des Instituts für Internet und Demokratie der Universität Düsseldorf bestätigt, dass die überwiegend respektvollen und diskursiven Kommentare von #ichbinhier dazu beitragen können, dass „stille Leser*innen“ ein besseres Gesamt-Diskussionsklima wahrnehmen. Dies geschieht vor allem dann, wenn die Kommentare selbst Kriterien wie Respekt und Diskursivität erfüllen. Das ist zwar bei Kommentaren von #ichbinhier-Mitgliedern häufig der Fall. Dennoch konnten in elf Prozent der #ichbinhier-Kommentare Geringschätzungen anderer Personen, Ideologien oder Ideen festgestellt werden.[19]

Diese Strategie ist zweifelsohne sehr zeitaufwendig und wird von vielen #ichbinhier-Mitgliedern als eine Art ehrenamtlicher Vollzeitjob geleistet. Zur Ursprungsidee gehört es zudem, sich mit Hatern auf persönliche Gespräche in Form von Direktnachrichten einzulassen. Minar Dennert, Gründerin von #jagärhär, führt sogar als gelungenes Beispiel ein persönliches Abendessen mit einem ihrer Hater an, der später sogar ein Freund wurde.[20]

No Hate Speech Movement Deutschland

Kontern, und das möglichst mit Humor, ist die Empfehlung und Praxis des ebenfalls bereits 2016 gegründeten No Hate Speech Movements, eine Initiative des Europarats, die der Verein „Neue deutsche Medienmacher*innen“ für Deutschland umsetzt. Wie bei #ichbinhier wird der Gegenrede große Wirkung zugeschrieben – als Ermächtigung der Betroffenen, als Signal für die „stillen Leser*innen“, als Korrektur eines Eindrucks, der Hass als Mehrheitsmeinung erscheinen lässt. Von 2017 bis 2019 fokussierte das Projekt auf Medienschaffende – mit Workshops in Redaktionen, einem Leitfaden und einem Online-Helpdesk, der auf Grundlage konkreter Hatespeech-Aussagen konkrete Formen der Gegenrede vorschlägt.

2018 ließ die Landesmedienanstalt NRW redaktionelle Strategien gegen Hatespeech wissenschaftlich untersuchen – neben großen Medienhäusern war auch der Leitfaden des No Hate Speech Movements Teil der Analyse. Die Autoren kommen zu dem Schluss, dass Humor bzw. Ironie in der Moderation kontraproduktiv ist: Sie stoße auf Unverständnis oder befeure gar die Negativqualität von Kommentaren.[21] Die Strategie der Gegenrede bezeichnen die Autoren als „eine der aufwendigsten“ überhaupt, weil sie eine aktive Kommunikation, hohe Aufmerksamkeit und dynamisches Handeln erfordere. Sie sei zugleich die wichtigste aller Strategien, um dissoziale Diskurse in konstruktive Dialoge zu verwandeln, ohne einzelne Nutzer zu sperren oder Beiträge zu löschen.

Dies war auch der Anspruch des No Hate Speech Movements. Ohne zu sperren oder zu blocken sammelten sich jedoch – zumal bei Twitter – viele Hater in den Kommentarspalten, die potenziellen Gegenredner*innen die „Lust“ nahmen, sich dort aufzuhalten. Geschieht dies, gilt der betreffende Account schnell als „verseucht“. Das Projekt hat seine Aktivitäten in den Social-Media-Kanälen im Januar 2020 eingestellt.

Sowohl #ichbinhier als auch das No Hate Speech Movement setzen auf Diskursverschiebung als Gegenstrategie. Während das ein richtiger und wichtiger Ansatz ist, bleibt die Frage, wer so sprachmächtig ist, dass er diese Strategie einsetzen kann – und wer nicht. Was also, kurz gesagt, Sprachmächtigkeit mit Privilegierung zu tun hat. Außer Acht bleibt zweitens, dass auch das Antworten auf Hassrede diese aufwertet, indem die Replies die Ursprungsposts immer wieder nach oben spülen oder ein Hashtag verbreiten.[22] Eine Reaktion auf Hass, Desinformation und Verschwörung ist immer noch eine Reaktion, die die Hassrede im Algorithmus höher rankt. Außer Acht bleibt drittens, dass Kontern im besten Sinne der „Aufklärung“ nichts nützt, wenn die Medienkompetenz generell abnimmt – konkret können z. B. Informationen „seriöser Medien“ nichts ausrichten, wenn diese bereits als „Lügenpresse“ wahrgenommen werden.

„Verfolgen statt nur löschen“ der Landesmedienanstalt NRW

Die Initiative „Verfolgen statt nur Löschen“ der Landesmedienanstalt NRW vereint seit 2017 Vertreter*innen der Medienaufsicht, Strafverfolgungsbehörden und Medienhäuser. Ziel ist es, Hasskommentare auf den Internetpräsenzen der Medien nicht nur zu löschen, sondern juristisch zu verfolgen, um so ein Zeichen zu setzen gegen Recht- und Rücksichtlosigkeit im Netz. Redaktionen können entsprechende Kommentare an die Medienanstalt bzw. die Staatsanwaltschaft weiterleiten, die dann bei Bedarf die strafrechtliche Verfolgung aufnimmt. Dazu kooperiert das Projekt mit der Zentral- und Ansprechstelle Cybercrime der Staatsanwaltschaft NRW, dem Landeskriminalamt NRW und den Medienhäusern Mediengruppe RTL Deutschland, Rheinische Post, Westdeutscher Rundfunk, Deutsche Welle, Kölner Stadt-Anzeiger und Deutschlandradio. Auch in Hessen sollen – angelehnt an diese Initiative – in der Zentralstelle zur Bekämpfung der Internetkriminalität spezialisierte Staatsanwaltschaften entstehen.[23]

Der Vorteil dieser Initiativen: Hasskommentare werden tatsächlich strafrechtlich beurteilt und gegebenenfalls geahndet, anstatt dass sie einfach verschwinden. Gerade Medienhäusern mit hohem Aufkommen von Hasskommentaren und wenig Personal wird Arbeit abgenommen. Der Nachteil: Die Initiative fokussiert auf strafrechtlich relevante Hatespeech, die den geringsten Anteil ausmacht. Zudem hat es – das Medienecho auf die Initiative ließ anderes vermuten – bisher nicht viele Verurteilungen gegeben (seit Februar 2018 waren es elf Verurteilungen). Die Initiative bleibt zudem auf die Bundesländer beschränkt: Die Last von bundesweit begangenen Hasstaten wird so von Ländern getragen, die besonders engagiert sind. Auch können nicht alle Landesmedienanstalten aktiv werden, z. B. ist die Landesmedienanstalt Sachsen laut sächsischem Landesmediengesetz gar nicht für Telemedien zuständig.

HateAid

Konkrete, persönliche Beleidigungen oder Bedrohungen kann man über eine*n Anwält*in abmahnen. Das geht meist schneller als ein Strafverfahren, und oft reichen die Ansprüche auch weiter und beschränken sich nicht auf die bloße Löschung des betreffenden Posts: Schadensersatz, Schmerzensgeld etc. können so eingeklagt werden. Nur wenige Betroffene gehen jedoch diesen zivilrechtlichen Weg und zeigen Hater an. Laut einer forsa-Befragung von 2020 sind es gerade mal ein Prozent.[24] Noch weniger Menschen ziehen vor Gericht. Die Gründe: Die Prozesse dauern lange, sind aufwendig und vor allem teuer. Anwält*innen müssen bezahlt und Gerichtskosten vorgestreckt werden. Wenn der Prozess verloren wird, müssen auch die Kosten des Täters/der Täterin getragen werden.

Die gemeinnützige GmbH HateAid will Abhilfe schaffen: Sie finanziert eine*n Anwält*in und übernimmt das volle Prozesskostenrisiko. HateAid erstattet Strafanzeigen für Betroffene und hilft bei der Beweissicherung. Das Ganze funktioniert nach dem Solidaritätsprinzip: Wenn HateAid einen Prozess gewinnt, spendet der/die Betroffene seinen/ihren Schadensersatz oder ihr Schmerzensgeld an die Initiative zurück.

Der Vorteil dabei ist, dass es sich mehr Menschen leisten können, Anzeige zu erstatten. Zudem wird Hatespeech juristisch begutachtet und geahndet. Der Nachteil: Es kommt nicht oft zu Verurteilungen. In der juristischen Praxis wird beispielsweise die Meinungsfreiheit gegen das Persönlichkeitsrecht abgewogen – und entgegen anderslautender Mutmaßungen oft höher gewertet. Vor diesem Hintergrund ist davon auszugehen, dass sich das Projekt bisher hauptsächlich nicht durch das Solidaritätsprinzip, sondern durch Spenden und die Förderung seitens des Familienministeriums (Fördervolumen: 137.000 Euro für die zweite Jahreshälfte 2020) und des Justizministeriums (Fördervolumen: rund eine Millionen Euro von 2020 bis 2022) trägt.[25]

2. Staatliche Gegenmaßnahmen

Seit 2017 sind verstärkt staatliche Bemühungen gegen Hatespeech erkennbar, teils aufgrund des Drucks der Zivilgesellschaft, teils weil Politiker*innen selbst vermehrt Zielscheibe von Hass im Netz geworden sind,[26] eine eigene Betroffenheit also zum Handeln führte. Hier soll kurz die Novellierung des NetzDGs betrachtet werden, das „Gesetz gegen Hass und Hetze“, dessen Inkrafttreten sich derzeit wegen verfassungsrechtlicher Bedenken verzögert, sowie das Programm des Familienministeriums „Demokratie leben!“. Erwähnenswert ist, dass die Zuständigkeiten und daher auch Verantwortlichkeiten aller hier beleuchteten Strategien in SPD-geführte Ministerien fallen.

NetzDG

Der damalige SPD-Justizminister Heiko Maas stellte mit dem Netzwerkdurchsetzungsgesetz (NetzDG) Ende 2017 eine Strategie gegen Hassrede vor, Druck auf die Plattformbetreiber auszuüben, damit diese „offensichtlich rechtswidrigen Inhalt“ schneller löschen. Nach Kritik und den ersten „Transparenzberichten“ der Betreiber wurde 2020 ein Gesetzesentwurf zur Änderung des NetzDGs vorgestellt. Die Forderungen vieler Aktivist*innen werden derzeit in der Hoffnung erhoben, dass ihre Kritik noch Einzug in den Gesetzestext hält.

Bei der Novellierung geht es u. a. darum, die Transparenzberichte inhaltlich gehaltvoller und untereinander vergleichbarer zu gestalten. Dies begrüßen auch die Initiativen.[27] So zeigen die jüngsten Transparenzberichte von Juli, dass Facebook im ersten Halbjahr 2020 lediglich 4.292 NetzDG-Beschwerden erhielt, von denen 1.344 zu einer Löschung oder Sperrung von Inhalten führte. Zum Vergleich: Beim wesentlich kleineren Anbieter Twitter waren es im gleichen Zeitraum über 765.000 Beschwerden, die zu einer Löschung von rund 122.000 Posts führten.

Löscht Facebook Hassrede also zu selten? So titelten viele Medien, nachdem das Amt für Justiz im Juli 2019 ein Bußgeld in Höhe von zwei Millionen Euro gegen Facebook erließ. Doch zum einen hat Facebook gegen diese Forderung Widerspruch eingelegt – ob sie rechtens war ist heute, eineinhalb Jahre später, immer noch nicht geklärt. Zum anderen wurde Facebook bei genauem Hinsehen dafür bestraft, dass es die meisten Hasspostings bereits nach eigenen Guidelines und nicht nach NetzDG löscht. Dadurch entstehe in der Öffentlichkeit ein verzerrtes Bild, so das Amt.[28] Ob das NetzDG dazu geführt hat, dass Facebook Hatespeech schneller oder konsequenter löscht, lässt sich so überhaupt nicht feststellen.

Richtig ist, dass milliardenschwere Unternehmen in die Pflicht genommen werden, sich an deutsches Strafrecht zu halten und bei Verstößen aktiv zu werden. Das Grundproblem aber bleibt, dass die Rechtsprechung in einem so sensiblen Bereich wie der Meinungsäußerung de facto an Unternehmen ausgelagert wird. Zwar ist dies formal nicht der Fall, weil das Unternehmen kein Recht spricht, sondern „nur“ löscht. Allerdings ist es in der Wirkung dasselbe: Der Post steht nicht mehr da.[29] Doch was „offensichtlich rechtswidriger Inhalt“ ist, kann letztendlich nur ein*e Richter*in entscheiden. Auf das Dilemma des Staates, den Unternehmen mit dem Versuch, diese stärker in die Verantwortung zu nehmen, gleichzeitig noch mehr (politische, de facto rechtssprechende, diskursgebende) Macht zuzuschreiben, wird später noch näher eingegangen.[30]

Die grundsätzliche Frage bleibt, ob gelöschte Inhalte zu weniger Hatespeech führen oder nur zu mehr – wegen der schieren Masse teilautomatisierten – Löschungen, was weder etwas an der Motivation der Plattformbetreiber noch der Hater ändert, weil es keine (strafrechtlichen oder wirtschaftlichen[31]) Konsequenzen gibt. Hieran soll u. a. das „Gesetz gegen Hass und Hetze“ etwas ändern.

Gesetz gegen Hass und Hetze

Im vergangenen Jahr wurden einige Aufrufe[32] laut, die verstärkte Anstrengungen im Kampf gegen Hassrede vor allem vom Justizministerium forderten. Einige dieser Forderungen mündeten in einem Gesetzesentwurf der neuen SPD-Justizministerin Christine Lamprecht, der im Juni 2020 vom Parlament beschlossen wurde. Das „Gesetz gegen Hass und Hetze“ setzt repressive Schwerpunkte: Ausweitung der Straftatbestände, höhere Strafmaße, Ausweitung der Befugnisse der Ermittlungsbehörden. Eine wichtige Forderung, auf die das Gesetz eingeht, ist die Änderung des Melderechts: Betroffene können künftig leichter eine Auskunftssperre im Melderegister eintragen lassen, vor allem Personen, die aufgrund beruflicher oder ehrenamtlicher Tätigkeit vermehrt Hatespeech ausgesetzt sind.

Allerdings verweigert der Bundespräsident dem Gesetz derzeit seine Unterschrift. Auch die Grünen sowie der Wissenschaftliche Dienst des Bundestages halten das Gesetz für verfassungswidrig. Kernproblem ist, dass der Forderung vieler Betroffener nach Justiziabilität dergestalt nachgekommen werden soll, dass die Plattformbetreiber dem BKA die Nutzerdaten aller in Frage kommenden Posts melden. Der Abruf solcher Informationen wie Name, Anschrift oder Geburtsdatum bedeutet jedoch einen Eingriff in die Grundrechte, der gerechtfertigt sein muss. Im Gesetz werden zwar Straftatbestände aufgezählt, aber keine konkreten Gefahren. Erlaubt ist eine solche Datenweitergabe aber nur dann, wenn ein bestimmtes Verhalten über sein Rechtswidrigkeit hinaus in besonderer Weise sozialschädlich und für das geordnete Zusammenleben der Menschen unerträglich, seine Verhinderung daher besonders dringlich ist.

Akteur*innen der No-Hate-Speech-Bewegung bezeichneten die Änderung des Bundeskriminalgesetzes in einer ersten Stellungnahme noch als „folgerichtig und notwendig“, sie forderten darüber hinaus sogar, weitere Straftatbestände zu berücksichtigen.[33] In einer zweiten Stellungnahme, am Tag des Parlamentsbeschlusses, kritisieren sie nun die „flächendeckende Speicherung personenbezogener Daten“ „scharf“ und befürchten eine „Verdachtsdatenbank“.[34] Sie schlagen vor, dass die Nutzer*innendaten bei den Providern bleiben, bis sich der Anfangsverdacht einer Staatsanwaltschaft bestätigt hat.

Sicherlich ist es nicht an den Initiativen, immer zeitgenau und juristisch kenntnisreich Gesetzesvorhaben zu kommentieren. Was dieses Beispiel jedoch u. a. illustriert, ist die Krux, eine bessere Strafverfolgung zu fordern, ohne den Ermittlungsbehörden mehr Macht und dem Datenschutz weniger Gewicht zu geben.

„Demokratie leben!“

Nachdem das Bundesprogramm 34 Modellprojekte gegen Hatespeech im eigens geschaffenen Bereich „Hass im Netz“ zwei Jahre förderte, wurde dieser Schwerpunkt 2020 abgeschafft mit der informellen Begründung, das Thema solle fortan „Querschnittsaufgabe“ werden. Viele Modellprojekte nicht nur dieses Bereichs erhielten eine Ablehnung ihres Förderantrags. Die betroffenen Initiativen schrieben einen offenen Brief an SPD-Familienministerin Franziska Giffey.[35] Sie forderten u. a. eine Aufstockung der Mittel von 115 auf 200 Millionen Euro für alle Modellprojekte. Für den größten und für viele Organisationen einzigen staatlichen Fördertopf zivilgesellschaftlicher Arbeit gegen Rechtsextremismus, Menschenfeindlichkeit und Demokratieförderung, schien das nicht zu viel verlangt. Doch weit gefehlt. Eine geplante Kürzung des Programms um acht Millionen Euro hatte Giffey zwar kurz vor der Veröffentlichung der Kritik abgewendet: Sie verkaufte es als Erfolg, dass das Programm lediglich genauso wie 2019 ausgestattet wurde (115 Millionen Euro), und konnte dieses Niveau auch nur für das Jahr 2020 zusichern. Innerhalb des Programms wurde das Geld bei Modellprojekten gekürzt, für Kommunen als Projektträger aufgestockt, was u. a. die Frage aufwirft, wie mit Kommunen umgegangen wird, die bereits starke rechtsextreme Tendenzen in der Lokalpolitik aufweisen. Die Initiativen fordern zudem langfristig eine Abkehr der Modellprojektförderung, sodass gutlaufende Projekte nicht eingestellt werden müssen. Die SPD verweist an dieser Stelle auf den Koalitionspartner als Buhmann und Bremser eines Demokratiefördergesetzes, welches dies ermöglichen würde. Wie genau Giffey sich für ein solches „einsetzt“, wie sie betont, muss sie jedoch erst noch zeigen.

4. Über das Bestehende hinaus?

Linke und radikale, über das Bestehende hinausweisende Forderungen oder Strategien zum Umgang mit Hatespeech gibt es wenige. Das liegt zum Teil an der grundlegenden Skepsis, mit der viele Linke sozialen Netzwerken begegnen,[36] zum Teil an der Involviertheit in Gesetzesvorhaben[37] und die Angewiesenheit auf Fördergelder seitens zivilgesellschaftlicher Organisationen. Dies führt u. a. dazu, dass das Verständnis der Funktionsweise der Plattformbetreiber – sowohl als Firmen[38] als auch als politische Institutionen – erst am Anfang steht. Das ist nicht nur der Linken anzulasten: Auch die Unternehmen selbst sowie die staatlichen Akteure zögern, die politische Macht der Plattformen zu anzuerkennen. Würde man diese Unternehmen als eine Art fünfte Gewalt ansehen,[39] läge es vielleicht näher, radikalere Forderungen zu stellen.

So bleibt es Satiriker (und SPD-Mitglied) Jan Böhmermann überlassen, die „Enteignung“ bzw. „Vergesellschaftung“ von Facebook und Google zu fordern.[40] Anders als die anderen vier Gewalten ist diese jedoch nicht national, sondern global organisiert. Wie schwierig allein eine kapitalistische „Nationalisierung“ von Plattformen ist, beweist derzeit die Übernahme von TikTok in den USA.

Der Kulturwissenschaftler und Publizist Michael Seemann schlägt hingegen vor, dass der Staat eine eigene, digitale Infrastruktur ins Werk setzt und auf lange Sicht selbst zum Plattformbetreiber wird.[41] Plattformen hingegen müssten sich von den politischen Institutionen Ansätze von Gewaltenteilung „abschauen“, sowie Transparenz und Einspruchsvermögen. Eine radikale Forderung in diesem Zusammenhang ist die der zivilgesellschaftlichen Initiativen, Einblicke in die Content-Moderationssysteme als Ganzes, die einzelnen algorithmenbasierten Entscheidungsprozesse sowie die praktische Umsetzung der Moderationsrichtlinien zu bekommen.[42] Dies ist zwar eine unrealistische Forderung, da die gesamte Macht der Plattformbetreiber darauf beruht, dass nur sie selbst die zentralen Mechanismen des Ausschlusses kennen. Allerdings ist es eine, die über das Bestehende hinausweisen würde, da die Macht damit gebrochen wäre.[43]

Ein grundlegendes Problem ist, dass Hassrede das Geschäftsmodell der sozialen Netzwerke ist. Die Netzwerke „propagieren Inhalte, die die stärksten Reaktionen hervorrufen: Hass, Desinformation und Verschwörungstheorien“, so der Wegbereiter von Google, Tristan Harris, in einem Interview mit der Süddeutschen Zeitung. Harris fordert als Konsequenz, die algorithmische Verstärkung nicht nur offenzulegen, sondern gleich komplett abzuschaffen. Stattdessen sollen Posts lediglich nach Themen und Veröffentlichungszeitpunkten angezeigt werden.[44] Dieser Mechanismus könne nur von außen forciert werden, so Harris. Letztendlich plädiert er damit für eine staatliche bzw. überstaatliche Regulierung.

Schließlich ist eine linke Strategie auch immer eine internationale und solidarische. Genau dies ist mit der Forderung an Staat und Unternehmen, mehr zu löschen, nicht der Fall. So bleibt auf der Diskursebene stecken, was auch und gerade im Digitalen reale Arbeitsverhältnisse widerspiegelt, die – wie andere kapitalistische Arbeitsverhältnisse auch – ausgelagert werden[45], prekär bezahlt sind und desto schneller in den globalen Süden wandern, je schmutziger sie sind.

Besonders anschaulich wurde dies in dem 2018 veröffentlichten Film „The Cleaners“. Denn die Forderung an Facebook und Google, einen Post doch bitte zu löschen, richtet sich nur formal an ein Unternehmen, das nicht alles selbst löscht. Wie andere Drecksarbeit auch, wird diese Tätigkeit neben künstlicher Intelligenz an Subunternehmen und Dienstleister ausgelagert, teils in den Globalen Süden. So erzählt der Film von Menschen in Manila, die sich rund um die Uhr Enthauptungsvideos auf YouTube anschauen müssen, um sich eine etwas bessere Hütte an einem etwas besseren Standort innerhalb des Slums leisten zu können. Unter der Last des Gesehenen kommt es zu Persönlichkeitsveränderungen, manche bringen sich sogar um.

Eine Strategie gegen Hass wäre, auch diese Auswirkungen der eigenen Forderungen mit in Betracht zu ziehen, mindestens Arbeitsbedingungen zu kritisieren,[46] besser aber noch Solidaritätskampagnen zu organisieren, den Austausch voranzubringen, Reisen zu ermöglichen und Geld zu sammeln.

-------------------------------

Literaturempfehlungen:

www.no-hate-speech.de

https://helpdesk.neuemedienmacher.de/

---------------

[1] Institut für Demokratie und Zivilgesellschaft (2019): Hass im Netz. Der schleichende Angriff, unter: https://www.idz-jena.de/fileadmin/user_upload/_Hass_im_Netz_-_Der_schleichende_Angriff.pdf. Dabei muss berücksichtigt werden, dass jede Studie über Betroffenheit eine über die Selbstwahrnehmung von Betroffenheit ist – auch, weil es keine juristische Kategorie „Hatespeech“ gibt.

[2] Sachverständigengutachten zum Zweiten Gleichstellungsbericht (2017), unter: https://www.gleichstellungsbericht.de/gutachten2gleichstellungsbericht.pdf

[3] Amnesty International Österreich (2018): Toxic Twitter. A toxic place for women, unter: https://www.amnesty.org/en/latest/research/2018/03/online-violence-against-women-chapter-1/

[4] Handbuch für Medienguerillas (2018), zitiert nach https://www.hogesatzbau.de/wp-content/uploads/2018/01/HANDBUCH-F%C3%9CR-MEDIENGUERILLAS.pdf. Darin heißt es u. a. „Meistens handelt es sich bei den corporate Twitter- oder Facebook-Accounts um junge Frauen, die direkt von der Uni kommen. Das sind klassische Opfer und nicht gewöhnt einzustecken. Die kann man eigentlich immer ziemlich einfach auseinandernehmen.“ Sowie ebd.: „Und da ziehe jedes Register. Lass nichts aus. Schwacher Punkt ist oftmals die Familie.“

[5] Netz ohne Gewalt. Gegen den Rollback im Netz – Digitale Gewalt geht uns alle an! (2018), unter: https://netzohnegewalt.org/

[6] Das Berliner Kammergericht sah dies anders und beurteilte im März 2020 einige Äußerungen als Beleidigungen. Es wertete diese auch als eine Form der „Frauenverachtung“, nahm also Bezug auf gruppenbezogene Menschenfeindlichkeit.

[7] Z. B. Duggan, M. (2017): Online Harassment 2017, unter: https://www.pewresearch.org/internet/2017/07/11/online-harassment-2017/, IDZ (2019) a.a.O.

[8] DIVISI U25-Studie 2018: Euphorie war gestern. Die „Generation Internet“ zwischen Glück und Abhängigkeit, unter: https://www.divsi.de/wp-content/uploads/2018/11/DIVSI-U25-Studie-euphorie.pdf, S. 49. Zum Zusammenhang zwischen digitalen Kompetenzen und Bildungsungleichheit siehe auch: Reinhardt, M. (2018): Digitale Revolution. Eine Kritik, spw 6/2018, S.34-40.

[9] Siehe z. B. No Hate Speech Movement (2018): Wetterfest durch den Shitstorm, unter: https://youtu.be/QEYMaS_GKL0

[10] Institut für interdisziplinäre Konflikt- und Gewaltforschung (2020): Studie Hass und Angriffe auf Medienschaffende, unter: https://mediendienst-integration.de/fileadmin/Dateien/Studie_Hass_und_Angriffe_auf_Medienschaffende.pdf. Dabei handelt es sich nicht um eine repräsentative Studie: Die 322 Antwortenden haben freiwillig und nicht selektiv am Fragebogen teilgenommen. Es ist anzunehmen, dass insbesondere jene Medienschaffenden an den Studien teilgenommen haben, die sich in besonderem Ausmaß mit der Thematik auseinandergesetzt haben oder maßgeblich selbst von Hass und Angriffen betroffen sind. Auch ist mit „Angriff“ nicht ausschließlich Online-Hatespeech gemeint.

[11] Jugendschutz.net (2019): Lagebericht Rechtsextremismus im Netz, unter: https://www.jugendschutz.net/fileadmin/download/pdf/Bericht_2018_2019_Rechtsextremismus_im_Netz.pdf

[12] Ebner, J. (2018): Wut, Theiss Verlag: Darmstadt.

[13] Deutschlandfunk Kultur (16.03.2019): Terror in Christchurch. Vom Troll zum Terroristen?, unter: https://www. deutschlandfunkkultur.de/ terror-in-christchurch-vom- troll-zum-terrorist.1264. de.html?dram:article_ id=443756

[14] Davey, J./ Ebner, J. (2017): The Fringe Insurgency: Connectivity, Convergence and Mainstreaming of the Extreme Right, unter: https://www.isdglobal.org/wp-content/uploads/2017/10/The-Fringe-Insurgency-221017.pdf

[15] Bundesministerium des Inneren, für Bau und Heimat (2020): Politisch motivierte Kriminalität im Jahr 2019, unter: https://www.bmi.bund.de/SharedDocs/downloads/DE/veroeffentlichungen/2020/pmk-2019.pdf;jsessionid=CDA2B6E8822197F2523D7F627239D9DA.1_cid287?__blob=publicationFile&v=11

[16] Was unter Primärquellen (I. O.: „original sources“) in Bezug auf journalistische Artikel zu verstehen ist, sei komplex und werde mit Herausgeber*innen und Wissenschaftler*innen noch genauer definiert, so Facebook. Facebook (30.06.2020): Prioritizing Original News Reporting on Facebook, unter: https://about.fb.com/news/2020/06/prioritizing-original-news-reporting-on-facebook/

[17] Das NETTZ ist Teil der gemeinnützigen Aktiengesellschaft gut.org, das auch Deutschlands größte Onlinespendenplattform betterplace.org betreibt. https://www.das-nettz.de/.

[18] https://www.demokratie-leben.de/modellprojekte/staerkung-des-engagements-im-netz-gegen-hass-im-netz.html

[19] Ziegele, M. et al (2019): Aufräumen im Trollhaus. Zum Einfluss von Community-Managern und Aktionsgruppen in Kommentarspalten, unter: https://diid.hhu.de/wp-content/uploads/2019/04/DIID-Precis_Ziegele_V3.pdf

[20] So Dennert auf der parlamentarischen Konferenz „Strategien gegen Hate Speech“ am 14.10.2019 im Bundestag.

[21] Kramp, L./ Weichert, S. (2018): Hass im Netz. Steuerungsstrategien für Redaktionen. Vistas Verlag: Leipzig.

[22] So trugen Accounts aus dem mitte-links Spektrum wie die heute-show und seine Follower*innen gleichermaßen wie rechte Accounts zur Verbreitung des #KiKaGate-Shitstroms bei, aus dem einfachen Grund, dass sie darüber berichteten und den Hashtag teilten. (Auswertung des Social-Media-Analysten Luca Hammer im Auftrag des No Hate Speech Movements).

[23] Als Reaktion auf eine Kampagne von Campact mit breiter Bürger*innen-Beteiligung wurde in Hessen der Kampf gegen Hatespeech 2018 in den Koalitionsvertrag aufgenommen.

[24] Forsa-Befragung (2020): Hate Speech 2020, unter: https://www.medienanstalt-nrw.de/fileadmin/user_upload/NeueWebsite_0120/Themen/Hass/forsa_LFMNRW_Hassrede2020_Ergebnisbericht.pdf

[25] https://hateaid.org/finanzierung/

[26] So kann der Mord am Kasseler Regierungspräsidenten Walter Lübcke (CDU) im Juni 2019 sicherlich als „Weckruf“ für viele Politiker*innen gelten.

[27] So z.B.: Offener Brief aus der Zivilgesellschaft (18.06.2020), unter: https://no-hate-speech.de/de/video/neues/offener-brief-aus-der-zivilgesellschaft/

[28] Bundesamt für Justiz (03.07.2019): Bundesamt für Justiz erlässt Bußgeldbescheid gegen Facebook, unter: https://www.bundesjustizamt.de/DE/Presse/Archiv/2019/20190702.html

[29] Der lexikalische Verweis der No-Hate-Speech-Aktivist*innen darauf, dass dies keine Zensur sei, da Zensur nur vom Staate ausgeht, verkennt die tatsächlichen Machtverhältnisse. Siehe auch: Bommarius, C. (2019): Die neue Zensur. Wie wir selbst unsere Meinungsfreiheit bedrohen. Berlin: Dudenverlag.

[30] Wie Kulturwissenschaftler und Publizist Michael Seemann schreibt, gibt der Staat so Rechtssprechungs- und Rechtsdurchsetzungskompetenz an die Plattformen ab. Dies sei einerseits sinnvoll, da diese durch ihre Netzwerkmacht, Kontrolle über den Zugang und tiefe, datenreiche Einsichten logische Ansprechpartner für die Regulierung seien. Es sei aber andererseits fatal, weil der Staat damit das Regime der Plattformen stärkt und sich so in die Abhängigkeit eines Systemkonkurrenten begibt. (Seemann, M. 2017: Was ist Plattformpolitik? Grundzüge einer neuen Form der politischen Macht. In: spw 6/2017, 44-49)

[31] Tatsächlich werden Facebook und andere wegen des Mehraufwands des NetzDGs kompensiert – im Zuge des „fairen Wettbewerbs“ mit anderen Betreibern, die nicht unter das Gesetz fallen.

[32] Neben dem oben bereits erwähnten Aufruf „#netzohnegewalt“ war dies vor allem der Aufruf „Schützt die Pressefreiheit“ (15.11.2019), unter: https://dju.verdi.de/ueber-uns/nachrichten/++co++5f9dcd66-077c-11ea-b960-001a4a160100

[33] Stellungnahme aus der Zivilgesellschaft (17.01.2020), unter: https://no-hate-speech.de/fileadmin/user_upload/Statement-aus-der-Zivilgesellschaft-zu-Novelle-NetzDG-Telemediengesetz_Strafrecht_final_17.01.2020.pdf

[34] Offener Brief aus der Zivilgesellschaft (2020), a.a.O.

[35] Offener Brief an Franziska Giffey (18.10.2019), unter: http://www.demokratie-mobilisieren.de

[36] Das mag am ambivalenten Verhältnis zu neuen Technologien liegen, an der Kritik der Kommerzialisierung, der Angst vor staatlicher Überwachung, der Ablehnung, persönliche Daten freizugeben, ohne die viele Plattformen nicht funktionieren. Auch das Influencertum, die digitale Selbstinszenierung, widerspricht dem linken Selbstverständnis vieler. Siehe auch Interview mit Kathrin Ganz (2017): „Nicht ständig auf die Grenzüberschreitungen und Provokationen von rechter Seite reagieren.“ In: spw 6/2007, 24-28.

[37] So lud das Justizministerium zwischen 2015 und 2017 sieben Mal zum Treffen der „Taskforce“ ein, eine Zusammenkunft u. a. zivilgesellschaftlicher Organisationen, um das NetzDG zu diskutieren, zwischen 2018 und 2019 dreimal zum Nachfolgetreffen „Zukunftsdialoge“.

[38] So sind die Unternehmen sehr unterschiedlich aufgestellt: Google (mit YouTube) ist der Big Player unter den sozialen Netzwerken, mit laut Bundesanzeiger 2018 durchschnittlich 1.215 Angestellten in Berlin und Hamburg. Die Mitarbeiter*innen arbeiten politisch und strategisch klug daran, auch die Zivilgesellschaft einzubinden, z. B. mit der Kampagne #NichtEgal. Der Umsatz von Google Deutschland liegt bei 544 Millionen Euro im Jahr. Auch Facebook (mit Instagram) ist in Deutschland einigermaßen groß, hier arbeiteten 2018 durchschnittlich 134 Mitarbeiter*innen. Facebook bemüht sich ebenso um zivilgesellschaftliche Initiativen, wie bei der Online Civil Courage Initiative, die u. a. die Amadeu Antonio Stiftung und das No Hate Speech Movement einbindet. Der Umsatz in Deutschland liegt bei 434 Millionen Euro im Jahr. Twitter hingegen ist, entgegen der empfundenen Wirkmächtigkeit, sehr klein. 2018 machte das Hamburger Büro dicht, nun arbeiten bei Twitter Deutschland – laut Bundesanzeiger – durchschnittlich sieben Mitarbeiter*innen, aus Coworking-Spaces oder dem Homeoffice.

[39] Vgl. Seemann, a.a.O., 44.

[40] Böhmermann, J. [@janboehm] (06.05.2020): Google zerschlagen! Youtube vergesellschaften! Facebook enteignen! [Tweet]. Twitter. https://twitter.com/janboehm/status/1258084623835332609?s=20

[41] Vgl. Seemann, a.a.O., 49.

[42] Vgl. Offener Brief vom No Hate Speech Movement u.a 2020, a.a.O.

[43] Problematisch allerdings ist, dass die Initiativen den Zugang zu diesem Wissen nur für sich selbst fordern, damit Hater nicht ebenfalls bessere Strategien entwickeln, um den Algorithmus zu umgehen..

[44] Interview mit Tristan Harris (15.09.2020) In: Süddeutsche Zeitung

[45] So arbeiteten für Facebook im ersten Halbjahr 2020 13 Mitarbeiter von Partnerunternehmen an der Löschung nach NetzDG. Sie sind Angestellte des Dienstleistungsunternehmens Majorel, an dem Bertelmann die Hälfte der Anteile besitzt.

[46] Wölbert, C. (01.01.2020): Verdi kritisiert prekäre Arbeitsbedingungen in Facebooks Lösch-Teams, unter: https://www.heise.de/newsticker/meldung/Verdi-kritisiert-prekaere-Arbeitsbedingungen-in-Facebooks-Loesch-Team-4625096.html