# taz.de -- Regeln für Facebook-Beiträge: Hätte, hätte, Nettiquette
       
       > Nach welchen Kriterien Zuckerbergs Netzwerk Beiträge löscht, war bisher
       > unklar. Einen Eindruck liefern jetzt interne Schulungsdokumente.
       
 (IMG) Bild: Besser mal wegradieren? Facebook schult seine Mitarbeiter im Löschen
       
       Tipps geben, wie man Frauen das Genick bricht: Kein Problem! Jedenfalls
       wenn es um keine konkrete Frau aus Politik und Medien geht. So
       unterscheidet Facebook zwischen Beiträgen, die gelöscht werden müssen, und
       solchen, die stehen bleiben dürfen – glaubt man internen
       Schulungsunterlagen des Social-Media-Konzerns, die [1][der britische
       Guardian veröffentlicht hat].
       
       Facebook hat in den letzten Jahren dem Druck aus Politik und Gesellschaft
       nachgegeben und zumindest versprochen, Hass und verbale Gewalt schneller
       und gründlicher zu entfernen. Bisher war allerdings nicht klar, nach
       welchen Richtlinien Facebook Hassposts oder Gewaltaufrufe entfernt.
       
       Bei den geleakten Dokumenten handelt es sich um [2][Schulungsunterlagen],
       mit denen Facebook seinen ModeratorInnen beibringt, welche Beiträge zu
       entfernen und welche zu ignorieren sind. Der Konzern unterscheidet dabei
       offenkundig zwischen Äußerungen, die „zu Schaden in der realen Welt“
       führen, und solchen, die das aus Sicht von Facebook nicht tun.
       
       So sollen ModeratorInnen etwa Gewaltandrohungen stehen lassen, die
       unrealistisch sind oder sich gegen abstrakte Gruppen richten – es sei denn,
       diese Gruppen seien besonders „vulnerabel“. Als solche Gruppen definiert
       Facebook etwa „Zionisten“ und, bezogen auf die Philippinen, Drogendealer.
       
       Gewaltaufrufe gegen Personen des öffentlichen Lebens wiederum sollen
       entfernt werden, weil in diesem Fall die Wahrscheinlichkeit höher sei, dass
       diese tatsächlich umgesetzt werden.
       
       ## Diskurs der Gewalt vs. Meinungsfreiheit
       
       Konkret heißt das: Ein Post, der beschreibt, wie man am besten „einer
       Schlampe das Genick bricht“, kann stehen bleiben, weil der Gewaltaufruf
       einerseits zu abstrakt ist und sich andererseits an eine nicht als
       „vulnerabel“ definierte Gruppe richtet. Dasselbe gilt laut Schulungsfolien
       für Gewaltaufrufe gegen Rothaarige oder dicke Kinder.
       
       Wer allerdings zum Töten von Donald Trump oder Hillary Clinton aufruft,
       dessen Post wird entfernt und das Profil unter Umständen gesperrt. Dasselbe
       gilt für Gewaltandrohungen, die sich gegen Privatpersonen richten und
       realistisch und konkret formuliert sind. Heißt: Der Wunsch, jemand möge
       sterben, geht durch. Ist allerdings von einer konkreten Tatwaffe die Rede,
       wird der Post gelöscht.
       
       Auch zum Umgang mit der Darstellung von [3][Kindesmisshandlung] gibt
       Facebook Richtlinien vor: Bilder, in denen Kinder misshandelt werden,
       bleiben erhalten, um zu ermöglichen, dass das Kind „identifiziert und
       gerettet“ werden könne – das gilt jedoch nicht, wenn das Bild in einer
       Weise kommentiert wird, die die Misshandlung rechtfertigt oder
       glorifiziert.
       
       Die Richtlinien unterscheiden also zwischen Äußerungen, von denen Facebook
       annimmt, dass sie unmittelbar zu Gewalt im echten Leben führen. Äußerungen,
       die eher mittelbar zu einem Diskurs der Gewalt gegen bestimmte Gruppen
       beitragen, fallen für Facebook unter die Meinungsfreiheit.
       
       ## Intransparent und undemokratisch
       
       Das zeigt, dass es dem Konzern vor allem darum geht zu verhindern, dass
       Gewaltverbrechen passieren, die sich klar mit Inhalten auf Facebook in
       Verbindung bringen lassen. Ein Mord etwa, zu dem kurz zuvor auf Facebook
       aufgerufen wurde, könnte dem Netzwerk einen erheblichen Imageschaden
       einbringen.
       
       Zum anderen zeigen die Richtlinien, dass Facebook als Richterinstanz über
       freie Meinung einerseits und gefährliche Hasskommentare andererseits
       überfordert ist. Was etwa eine „vulnerable Gruppe“ ist oder welche Form der
       Mordandrohung realistisch ist, variiert je nachdem, wo sich die VerfasserIn
       befindet und wo der Post gelesen wird.
       
       Facebook definiert einen kleinsten gemeinsamen Nenner aus dem, was global
       unter „Hate Speech“ verstanden wird, und versucht daraus allgemeine Regeln
       abzuleiten. Dieser Prozess ist intransparent und undemokratisch. Dazu
       kommt: In all den Fällen, die nicht zufällig in den Schulungsunterlagen
       stehen, müssen die ModeratorInnen offenbar selbst entscheiden – und damit
       liegt die Verantwortung bei den Falschen.
       
       22 May 2017
       
       ## LINKS
       
 (DIR) [1] https://www.theguardian.com/news/2017/may/21/revealed-facebook-internal-rulebook-sex-terrorism-violence
 (DIR) [2] https://www.theguardian.com/news/gallery/2017/may/21/facebooks-manual-on-credible-threats-of-violence
 (DIR) [3] https://www.theguardian.com/news/gallery/2017/may/21/facebooks-internal-manual-on-non-sexual-child-abuse-content
       
       ## AUTOREN
       
 (DIR) Peter Weissenburger
       
       ## TAGS
       
 (DIR) Schwerpunkt Meta
 (DIR) Hate Speech
 (DIR) Zensur
 (DIR) Identitäre
 (DIR) Türkei
 (DIR) China
 (DIR) Der Zuckerberg
 (DIR) Schwerpunkt Rassismus
 (DIR) Internet
 (DIR) Schwerpunkt Überwachung
 (DIR) Schwerpunkt Meta
 (DIR) Hasskommentare
 (DIR) Fake News
 (DIR) Sascha Lobo
 (DIR) Tschechien
 (DIR) taz.gazete
       
       ## ARTIKEL ZUM THEMA
       
 (DIR) Klage gegen Sperrung von Aktivistin: Facebooks Problem mit „Vollpfosten“
       
       Eine Aktivistin setzte auf Facebook Identitäre und „Vollpfosten“ in
       Zusammenhang und wurde für 30 Tage gesperrt. Nun klagt sie dagegen.
       
 (DIR) Kerem Schamberger und Facebook: Das Rätsel um die verlorenen Follower
       
       Facebook erklärt den mysteriösen Followerschwund auf der Seite des linken
       Aktivisten mit deaktivierten Accounts. Das wirft neue Fragen auf.
       
 (DIR) China zensiert Pu den Bären: Ein Bärendienst
       
       Der chinesische Zensurapparat findet Pu den Bären nicht so niedlich. In den
       sozialen Medien wird er als gefährlicher Inhalt eingestuft.
       
 (DIR) taz-Serie Der Zuckerberg | Teil 3: Liebe und Hass
       
       So wie die Fifa das Fairplay versucht bei Facebook immer wieder der
       Humorlose den Humor zu erklären. Das ist die Beerdigung des Witzes.
       
 (DIR) taz-Serie Der Zuckerberg | Teil 2: „Freunde“ von „Freunden“
       
       Alte „Ausländer raus“-Lieder in frischer Tonart. Braune Worthülsen
       everywhere. Was geht denn in der Facebook-Gemeinde unseres Autors ab?
       
 (DIR) Kolumne Lügenleser: „Slow Food“-Menü für den Alltag
       
       Der neueste Trend? Entschleunigung. Unser Kolumnist hat ihn getestet. Das
       Internet ist an ihm vorübergerauscht und er hat nichts verpasst.
       
 (DIR) Gesetz gegen Hate Speech im Netz: Ein Minister macht sich Feinde
       
       Facebook, Journalisten und Netzaktivisten vereinen sich zum Widerstand
       gegen Heiko Maas. Dem könnte diese Melange zum Verhängnis werden.
       
 (DIR) Kommentar Hetze in sozialen Medien: Eine Welt ohne Facebook ist möglich
       
       Ein Milliardenkonzern wie Facebook schafft es nicht, die Inhalte im
       Netzwerk vernünftig zu moderieren. Wie wäre es mit ein bisschen weniger
       Gewinn?
       
 (DIR) Streit um Hass-Kommentare bei Facebook: „Ich war's nicht“
       
       Unter dem Facebook-Profil von Eduard S. wurde ein Mord gebilligt. Die taz
       berichtete, S. klagte. Ein neues Gesetz soll Hass im Netz eindämmen.
       
 (DIR) „Fake News“ und Bundestagswahlkampf: Löschen, auflisten, checken
       
       Netzwerkdurchsetzungsgesetz, „East StratCom“, „Faktenfinder“, „ZDFcheck“:
       Politik und Medien sind im Anti-Fake-News-Rausch.
       
 (DIR) Sascha Lobo zu Netzdurchsetzungsgesetz: „Ich suche die echte Debatte“
       
       Am Freitag debattiert der Bundestag über einen Gesetzentwurf von Heiko
       Maas. Netzwerke sollen Hetze schneller löschen. Sascha Lobo will mehr
       Dialog.
       
 (DIR) Korruption und Medien in Tschechien: Maulkorb für die Presse
       
       Medien sollen Informationen über einen Korruptionsfall aus dem Netz nehmen.
       In den Artikeln geht es um Fördergeld im tschechischen Sport.
       
 (DIR) Karikaturzeitschriften in der Türkei: Lachen im Ausnahmezustand
       
       Satire ist in der Türkei eine beliebte Form, Politik indirekt zu
       kritisieren. Doch Karikaturist*innen kämpfen mit Repressionen und sinkenden
       Auflagen.