"Keine Brüste" geht als Facebook-Richtlinie, "Keine Witze mit toten Kindern" offenbar nicht. Das Internet birst aktuell vor Hass, vor allem vor rassistischem und rechtsextremem Hass. Manches davon ist ein Fall für die Strafverfolgung. Manches könnte in die Zuständigkeit der Internet-Unternehmen wie Facebook, Twitter und YouTube fallen. Anderes muss eine demokratische Zivilgesellschaft beantworten. Doch aktuell geht der Trend zum "Schwarze-Peter-Verschieben": "Das Problem des Hasses im Internet kann doch nicht XY allein lösen!" Natürlich nicht. Aber können wir jetzt bitte ALLE erst einmal anfangen?
Kommentar von Simone Rafael
Hunderte Bilder-"Witze" gibt es auf Facebook mit dem toten Flüchtlingskind Ailan. Es ist von den hasserfüllten Absender_innen, denen der Tod eines kleinen Menschen ein Fest ist, wenn er nur aus einem anderen Land stammt, eine taktisch sehr kluge Idee, ihre Menschenverachtung als "Humor" zu deklarieren. Denn wenn man das tut, darf man bei Facebook praktisch alles posten. Deshalb bekamen auch die meisten schockierten Facebook-Nutzer_innen, die solche Bilder meldeten (inklusive mimikama.at) von Facebook die Antwort: Entspricht unseren Gemeinschaftsstandards. Was es laut den von Facebook veröffentlichten Gemeinschaftsstandards zwar nicht tut (vgl. tagesschau.de) - aber offenbar ist es zwar möglich, eine Richtlinie herauszugeben, die sagt "Keine Brüste", aber keine, die sagt: "Keine Witze mit toten Menschen." Es gab auch schon solche Witze (aus unserem Arbeitsbereich) mit Opfern des Attentäters Anders Behring Breivik, auch solche mit Opfern des IS-Terrorismus. Keiner davon war lustig. Alle waren menschenverachtend. Sie nicht auf Facebook zu haben, wäre wirklich kein Problem für die Gesellschaft.
Digitale Zivilgesellschaft? Ja sicher, wichtig!
Facebook hat zur Frage des Hasses auf ihrer Plattform mehreren Journalist_innen ein Hintergrundgespräch gegeben (wir waren leider nicht eingeladen). Hierbei gab es offenbar viele übliche Argumentation, wenn man die Berichterstattung betrachtet: Das ist eine gesellschaftliches Problem, das nicht Facebook lösen kann ... - es gibt spezialisierte Teams, die sich kümmern .... - alle Meldungen werden angeguckt ... - Wir brauchen aktive User_innen, die die Beiträge melden ... - und am liebsten Counter-Narratives, die dem Hass Positives entgegenstellen! An dieser Stelle werden dann sogar oft wir genannt, denn auch "Netz gegen Nazis" und die Amadeu Antonio Stiftung mögen den Ansatz zu sagen: Keine_r kann sich ausruhen, wir alle müssen aktiv sein für die Gesellschaft / das Netz, in dem wir leben / schreiben wollen - deshalb erdenken wir Gegenstrategien, arbeiten eben auch mit Facebook zusammen, für eine demokratische, Gleichwertigkeit lebende Gesellschaft. Wir ermutigen, aktivieren, damit das auch in Sozialen Netzwerken etwas wird mit der digitalen Zivilgesellschaft.
Hallo Wissenschaft: Entlastet Hetze im Netz die Täter? Oder führt es nicht zu mehr Mobs, wenn man sich leicht verabreden kann?
Aber: Niemals haben wir gesagt, dass wir das für die einzige Strategie halten. Denn es ist nicht die einzige Strategie. Um etwas so komplexem wie gruppenbezogener Menschenfeindlichkeit entgegen treten zu können, braucht es viele Ansätze. Aktuell sehen wir, wie Menschen immer offener und radikaler ihren rassistischen Hass auf Flüchtlinge und Migrant_innen in sozialen Netzwerken ausleben. Ausleben, das heißt: Nicht nur falsche Hetz-Artikel verbreiten. Nicht nur angeblich selbst erlebte Vergewaltigungsgeschichten erzählen (oder zumindest die der Tante der Freundin der Nachbarin. Und vielleicht hat der Flüchtling, der vielleicht gar kein Flüchtling war, auch nicht vergewaltigt, sondern nur böse geguckt. Oder so.) Sondern auch: Zu Mord auf rufen, zu Brandanschlägen, zu Gewalttaten. Zum Wiedereröffnen der nationalsozialistischen Vernichtungsindustrie. Macht es sie ruhiger, wenn sie das schreiben? Hat es eine Entlastungsfunktion? Stehen sie vom Bildschirm auf und sind dann nettere Menschen?
Leider fehlt eine belastbare Medienwirkungsforschung dazu bisher nach meiner Kenntnis. Praktisch sieht es allerdings so aus: Der Mob steht in Freital oder Heidenau auf der Straße, formiert sich bei Pegida in Dresden und anderswo, genau weil sich all diese Menschen im Internet in Facebook-Gruppen einfach und niedrigschwellig verabreden können. Es ist nicht nötig, einen der anderen Hassrassist_innen vorher zu kennen, Telefonnummern auszutauschen, sich eine komplizierte Blog-Adresse zu merken. Die Gruppen sind da, wo ich auch mein privat genutztes Profil habe, sie sind offen und leicht zu finden. Wer einmal reingeht, wird mit einem stetigen Fluss aus Hasspropaganda versorgt, der das Weltbild festigt. Er oder sie lernt, dass man auch "Gutmenschen" hassen kann, und Juden, und sexuelle Vielfalt, und diese fiesen Feminist_innen!
"Flaming Speech" wird bisher stehengelassen. Die Begründung ist hanebüchen
Facebook sagt: Das ist nicht unser Problem. Können sie, auch wenn dann etwas unglaubwürdig wird, dass sie andererseits aussagen, eine gesellschaftliche Verantwortung sehen und erfüllen zu wollen. Das Problem sei die "Flaming Speech", die hasserfüllten, beleidigenden, verächtlichen Äußerungen, berichtet der Tagesspiegel vom Hintergrundgespräch, und weiter: "Das Unternehmen tendiere deshalb seit einigen Jahren dazu, aggressive Kommentare einzelner Nutzer stehen zu lassen." Das berichte Facebook-Managerinnen Ciara Lyden aus der Europazentrale in Dublin. "Man sei aber zu der Überzeugung gekommen, dass Löschen womöglich noch schlimmere gesellschaftliche Auswirkungen haben könnte, argumentierte sie. Etwa wenn im Netz mundtot gemachte Nutzer dann nur noch Gewalt auf der Straße als Option sehen würden. Außerdem wolle man die Ausbreitung rechtsradikalen Gedankenguts in Europa nicht durch Löschen wegretuschieren: „We don’t hide the rise of racism.“ Facebook-Managerin Eva-Maria Kirschsieper, die die politische Kommunikation des Unternehmens in Deutschland leitet, wird zitiert mit: „Die Lösung kann nicht sein, dass man Menschen das Sprachrohr nimmt.“
Doch.
Es ist natürlich nicht DIE Lösung, aber es ist ein Teil der Lösung. Es macht nichts, wirklich nichts besser, wenn sich Menschen auf Facebook rassistisch, antidemokratisch und gewaltverherrlichend auskotzen können. Bisher führte es zu mehr bedrohlichen Demonstrationen, rassistischen Mobs, zu mehr Brandanschlägen und Gewalttaten, weil sich die Täter_innen in einer virtuellen Gemeinschaft geborgen fühlen und durch sie legitimiert sehen, stellvertretend zu handeln (Stichwort Schweigespirale). Diesen Menschen ihr Sprachrohr zu nehmen, führt dazu
- dass sie sich wieder komplizierter anderweitig organisieren müssen.
- dass es wieder unangenehmer wird, mit ihnen in Kontakt zu treten.
- dass sie weniger Zulauf haben.
- dass sie weniger Resonanzboden bekommen, weil ihre Beiträge nicht mehr so leicht zu verbreiten sind.
Stammtischparolen waren am Stammtisch nicht halb so tödlich wie im Internet
Es führt außerdem dazu, dass die klare Botschaft gesendet wird: Hier werden gesellschaftlich wichtige, unverhandelbare Standards so sehr mit Füßen getreten, dass wir das nicht mehr ertragen können und unterstützen möchten. Das motiviert übrigens die viel geforderte digitale Zivilgesellschaft, auch weiter inhaltlich in die Auseinandersetzung zu gehen. Allerdings da, wo es sich lohnt, und nicht als einsamer Kämpfer in einem Meer aus Hasskommentaren.
Es führt nicht dazu, dass es den Hass nicht mehr gibt. Es führt nicht einmal dazu, dass es den Hass im Internet nicht mehr gibt - aber wenigstens nicht mehr da, wo alle sind. Aber es nützt, den Hass als inakzeptabel zu markieren und schon allein dadurch seine Verbreitung zu vermindern. Stammtischparolen waren am Stammtisch nicht halb so tödlich wie im Internet, wo sie schlimmstenfalls Idiot_innen motivieren, aus einer leeren Flasche einen Brandsatz zu basteln und das Leben anderer Menschen zu zerstören, die man nicht einmal kennt und die einem nichts getan haben.
Würde ich mir wünschen, dass Facebook alle flüchtlingsfeindlichen Seiten löscht?
Wenigsten einmal, als gesellschaftliches Symbol? Trotz des Wissens, dass sich die Leute wieder anmelden ("Berserker 2.0 ist wieder da"), dass sie sich andere Hassthemen suchen ("Mein Humor ist so schwarz..."), dass rechtsextreme Parteien nicht gelöscht werden, weil sie Parteien sind?
Ja.
Aber natürlich würde ich mir natürlich wünschen, dass es immer so wäre. Dass Facebook die eigenen AGBs ernst nehmen würde - und sie im Zweifelsfalle zugunsten der Minderheit auslegt, nicht zugunsten der Hater, was ja offenbar bisher die Praxis ist.
Inzwischen ist die Polizei schneller als Facebook
An dieser Stelle fällt einem auch die Verantwortlichkeit von Polizei und Justiz ein. Die argumentieren ja auch gern mit "Wir allein können des Problem des Rassismus im Internet nicht lösen." (vgl. Vice). Aber das verlangt ja auch schon wieder keiner: Sie sollen nur ihren Job machen. Wenn eine Straftat passiert, und sie erhalten davon Kenntnis, sollen sie sie verfolgen, egal ob im Internet oder im Leben. Dies geschieht nun langsam (vgl. unseren Schwerpunkt Juli 2015). Und manchmal sogar schnell. Während Facebook noch prüfte, ob das öffentliche "Feiern" des Todes eines 3-jährigen Jungen in der flüchtlingsfeindlichen Gruppe "Berlin wehrt sich" ihren Gemeinschaftsstandards entspräche (wurde später immerhin gelöscht), stand bei dem 26-Jährigen Gruppen-Admin bereits die Berliner Polizei vor der Tür, die sah nämlich eine deutliche Volksverhetzung. Das ist auch wichtig. Denn wenn es die Rassist_innen schon nicht einsehen, dass ihr Hass falsch ist, sollen sie wenigstens Angst vor den Konsequenzen haben.
Mehr auf netz-gegen-nazis.de:
Teil 1: Gibt es im Moment mehr Hass?
Teil 2: Wo kommt der Hass nur her?
Teil 3: Hass-Karten und der Zusammenhang zwischen Netz und Übergriffen
Teil 4: Hass-Emails und Agieren der Netzwerke
Teil 5: Was können wir konkret gegen den Hass im Internet tun?
Teil 6: Immer mehr saftige Strafen für Hate Speech im Internet
Sie wollen mehr lesen? Gemeinsam mit den Kolleg_innen von no-nazi.net schreiben wir darüber seit Jahren.
Sogar ganze Broschüren:
| Hier zum Download
Weitere diverse Artikel auf netz-gegen-nazis.de, die finden sie
HIER unter "Gegenstrategien im Internet" oder auch unter "Argumente".
Zum Beispiel:
| "Lies bloß nicht die Kommentare!"
| Neues aus dem Monitoring: Counter Narratives
| NPD-Seite auf Facebook: Voller Anti-Nazi-Kommentare
| Subversiver Humor: Die Arbeitskreise der NPD auf Facebook
| Zwischen Propaganda und Mimikry -Neonazi-Strategien in Sozialen Netzwerken
| Neonazis-Netz-Vorlieben
| „Ich weiß nicht, was Nazis sein sollen, getroffen habe ich noch keinen“- Rechtsextreme Argumentationsmuster im Internet