Es gibt Themen, bei denen ist schon vor dem Anklicken des Posts klar, wie die Kommentarspalten aussehen werden. Die aktuelle Debatte über Berliner Freibäder und Sicherheitsmaßnahmen ist dafür ein Beispiel. Das Ausmaß an Rassismus, Falschinformationen und Hetze unter vielen Beiträgen und Artikeln ist schwer zu ertragen. Von Aufrufen nach mehr Law & Order wird der Bogen zu stärkeren Grenzkontrollen geschlagen und sich vordergründig für den “Schutz von Frauen” starkgemacht, nur um anschließend offenem Rassismus freien Lauf zu lassen.
Dabei verpacken viele Hass-Kommentator*innen ihre Äußerungen geschickt so subtil, dass sie sich innerhalb der gesetzlichen Grenzen bewegen und die enthaltene gruppenbezogene Menschenfeindlichkeit verschleiern. Sie setzen Gesprächsstrategien ein, die eine konstruktive Diskussion zerstören. Community Manager*innen fehlt oft das Know-How, um gegen solche Kommentare vorzugehen. Begrenzte Ressourcen für Social-Media- und Community-Management sorgen zusätzlich für Überforderung bei den Betreiber*innen von Seiten – und für Frustration bei den Nutzenden.
Vor lauter Hass kein Raum für Diskussion?
Das Problem: In einem hasserfüllten Diskussionsklima finden sachliche Argumente kaum Resonanz. Die meisten Hass-Kommentator*innen haben auch gar kein Interesse an einer ernsthaften Diskussion, sondern wollen den Raum für sich und ihre Ideologie einnehmen. Das zeigen auch die Kommentarspalten rund um die Berliner Freibäder: Wer hier mitliest, gewinnt den Eindruck, eine klare Mehrheit spreche sich für eine restriktivere Migrationspolitik aus – und fällt schnell auf Falschinformationen rein, die dort fleißig verbreitet werden. Das ist nicht nur fatal für alle, die von Rassismus betroffen sind, sondern für die demokratische Öffentlichkeit insgesamt. Denn eigentlich könnte es auch um die tieferliegenden Ursachen, wie beispielsweise mangelnde Jugendangebote in Berlin, gehen.
Eine wirkliche Debatte im Netz braucht Räume, in denen ein angstfreier und konstruktiver Austausch möglich ist. Eine moderierte Kommentarspalte ist dafür ein guter Start.
An dieser Stelle setzt das interaktive Online-Tool ModSupport an. Das Tool hilft beim Umgang mit einzelnen Kommentaren und leitet die Nutzer*innen interaktiv mit gezielten Fragen zu Lösungsoptionen und konkreten Formulierungsideen. Mithilfe des Tools lassen sich beispielsweise viele der Kommentare im Freibad-Diskurs als rechtsextreme Störstrategien einordnen (z.B. abwertender Humor, Provokation oder “Ich hab ja nichts gegen…, aber…”) und klar als solche benennen. Und auch bei rassistischen Äußerungen unterstützt ModSupport – mit Argumentationshilfen, weiterführenden Informationen und Formulierungsideen.
Gezielte Moderation macht den Austausch wieder möglich
Während unmoderierte Kommentarspalten voll Hate Speech und digitaler Gewalt langfristig Menschen aus dem Diskurs drängen, gibt es aber auch zahlreiche engagierte und aktive Personen, die demokratische Inhalte unterstützen, kritische Nachfragen stellen und sich austauschen wollen. Allerdings rücken sie in der Moderationsarbeit häufig in den Hintergrund. Dabei lohnt es sich, diese User*innen und Kommentare zu unterstützen, um eine konstruktive und respektvolle Online-Kultur zu stärken. Deswegen legt ModSupport einen zusätzlichen Schwerpunkt auf die sogenannte „Empowerment-Moderation“ und das Unterstützen konstruktiver Beiträge. Die rassistisch aufgeheizte Freibad-Debatte zeigt einmal mehr: Es ist allerhöchste Zeit, in der Moderationsarbeit Betroffene in Schutz zu nehmen, Hassredner*innen Grenzen aufzuzeigen und Mitlesenden demokratische Argumente zugänglich zu machen – und es ist möglich.