Internet-Kommentare: So sollen die Hässigen anständiger werden

In Kommentaren und Diskussionsforen mitzureden, ist zermürbend, weil Pöbler und Trolle die Atmosphäre mit aggressiven Texten vergiften. Das ist die schlechte Meldung. Die Gute ist: Es gibt vielversprechende Werkzeuge, um die Spielverderber in ihre Schranken zu weisen.

Zwei Orang Utans, die sich mit Facebook-Stinkefinger und Twitter-Vogel anbrüllen.

Bildlegende: Soziale Netzwerke sind oft kein Ort, an dem gute Manieren zum Alltag gehören. Auf der Strecke bleiben die Anständigen. Flickr (Vlad[T] / Ryan Summers) / Collage SRF

Jedes Mal, wenn die Teenagerin Lucy in Facebook einen feministischen Beitrag postete, wurde sie mit hässigen Kommentaren und Drohungen zugebombt. Student Julian engagiert sich bei einer heimatlich gesinnten Partei, trägt ab und zu Edelweiss-Hemden und twitterte davon Fotos. Weil auch ihm grosse Wellen der Abneigung in den sozialen Medien entgegenschlugen, hat er sein Profil mittlerweile gelöscht.

Selbst-Zensur aus Angst vor Aggressionen

Lucy und Julian sind frei erfundene Beipiele. Dass sich Menschen in Foren selber zensurieren, ist aber eine Tatsache. Für Idealisten wie den World Wide Web-Begründer Tim Berners-Lee ist das eine Katastrophe, schliesslich hielt er Technologie und das Internet immer für ein Mittel, die Welt zu verbessern und nicht sie zu einem hässlicheren, aggressiveren Ort zu machen. Und auch für Betreiber von Foren, Kommentarspalten und Social Media-Plattformen, allen voran Facebook, ist das hässige Getue ein Problem. Denn wo sich die Menschen nicht mehr wohl fühlen wegen Anfeindungen, werden sie sich zurückziehen – und dann ziehen sich auch die Werbekunden zurück, sagte ein Facebook-Manager letzthin im The Guardian.

Was tun, wenn moderieren alleine nichts nützt und vor allem bei der Masse von Kommentaren und Posts viel zu aufwändig ist? Automatisierte Lösungen bieten sich an – doch Algorithmen, die wirklich zuverlässig Inhalt und Kontext verstehen und Beiträge nach inakzeptablen Stichworten filtern können, gibt es nicht.

Verroht das Internet? Nein! Ansätze, die auf Bewertungs-und Reputationsmechanismen setzen, versprechen Erfolg und sind bei verschiedenen Anbietern bereits im Einsatz.

Die Pöbler bei ihrer eigenen Eitelkeit packen

Bei Reddit, der Jodel-App oder auch Imgur läuft das Konzept unter dem Begriff «Karma» (oder einer ähnlichen Bezeichnung). Werden die eigenen Beiträge und Kommentare positiv von anderen Benutzern bewertet, sogenannte Up-Votes, steigt das jeweilige Karma des Benutzers. Umgekehrt sinkt es bei negativen Bewertungen, einem sogenannten Down-Vote.

Der Vorteil dieses Systems: Da jeder die Karmapunkte des anderen sehen kann, hat der jeweilige Benutzer ein grosses Interesse daran, sich anständig zu verhalten und so möglichst viele Karmapunkte zu sammeln – nicht nur mit Beiträgen, sondern eben auch mit jedem einzelnen Kommentar. Mehr Karmapunkte bedeuten ein höheres Ansehen. Ein Benutzer wird sich also zweimal überlegen, Hasskommentare abzugeben und damit zu riskieren, dass ihm durch massives Down-Voting Punkte abgezogen werden.

Die Pöbler zum Nachdenken zwingen

Noch eine Spur raffinierter ist die – eigentlich simple – Idee von Christa Mrgan, Mitbegründerin des amerikanischen Startup Civil Comment. Zusammen mit Aja Bogdanoff hat sie eine Software entwickelt, bei der der Benutzer zwei fremde Kommentare bewerten muss, bevor er seinen Eigenen abschicken kann. Nicht der Inhalt steht dabei im Zentrum, sondern die «Civility»: wie «zivilisiert» oder anständig er verfasst wurde.

Das hat zwei Effekte: Einerseits kann der Anbieter eines Dienstes so die Bearbeitung von Kommentaren kostenlos an die Benutzer auslagern, andererseits beginnt der Benutzer, über seinen eigenen Kommentar nachzudenken. Etwa fünf Prozent der Benutzer machen von der Möglichkeit Gebrauch, ihren eigenen Kommentar zu überarbeiten und allenfalls zu entschärfen, bevor sie ihn abschicken. Der Grund: Sie haben durch den Bewertungsprozess realisiert, dass sie ein Publikum vor sich haben – alle andere Benutzer, die sie ebenfalls bewerten.

Da ist ein Publikum!

Das erzwungene «Innehalten» erzeugt bei den Benutzern eine Hemmung. «Wenn du jemandem ein Mikrophon in die Hand drückst und ihm ein paar Minuten Aufmerksamkeit auf der Bühne gibst, wird er sich sicher intensiver überlegen: 'Will ich das wirklich sagen?', als wenn er glaubt, er spreche ins Leere», sagt Christa Mrgan.

Das scheint tatsächlich zu funktionieren: Nach einer erfolgsversprechenden Testphase setzen nun seit kurzem drei regionale Zeitungen in den USA den Kommentar-Filter der Firma Civil Comment ein, darunter die Alaska Dispatch News. «Die Arbeit der Moderatoren ist dadurch um 90 Prozent gesunken», sagt Christa Mrgan. Gleichzeitig hat die Zahl der Kommentare um 20 Prozent zugenommen, weil das Niveau gestiegen ist und sich deshalb mehr Leute an der Diskussion beteiligen. Keiner der Kunden von Civil Comments war für eine Stellungnahme erreichbar.

Die Bewertung der Kommentare an die Verfasser auszulagern – und so gleichzeitig auch noch das Bewusstsein für Qualität zu schärfen – das findet Konrad Weber von SRF einen interessanten Ansatz, auch wenn srf.ch diese Lösung nicht einfach so übernehmen kann: «Wir müssen bei zensurierten Kommentaren immer begründen können, warum wir so entschieden haben» meint der Spezialist für soziale Netzwerke.

Ob der Filter von Civil Comments das leidige Problem mit den Kommentaren ein für alle Mal löst, lässt sich zurzeit noch nicht sagen. Es wäre schön, wenn die Vision der beiden Gründerinnen von Civil Comments in Erfüllung ginge: Dass sich Menschen im Internet mit dem gleichen Respekt begegnen wie im richtigen Leben auch. Denn Christa Mrgan ist überzeugt, dass das an den meisten Orten der Welt die Regel ist.