Zum Hauptinhalt springen
Moderation und Erkennung unangemessener Inhalte

Tools zum Verwalten, Bearbeiten und Löschen unangemessener Inhalte auf Ihrer Plattform

Joost Vandenbroele avatar
Verfasst von Joost Vandenbroele
Vor über einem Jahr aktualisiert

Im Großen und Ganzen haben wir festgestellt, dass unangemessene Inhalte nur sehr selten auf unseren Beteiligungsplattformen gepostet werden. Sollte jedoch ein unangemessener Inhalt auf Ihrer Plattform erscheinen, haben wir 3 ergänzende Mechanismen, um solche Inhalte zu erkennen, zu melden, zu überprüfen und zu löschen.

1. Berichterstattung der Gemeinschaft

Jeder Teilnehmer der Plattform kann einen Beitrag, Vorschlag oder Kommentar als Spam melden , indem er auf die drei Punkte in der oberen rechten Ecke klickt:

Sobald ein Teilnehmer einen Beitrag als unangemessen kennzeichnet, erhalten Plattform-Administratoren und Projektmanager eine E-Mail-Benachrichtigung und sehen den Bericht auch in ihren Benachrichtigungen und auf der Registerkarte "Aktivität" auf der Plattform.

2. Schimpfwort-Filter

Jede Plattform verfügt außerdem über einen eingebauten Profanity-Blocker , der für jede Sprache eine Liste mit gängigen Schimpfwörtern enthält - eine allgemeine Liste, die für alle Plattformen unserer Kunden gilt. Sollte ein Teilnehmer der Plattform versuchen, einen Beitrag oder einen Kommentar einzureichen, der ein Wort aus der Liste enthält, erhält er eine Fehlermeldung, in der er aufgefordert wird, seinen Beitrag zu überprüfen und zu bearbeiten, bevor er ihn einreicht.

Hier ist ein Beispiel, in dem unser Schimpfwortfilter das Wort "scheiße" blockiert:

Sie können jederzeit entscheiden, ob Sie diesen Profanitätsblocker in den Einstellungen Ihrer Plattform aktivieren oder deaktivieren möchten.

3. Automatische Erkennung

Unsere Plattformen können auch automatisch erkennen, ob unangemessene Inhalte auf Ihrer Plattform gepostet worden sind. Diese Erkennung erfolgt über Natural Language Processing, das Beiträge, Vorschläge und Kommentare auf beleidigende, giftige oder anderweitig unangemessene Sprache überprüft.

Wenn ein Beitrag über die automatische Erkennungsfunktion eine Inhaltswarnung auslöst, erhalten alle Plattformadministratoren eine E-Mail und die Warnung wird auch im Abschnitt "Inhaltswarnung" auf der Registerkarte "Aktivität" in Ihrem Verwaltungsbereich angezeigt.

Ähnlich wie der Profanitätsfilter kann diese Funktion in den Einstellungen Ihrer Plattform aktiviert und deaktiviert werden .

⚠️ Diese Funktion ist nur in den folgenden Sprachen verfügbar: Englisch, Französisch, Deutsch, Spanisch und Portugiesisch.

4. Wie kann ich unangemessene Inhalte überprüfen und moderieren?

Alle Beiträge, die über die 3 oben genannten Methoden eine Inhaltswarnung ausgelöst haben, können Sie unter auf der Registerkarte "Aktivität" in Ihrem Verwaltungsbereichfinden und moderieren. Darüber hinaus erhalten alle Administratoren und Projektmanager eine E-Mail und eine Benachrichtigung auf der Plattform.

Als Administrator oder Projektmanager können Sie die Inhalte dann überprüfen und nach Ihren eigenen Richtlinien moderieren. Nachfolgend erfahren Sie mehr über die Optionen zur Moderation verschiedener Arten von Beiträgen, die auf Ihrer Plattform geteilt werden:

  • Eingaben (Ideen, Beiträge,...) und Vorschläge können von Administratoren und Projektmanagern auf der Plattform sowohl bearbeitet als auch gelöscht werden. Außerdem können Sie entweder ein offizielles Update oder eine Reaktion im Kommentarbereich posten.

    Wenn Sie Eingaben oder einen Vorschlaglöschen, wird der Autor keine E-Mail erhalten. Wenn Sie dies wünschen, sollten Sie sie daher gesondert über eine persönliche E-Mail benachrichtigen.

    Wenn die Eingabe in einem Timeline-Projekt gebucht ist, können Sie sie statt zu löschen auch ausblenden , indem Sie alle Timeline-Phasen, mit denen sie verbunden ist, im Eingabe-Manager des Projekts abwählen.

  • Kommentare auf der Plattform können von Administratoren nicht bearbeitet, sondern nur gelöscht werden.

    Wenn Sie einen Kommentar löschen, erhält der Autor eine E-Mail, dass sein Kommentar gelöscht wurde, weil er nicht den Community-Richtlinien entspricht, wie in den FAQ und den Bedingungen & der Plattform dargelegt.


Haben Sie weitere Fragen oder benötigen Sie Hilfe? Zögern Sie nicht, sich mit unserem Support-Team über support@citizenlab.coin Verbindung zu setzen.

Hat dies deine Frage beantwortet?