Zum Hauptinhalt springen

Schutz und Moderation Ihrer Plattform

Nola Moreau avatar
Verfasst von Nola Moreau
Diese Woche aktualisiert

Überblick über den Schutz und die Moderation Ihrer Plattform

Ihre Plattform verfügt über eingebaute Schutzmechanismen und Moderationstools, die eine sichere und respektvolle Beteiligung gewährleisten.

Zu den wichtigsten Mechanismen gehören:

  • Community-Meldungen für unangemessene Inhalte

  • Profanity-Filterung zum Blockieren anstößiger Sprache

  • KI-gestützte Erkennung mit natürlicher Sprachverarbeitung (NLP)

  • Spam- und Drosselungsschutz, um böswilligen oder automatischen Missbrauch zu verhindern

  • Starke Bedingungen & Bedingungen, Datenschutzrichtlinien und Einhaltung der GDPR

Zusammen helfen diese Tools Administratoren, eine gesunde, konstruktive Umgebung mit minimalen manuellen Eingriffen aufrechtzuerhalten.

Schutzsysteme für Plattformen

Jede GoVocal-Plattform umfasst:

  • Spam- und Drosselungserkennung: Stoppt automatisch verdächtiges Verhalten, wie z.B. massenhafte Einreichungen von Ideen oder wiederholte Spam-Antworten.

  • IP-Überwachung: Markiert ungewöhnliche Aktivitäten, wie z.B. mehrere Konten, die schnell von derselben IP-Adresse aus erstellt wurden, und berücksichtigt dabei gemeinsam genutzte Netzwerke.

  • Downvote-basierte Selbstmoderation: Schlecht aufgenommene Inhalte sinken natürlich im Ranking und tragen so zur Aufrechterhaltung konstruktiver Diskussionen bei.

  • Admin Digest-E-Mails: Wöchentliche Zusammenfassungen der eingereichten Inhalte zur einfachen Überwachung und schnellen Identifizierung von Problemen.

  • Manuelle Spam-Kennzeichnung: Sowohl Benutzer als auch Administratoren können Ideen als Spam kennzeichnen und einen Grund für die Meldung angeben.

  • E-Mail- und Bürgerüberprüfung: Die E-Mail-Überprüfung ist standardmäßig aktiviert, um gültige Registrierungen zu bestätigen. In bestimmten Regionen wird auch die Bürgerverifizierung (z.B. über ItsMe) unterstützt. Lesen Sie mehr darüber in diesem Support-Artikel.

  • Durchsetzung der Nutzungsbedingungen: Administratoren können Konten, Ideen oder Kommentare entfernen, wenn ein Missbrauch festgestellt wird.

  • Datenschutzrichtlinie & GDPR-Anpassung: Schützt Benutzerdaten und gewährleistet die Einhaltung der europäischen Datenschutzbestimmungen.

Wie unangemessene Inhalte erkannt werden

Ihre Plattform verwendet drei sich ergänzende Erkennungsmethoden:

  1. Community-Berichterstattung: Jeder Teilnehmer kann einen Beitrag, Vorschlag oder Kommentar als unangemessen kennzeichnen.

  2. Schimpfwort-Filter: Blockiert gängige Schimpfwörter in den unterstützten Sprachen und fordert die Benutzer auf, sie vor dem Posten zu bearbeiten.

  3. AI/NLP-Erkennung: Nutzt die Verarbeitung natürlicher Sprache, um missbräuchliche, giftige oder unangemessene Sprache automatisch zu erkennen.

Hinweis: Die NLP-Erkennung ist auf Englisch, Französisch, Deutsch, Spanisch und Portugiesisch verfügbar.

Wie kann man unangemessene Inhalte überprüfen und moderieren?

  1. Gehen Sie in der Verwaltungskonsole auf die Registerkarte Benachrichtigungen.

  2. Klicken Sie auf die Inhaltswarnung oder Benachrichtigung.

  3. Überprüfen Sie das gemeldete Element (Beitrag, Kommentar, Vorschlag).

  4. Ergreifen Sie Maßnahmen zur Mäßigung auf der Grundlage Ihrer Richtlinien:

    • Bearbeiten oder löschen Sie Eingaben/Vorschläge.

    • Posten Sie ein offizielles Update oder einen klärenden Kommentar.

    • Blenden Sie Elemente (für Zeitleistenprojekte) aus, indem Sie die Auswahl der zugehörigen Phasen aufheben.

Wichtige Hinweise:

  • Wenn Sie Eingaben/Vorschläge löschen, erhalten die Autoren keine E-Mail (benachrichtigen Sie sie bei Bedarf separat).

  • Kommentare können nicht bearbeitet, sondern nur gelöscht werden. Bei einer Löschung erhält der Autor eine E-Mail, in der er den Grund dafür erklärt.

Was kann bearbeitet bzw. gelöscht werden?

  • Eingaben (Ideen, Beiträge) & Vorschläge: Können von Admins/Managern bearbeitet oder gelöscht werden.

  • Kommentare: Kann nicht bearbeitet werden - nur gelöscht.

    • Beim Löschen erhält der Autor eine E-Mail-Benachrichtigung.

  • Inhalte ausblenden: In Timeline-Projekten können Sie Elemente ausblenden, anstatt sie zu löschen, indem Sie alle zugehörigen Phasen abwählen.

Wie kann ich die Moderationsfunktionen aktivieren/deaktivieren?

  1. Gehen Sie zu Plattformeinstellungen.

  2. Aktivieren oder deaktivieren:

    • Profanitätsfilter (blockiert gängige Schimpfwörter).

    • Erkennen Sie unangemessene Inhalte (KI/NLP-Scan).

  3. Änderungen speichern.

Sie können diese Funktionen jederzeit ein- oder ausschalten.

Wie kann ich benutzerdefinierte unpassende Wörter hinzufügen?

  1. Bereiten Sie eine Liste mit einzelnen Wörtern vor (Phrasen werden nicht unterstützt).

  2. Kontaktieren Sie den Support über die Chat-Bubble.

  3. Senden Sie die Liste (für längere Listen bereiten Sie eine .xlsx oder ähnliche Datei vor).

Der Support wird die Wörter zum Filter Ihrer Plattform hinzufügen.

Hat dies deine Frage beantwortet?