Ir al contenido principal

Proteger y moderar tu plataforma

Nola Moreau avatar
Escrito por Nola Moreau
Actualizado esta semana

Visión general de la protección y moderación de tu plataforma

Tu plataforma tiene incorporadas protecciones y herramientas de moderación para garantizar una participación segura y respetuosa.

Los mecanismos clave incluyen:

  • Denuncias comunitarias por contenido inapropiado

  • Filtro de blasfemias para bloquear el lenguaje ofensivo

  • Detección con IA mediante Procesamiento del Lenguaje Natural (PLN)

  • Prevención de spam y estrangulamiento para bloquear el abuso malintencionado o automatizado

  • Términos firmes & Condiciones, Política de privacidad y cumplimiento del GDPR

Juntas, estas herramientas ayudan a los administradores a mantener un entorno sano y constructivo con una intervención manual mínima.

Sistemas de protección de plataformas

Todas las plataformas GoVocal incluyen:

  • Detección de spam y estrangulamiento: Detiene automáticamente los comportamientos sospechosos, como los envíos masivos de ideas o las respuestas spam repetidas.

  • Supervisión de IP: Señala actividad inusual, como múltiples cuentas creadas rápidamente desde la misma dirección IP, al tiempo que contabiliza las redes compartidas.

  • Auto-moderación basada en downvote: El contenido mal recibido se hunde de forma natural en el ranking, ayudando a mantener discusiones constructivas.

  • Correos electrónicos de resumen administrativo: Resúmenes semanales de los contenidos enviados para facilitar la supervisión y la rápida identificación de problemas.

  • Marcado manual de spam: Tanto los usuarios como los administradores pueden marcar ideas como spam y especificar un motivo para la denuncia.

  • Verificación por correo electrónico y por el ciudadano: La verificación por correo electrónico está activada por defecto para confirmar las inscripciones válidas. En ciertas regiones, también se admite la verificación ciudadana (por ejemplo, a través de ItsMe), lee más sobre ello en este artículo de soporte.

  • Cumplimiento de las condiciones de uso: Los administradores pueden eliminar cuentas, ideas o comentarios cuando se detecta un uso inadecuado.

  • Política de privacidad & Alineación con la GDPR: Protege los datos de los usuarios y garantiza el cumplimiento de la normativa europea sobre protección de datos.

Cómo se detecta el contenido inapropiado

Tu plataforma utiliza tres métodos de detección complementarios:

  1. Informes de la Comunidad: Cualquier participante puede marcar una publicación, propuesta o comentario como inapropiado.

  2. Filtro de blasfemias: Bloquea palabras ofensivas comunes en los idiomas admitidos y pide a los usuarios que las editen antes de publicar.

  3. Detección AI/NLP: Utiliza el Procesamiento del Lenguaje Natural para detectar automáticamente lenguaje abusivo, tóxico o inapropiado.

Nota: La detección de PNL está disponible en inglés, francés, alemán, español y portugués.

¿Cómo revisar y moderar el contenido inapropiado?

  1. Ve a la pestaña Notificaciones del panel de administración.

  2. Haz clic en la advertencia de contenido o en la notificación de informe.

  3. Revisa el elemento sobre el que se informa (post, comentario, propuesta).

  4. Toma medidas de moderación basadas en tus directrices:

    • Editar o eliminar aportaciones/propuestas.

    • Publica una actualización oficial o un comentario aclaratorio.

    • Oculta elementos (para proyectos de línea de tiempo) deseleccionando sus fases asociadas.

Notas importantes:

  • Si eliminas aportaciones/propuestas, los autores no recibirán un correo electrónico (notifícalo por separado si es necesario).

  • Los comentarios no se pueden editar, sólo borrar. Si se elimina , el autor recibirá un correo electrónico explicando el motivo.

¿Qué se puede editar frente a eliminar?

  • Entradas (ideas, contribuciones) & Propuestas: Pueden ser editadas o eliminadas por los administradores/gestores.

  • Observaciones: No se puede editar, sólo borrar.

    • Cuando se elimina, el autor recibe una notificación por correo electrónico.

  • Ocultar contenido: En los proyectos de línea de tiempo, puedes ocultar elementos en lugar de borrarlos, deseleccionando todas las fases asociadas.

¿Cómo activar/desactivar las funciones de moderación?

  1. Ve a Configuración de la plataforma.

  2. Activar o desactivar:

    • Filtro de blasfemias (bloquea las palabras ofensivas más comunes).

    • Detectar contenido inapropiado (escaneo AI/NLP).

  3. Guarda los cambios.

Puedes activar o desactivar estas funciones en cualquier momento.

¿Cómo añadir palabras inapropiadas personalizadas?

  1. Prepara una lista de palabras sueltas (no se admiten frases).

  2. Ponte en contacto con el servicio de asistencia a través de la burbuja de chat.

  3. Envía la lista (para listas más largas, prepara un archivo .xlsx o similar).

El soporte añadirá las palabras al filtro de tu plataforma.

¿Ha quedado contestada tu pregunta?