Visión general de la protección y moderación de tu plataforma
Tu plataforma tiene incorporadas protecciones y herramientas de moderación para garantizar una participación segura y respetuosa.
Los mecanismos clave incluyen:
Denuncias comunitarias por contenido inapropiado
Filtro de blasfemias para bloquear el lenguaje ofensivo
Detección con IA mediante Procesamiento del Lenguaje Natural (PLN)
Prevención de spam y estrangulamiento para bloquear el abuso malintencionado o automatizado
Términos firmes & Condiciones, Política de privacidad y cumplimiento del GDPR
Juntas, estas herramientas ayudan a los administradores a mantener un entorno sano y constructivo con una intervención manual mínima.
Sistemas de protección de plataformas
Todas las plataformas GoVocal incluyen:
Detección de spam y estrangulamiento: Detiene automáticamente los comportamientos sospechosos, como los envíos masivos de ideas o las respuestas spam repetidas.
Supervisión de IP: Señala actividad inusual, como múltiples cuentas creadas rápidamente desde la misma dirección IP, al tiempo que contabiliza las redes compartidas.
Auto-moderación basada en downvote: El contenido mal recibido se hunde de forma natural en el ranking, ayudando a mantener discusiones constructivas.
Correos electrónicos de resumen administrativo: Resúmenes semanales de los contenidos enviados para facilitar la supervisión y la rápida identificación de problemas.
Marcado manual de spam: Tanto los usuarios como los administradores pueden marcar ideas como spam y especificar un motivo para la denuncia.
Verificación por correo electrónico y por el ciudadano: La verificación por correo electrónico está activada por defecto para confirmar las inscripciones válidas. En ciertas regiones, también se admite la verificación ciudadana (por ejemplo, a través de ItsMe), lee más sobre ello en este artículo de soporte.
Cumplimiento de las condiciones de uso: Los administradores pueden eliminar cuentas, ideas o comentarios cuando se detecta un uso inadecuado.
Política de privacidad & Alineación con la GDPR: Protege los datos de los usuarios y garantiza el cumplimiento de la normativa europea sobre protección de datos.
Cómo se detecta el contenido inapropiado
Tu plataforma utiliza tres métodos de detección complementarios:
Informes de la Comunidad: Cualquier participante puede marcar una publicación, propuesta o comentario como inapropiado.
Filtro de blasfemias: Bloquea palabras ofensivas comunes en los idiomas admitidos y pide a los usuarios que las editen antes de publicar.
Detección AI/NLP: Utiliza el Procesamiento del Lenguaje Natural para detectar automáticamente lenguaje abusivo, tóxico o inapropiado.
Nota: La detección de PNL está disponible en inglés, francés, alemán, español y portugués.
¿Cómo revisar y moderar el contenido inapropiado?
Ve a la pestaña Notificaciones del panel de administración.
Haz clic en la advertencia de contenido o en la notificación de informe.
Revisa el elemento sobre el que se informa (post, comentario, propuesta).
Toma medidas de moderación basadas en tus directrices:
Editar o eliminar aportaciones/propuestas.
Publica una actualización oficial o un comentario aclaratorio.
Oculta elementos (para proyectos de línea de tiempo) deseleccionando sus fases asociadas.
Notas importantes:
Si eliminas aportaciones/propuestas, los autores no recibirán un correo electrónico (notifícalo por separado si es necesario).
Los comentarios no se pueden editar, sólo borrar. Si se elimina , el autor recibirá un correo electrónico explicando el motivo.
¿Qué se puede editar frente a eliminar?
Entradas (ideas, contribuciones) & Propuestas: Pueden ser editadas o eliminadas por los administradores/gestores.
Observaciones: No se puede editar, sólo borrar.
Cuando se elimina, el autor recibe una notificación por correo electrónico.
Ocultar contenido: En los proyectos de línea de tiempo, puedes ocultar elementos en lugar de borrarlos, deseleccionando todas las fases asociadas.
¿Cómo activar/desactivar las funciones de moderación?
Ve a Configuración de la plataforma.
Activar o desactivar:
Filtro de blasfemias (bloquea las palabras ofensivas más comunes).
Detectar contenido inapropiado (escaneo AI/NLP).
Guarda los cambios.
Puedes activar o desactivar estas funciones en cualquier momento.
¿Cómo añadir palabras inapropiadas personalizadas?
Prepara una lista de palabras sueltas (no se admiten frases).
Ponte en contacto con el servicio de asistencia a través de la burbuja de chat.
Envía la lista (para listas más largas, prepara un archivo .xlsx o similar).
El soporte añadirá las palabras al filtro de tu plataforma.





