AI Moderation
Modera comentarios y contenido generado por usuarios con Workers AI y hooks oficiales de plugins EmDash.
Extensión
AI Moderation
Modera comentarios y contenido generado por usuarios con Workers AI y hooks oficiales de plugins EmDash.
Detalles del producto
- Categoría
- IA
- Estado
- Disponible
- Versión
- Incluido en beta
AI Moderation demuestra a EmDash usando infraestructura nativa de Cloudflare para un problema editorial práctico: mantener seguras las secciones de comentarios y el texto generado por usuarios sin externalizar cada decisión a un proveedor de caja negra. El paquete upstream se describe como apoyado en Workers AI y barandillas tipo Llama Guard; verifica el modelo exacto y las opciones de política en packages/plugins/ai-moderation para tu versión.
Instalación
- Confirma que tu despliegue de EmDash corre sobre una pila donde Workers AI (o el backend de IA documentado para este plugin) está disponible y permitido por tu plan.
- Habilita el plugin AI Moderation desde el admin de EmDash o intégralo desde el monorepo durante desarrollo.
- Configura secretos y variables de entorno requeridos como describe el README del plugin; normalmente tokens de API o bindings que no deben subirse a Git.
- Haz una prueba de humo en un entorno no productivo: envía texto benigno y casos límite para confirmar que las decisiones de moderación y el registro se comportan como esperas.
Configuración
Habitualmente ajustarás:
- Sensibilidad o políticas predefinidas — qué cuenta como bloquear, marcar o permitir (las opciones exactas dependen de la integración incluida).
- Comportamiento de fallback — cuando el servicio de IA no está disponible, fallar cerrado (retener para revisión) o fallar abierto (publicar con advertencia), según tu apetito de riesgo.
- Visibilidad de auditoría — si moderadores ven puntuaciones, categorías o solo decisiones finales.
Ejemplo (conceptual): un blog de comunidad podría autopublicar comentarios por debajo de un umbral de riesgo, poner en cola envíos fronterizos para revisión manual y bloquear infracciones de política con alta confianza. Ajusta esos umbrales usando los controles expuestos en el admin o en archivos de configuración de tu versión.
Escenarios de uso
- Publicaciones con comentarios — reduce carga de moderación manteniendo humanos en el circuito para casos ambiguos.
- Envíos generados por usuarios — texto corto adjunto a formularios o propuestas donde un triaje automático acelera la revisión editorial.
- Wikis o docs internas con sugerencias — filtrado ligero antes de publicar contenido.
Consejos operativos
- Revisa falsos positivos de forma regular; ajusta umbrales con tráfico real, no solo pruebas sintéticas.
- Combínalo con Audit Log si cumplimiento requiere decisiones trazables sobre contenido moderado.
- Supervisa uso y latencia de Workers AI para que la moderación se mantenga dentro de presupuesto y expectativas de UX.