AI Moderation

Modera comentarios y contenido generado por usuarios con Workers AI y hooks oficiales de plugins EmDash.

Extensión

AI Moderation

Modera comentarios y contenido generado por usuarios con Workers AI y hooks oficiales de plugins EmDash.

  • Categoría: IA
  • Estado: Disponible
  • Versión: Incluido en beta
  • Precio: Incluido en beta

Detalles del producto

Categoría
IA
Estado
Disponible
Versión
Incluido en beta

AI Moderation demuestra a EmDash usando infraestructura nativa de Cloudflare para un problema editorial práctico: mantener seguras las secciones de comentarios y el texto generado por usuarios sin externalizar cada decisión a un proveedor de caja negra. El paquete upstream se describe como apoyado en Workers AI y barandillas tipo Llama Guard; verifica el modelo exacto y las opciones de política en packages/plugins/ai-moderation para tu versión.

Instalación

  1. Confirma que tu despliegue de EmDash corre sobre una pila donde Workers AI (o el backend de IA documentado para este plugin) está disponible y permitido por tu plan.
  2. Habilita el plugin AI Moderation desde el admin de EmDash o intégralo desde el monorepo durante desarrollo.
  3. Configura secretos y variables de entorno requeridos como describe el README del plugin; normalmente tokens de API o bindings que no deben subirse a Git.
  4. Haz una prueba de humo en un entorno no productivo: envía texto benigno y casos límite para confirmar que las decisiones de moderación y el registro se comportan como esperas.

Configuración

Habitualmente ajustarás:

  • Sensibilidad o políticas predefinidas — qué cuenta como bloquear, marcar o permitir (las opciones exactas dependen de la integración incluida).
  • Comportamiento de fallback — cuando el servicio de IA no está disponible, fallar cerrado (retener para revisión) o fallar abierto (publicar con advertencia), según tu apetito de riesgo.
  • Visibilidad de auditoría — si moderadores ven puntuaciones, categorías o solo decisiones finales.

Ejemplo (conceptual): un blog de comunidad podría autopublicar comentarios por debajo de un umbral de riesgo, poner en cola envíos fronterizos para revisión manual y bloquear infracciones de política con alta confianza. Ajusta esos umbrales usando los controles expuestos en el admin o en archivos de configuración de tu versión.

Escenarios de uso

  • Publicaciones con comentarios — reduce carga de moderación manteniendo humanos en el circuito para casos ambiguos.
  • Envíos generados por usuarios — texto corto adjunto a formularios o propuestas donde un triaje automático acelera la revisión editorial.
  • Wikis o docs internas con sugerencias — filtrado ligero antes de publicar contenido.

Consejos operativos

  • Revisa falsos positivos de forma regular; ajusta umbrales con tráfico real, no solo pruebas sintéticas.
  • Combínalo con Audit Log si cumplimiento requiere decisiones trazables sobre contenido moderado.
  • Supervisa uso y latencia de Workers AI para que la moderación se mantenga dentro de presupuesto y expectativas de UX.