KI-Moderation
Kommentare und nutzergenerierte Inhalte mit Workers AI und nativen EmDash-Plugin-Hooks moderieren.
Erweiterung
KI-Moderation
Kommentare und nutzergenerierte Inhalte mit Workers AI und nativen EmDash-Plugin-Hooks moderieren.
Produktdetails
- Kategorie
- KI
- Status
- Verfügbar
- Version
- In der Beta enthalten
AI Moderation zeigt, wie EmDash Cloudflare-native Infrastruktur für ein konkretes Redaktionsproblem nutzt: Kommentarbereiche und nutzergenerierte Texte sicher halten, ohne jede Entscheidung an eine Blackbox auszulagern. Das Upstream-Paket nutzt Workers AI und Guardrails im Stil von Llama Guard; genaues Modell und Policy-Regler finden Sie in packages/plugins/ai-moderation für Ihre Version.
Installation
- Stellen Sie sicher, dass Ihr EmDash-Deployment auf einem Stack läuft, auf dem Workers AI (oder das dokumentierte AI-Backend dieses Plugins) verfügbar und durch Ihren Tarif erlaubt ist.
- Aktivieren Sie AI Moderation im EmDash-Admin oder binden Sie es im Monorepo in der Entwicklung ein.
- Setzen Sie erforderliche Secrets und Umgebungsvariablen wie in der Plugin-README beschrieben — typischerweise API-Tokens oder Bindings, die nicht in Git gehören.
- Smoke-Test in einer Nicht-Produktionsumgebung: Senden Sie harmlosen und Grenzfall-Text, um Moderationsentscheidungen und Logging zu prüfen.
Konfiguration
Üblicherweise stellen Sie ein:
- Empfindlichkeit oder Policy-Presets — was als Block, Flag oder Allow gilt (genaue Optionen hängen von der Integration ab).
- Fallback-Verhalten — wenn der AI-Dienst ausfällt: strikt halten (zur Prüfung anhalten) oder offen lassen (mit Warnung posten), je nach Risikobereitschaft.
- Sichtbarkeit für Audit — ob Moderatorinnen Scores, Kategorien oder nur Endentscheidungen sehen.
Beispiel (konzeptionell): Ein Community-Blog könnte Kommentare unterhalb einer Risikoschwelle automatisch veröffentlichen, Grenzfälle zur manuellen Prüfung einreihen und klare Verstöße blockieren. Schwellen mappen Sie über die in Admin oder Config-Dateien Ihrer Version freigegebenen Regler.
Einsatzszenarien
- Publikationen mit Kommentaren — Moderationslast senken, Menschen bleiben bei Zweifelsfällen in der Schleife.
- Nutzerbeiträge — kurze Texte aus Formularen oder Pitches, wo automatische Vorfilterung die Redaktion entlastet.
- Interne Wikis oder Docs mit Vorschlägen — leichtes Screening vor Livegang.
Betriebshinweise
- Prüfen Sie regelmäßig False Positives; kalibrieren Sie Schwellen nach echtem Traffic, nicht nur synthetischen Tests.
- Kombinieren Sie mit Audit Log, wenn Compliance nachvollziehbare Entscheidungen zu moderierten Inhalten verlangt.
- Beobachten Sie Workers-AI-Nutzung und Latenz, damit Moderation im Budget und UX bleibt.