La API de Moderador de Seguridad de Contenido utiliza IA para detectar y clasificar contenido dañino en texto
Construido para plataformas sociales, foros, aplicaciones de chat, sistemas de comentarios y cualquier aplicación que necesite moderar contenido generado por usuarios
Analiza el contenido del texto en busca de seguridad y devuelve puntajes de toxicidad y clasificaciones de categoría
Contenido moderado - Características del Endpoint
| Objeto | Descripción |
|---|---|
Cuerpo de la Solicitud |
[Requerido] Json |
{"safe":true,"riskScore":0,"riskLevel":"none","categories":{"violence":{"detected":false,"confidence":0},"hate":{"detected":false,"confidence":0},"sexual":{"detected":false,"confidence":0},"selfHarm":{"detected":false,"confidence":0},"profanity":{"detected":false,"confidence":0},"harassment":{"detected":false,"confidence":0},"criminal":{"detected":false,"confidence":0},"childExploitation":{"detected":false,"confidence":0},"weapons":{"detected":false,"confidence":0},"privacy":{"detected":false,"confidence":0}},"flaggedCategories":[],"summary":"The message is safe and contains no harmful content.","language":"en"}
curl --location --request POST 'https://zylalabs.com/api/12320/content+safety+moderator+api/23139/moderate+content' --header 'Authorization: Bearer YOUR_API_KEY'
--data-raw '{"text":"Hello, this is a friendly test message."}'
| Encabezado | Descripción |
|---|---|
Autorización
|
[Requerido] Debería ser Bearer access_key. Consulta "Tu Clave de Acceso a la API" arriba cuando estés suscrito. |
Sin compromiso a largo plazo. Mejora, reduce o cancela en cualquier momento. La Prueba Gratuita incluye hasta 50 solicitudes.
The Content Safety Moderator API can detect various types of harmful content including toxic, offensive, hateful, threatening, and inappropriate text.
The API classifies content into several categories such as hate speech, harassment, self-harm, violence, and sexual content, providing a clear understanding of the nature of the detected harmful content.
The API returns confidence scores for each category of harmful content detected, along with an overall safety verdict indicating whether the content is safe or unsafe.
The API is designed for use in social platforms, forums, chat applications, comment systems, and any application that requires moderation of user-generated content to ensure a safe environment.
The API accepts text input for analysis and returns structured output in a format that includes category classifications, confidence scores, and an overall safety verdict.
El punto final de Contenido Moderado devuelve datos estructurados que incluyen un veredicto general de seguridad puntuaciones de riesgo clasificaciones de categoría y niveles de confianza para varios tipos de contenido dañino detectado en el texto analizado
Los campos clave en la respuesta incluyen "safe" (booleano), "riskScore" (numérico), "riskLevel" (cadena), "categories" (objeto con tipos de contenido detectados), "flaggedCategories" (arreglo) y "summary" (cadena que describe la seguridad del contenido)
Los datos de respuesta están organizados en una estructura JSON con campos de primer nivel para veredictos de seguridad y evaluaciones de riesgo seguidos de un desglose detallado de clasificaciones por categoría y sus respectivos puntajes de confianza
El endpoint de Contenido Moderado acepta principalmente un solo parámetro: el contenido textual que se debe analizar. Los usuarios pueden personalizar sus solicitudes proporcionando diferentes entradas de texto para moderación
Los usuarios pueden utilizar los datos devueltos interpretando el campo "safe" para determinar la seguridad del contenido utilizando "riskScore" para la evaluación de la gravedad y refiriéndose a "categories" para tipos específicos de contenido dañino para informar las acciones de moderación
Los casos de uso típicos incluyen moderar comentarios de usuarios en redes sociales filtrar mensajes de chat en foros y garantizar contenido seguro en comunidades en línea al señalar automáticamente texto dañino para revisión
La precisión de los datos se mantiene a través de la capacitación continua del modelo de IA en conjuntos de datos diversos actualizaciones regulares para mejorar las capacidades de detección y validación contra ejemplos del mundo real de contenido dañino
Los patrones de datos estándar incluyen una clara indicación de si el contenido es seguro o no seguro puntajes de confianza detallados para cada categoría y un resumen que describe de manera sucinta el resultado del análisis ayudando en la toma de decisiones rápida
Nivel de Servicio:
100%
Tiempo de Respuesta:
349ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
642ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
608ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
1.377ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
2.201ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
166ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
280ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
173ms
Nivel de Servicio:
83%
Tiempo de Respuesta:
220ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
237ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
76ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
48ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
45ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
39ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
815ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
7.189ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
526ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
57ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
48ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
66ms