A API de Moderador de Conteúdo Seguro usa IA para detectar e classificar conteúdo prejudicial em texto
Construída para plataformas sociais, fóruns, aplicativos de chat, sistemas de comentários e qualquer aplicativo que necessite moderar conteúdo gerado por usuários
Analisa o conteúdo do texto em busca de segurança e retorna pontuações de toxicidade e classificações de categoria
Conteúdo moderado - Recursos do endpoint
| Objeto | Descrição |
|---|---|
Corpo da requisição |
[Obrigatório] Json |
{"safe":true,"riskScore":0,"riskLevel":"none","categories":{"violence":{"detected":false,"confidence":0},"hate":{"detected":false,"confidence":0},"sexual":{"detected":false,"confidence":0},"selfHarm":{"detected":false,"confidence":0},"profanity":{"detected":false,"confidence":0},"harassment":{"detected":false,"confidence":0},"criminal":{"detected":false,"confidence":0},"childExploitation":{"detected":false,"confidence":0},"weapons":{"detected":false,"confidence":0},"privacy":{"detected":false,"confidence":0}},"flaggedCategories":[],"summary":"The message is safe and contains no harmful content.","language":"en"}
curl --location --request POST 'https://zylalabs.com/api/12320/content+safety+moderator+api/23139/moderate+content' --header 'Authorization: Bearer YOUR_API_KEY'
--data-raw '{"text":"Hello, this is a friendly test message."}'
| Cabeçalho | Descrição |
|---|---|
Authorization
|
[Obrigatório] Deve ser Bearer access_key. Veja "Sua chave de acesso à API" acima quando você estiver inscrito. |
Sem compromisso de longo prazo. Faça upgrade, downgrade ou cancele a qualquer momento. O teste gratuito inclui até 50 requisições.
The Content Safety Moderator API can detect various types of harmful content including toxic, offensive, hateful, threatening, and inappropriate text.
The API classifies content into several categories such as hate speech, harassment, self-harm, violence, and sexual content, providing a clear understanding of the nature of the detected harmful content.
The API returns confidence scores for each category of harmful content detected, along with an overall safety verdict indicating whether the content is safe or unsafe.
The API is designed for use in social platforms, forums, chat applications, comment systems, and any application that requires moderation of user-generated content to ensure a safe environment.
The API accepts text input for analysis and returns structured output in a format that includes category classifications, confidence scores, and an overall safety verdict.
O endpoint de Conteúdo Moderado retorna dados estruturados que incluem um veredicto geral de segurança, pontuações de risco, classificações de categoria e níveis de confiança para vários tipos de conteúdo prejudicial detectado no texto analisado
Os campos-chave na resposta incluem "seguro" (booleano), "pontuaçãoDeRisco" (numérico), "nívelDeRisco" (string), "categorias" (objeto com tipos de conteúdo detectados), "categoriasMarcadas" (array) e "resumo" (string descrevendo a segurança do conteúdo)
Os dados da resposta estão organizados em uma estrutura JSON com campos de nível superior para veredictos de segurança e avaliações de risco seguidos por uma análise detalhada das classificações de categoria e suas respectivas pontuações de confiança
O endpoint de Conteúdo Moderado aceita principalmente um único parâmetro: o conteúdo de texto a ser analisado Os usuários podem personalizar suas solicitações fornecendo diferentes entradas de texto para moderação
Os usuários podem utilizar os dados retornados interpretando o campo "safe" para determinar a segurança do conteúdo usando "riskScore" para avaliação de severidade e referindo-se a "categories" para tipos específicos de conteúdo prejudicial para informar ações de moderação
Casos de uso típicos incluem moderar comentários de usuários em redes sociais filtrar mensagens de chat em fóruns e garantir conteúdo seguro em comunidades online marcando automaticamente textos prejudiciais para revisão
A precisão dos dados é mantida através de treinamento contínuo do modelo de IA em conjuntos de dados diversificados atualizações regulares para melhorar as capacidades de detecção e validação com base em exemplos reais de conteúdo prejudicial
Padrões de dados padrão incluem uma indicação clara de se o conteúdo é seguro ou inseguro, pontuações de confiança detalhadas para cada categoria e um resumo que descreve sucintamente o resultado da análise, auxiliando na tomada de decisões rápidas
Nível de serviço:
100%
Tempo de resposta:
642ms
Nível de serviço:
100%
Tempo de resposta:
349ms
Nível de serviço:
100%
Tempo de resposta:
166ms
Nível de serviço:
100%
Tempo de resposta:
608ms
Nível de serviço:
100%
Tempo de resposta:
2.201ms
Nível de serviço:
100%
Tempo de resposta:
280ms
Nível de serviço:
100%
Tempo de resposta:
1.377ms
Nível de serviço:
100%
Tempo de resposta:
173ms
Nível de serviço:
83%
Tempo de resposta:
220ms
Nível de serviço:
100%
Tempo de resposta:
237ms
Nível de serviço:
100%
Tempo de resposta:
1.675ms
Nível de serviço:
100%
Tempo de resposta:
438ms
Nível de serviço:
100%
Tempo de resposta:
1.296ms
Nível de serviço:
100%
Tempo de resposta:
1.368ms
Nível de serviço:
100%
Tempo de resposta:
1.368ms
Nível de serviço:
100%
Tempo de resposta:
327ms
Nível de serviço:
100%
Tempo de resposta:
1.368ms
Nível de serviço:
100%
Tempo de resposta:
1.162ms
Nível de serviço:
100%
Tempo de resposta:
4.636ms
Nível de serviço:
100%
Tempo de resposta:
1.856ms