Em um cenário digital em constante expansão, promover comunidades online saudáveis e inclusivas é uma prioridade máxima. A API Comment Cleanse surge como uma solução poderosa que fornece aos usuários as ferramentas necessárias para identificar e mitigar efetivamente comentários tóxicos. Esta API inovadora utiliza algoritmos avançados de aprendizado de máquina para criar um ambiente online mais seguro ao sinalizar e gerenciar conteúdo prejudicial.
A API Comment Cleanse é uma ferramenta robusta para administradores de plataforma, moderadores de conteúdo e usuários que buscam implementar moderação inteligente de comentários. Ao integrar esta API em fóruns online, plataformas de mídia social ou qualquer site dirigido pela comunidade, os administradores podem automatizar o processo de detecção e gerenciamento de comentários tóxicos, criando um espaço mais seguro para os usuários.
As capacidades em tempo real da API Comment Cleanse permitem ação imediata contra conteúdo prejudicial. Ao detectar comentários tóxicos.
A API Comment Cleanse foi projetada para se integrar perfeitamente a uma variedade de plataformas online. Os usuários podem facilmente incorporar a API em seus aplicativos ou sites, aprimorando as capacidades de moderação sem alterar a experiência geral do usuário. A API suporta diferentes linguagens de programação, tornando-a adaptável a diversos ambientes técnicos.
Em conclusão, a API Comment Cleanse se destaca como um farol para promover um engajamento online positivo. Ao alavancar tecnologia de aprendizado de máquina de ponta, esta API permite que plataformas combatam a toxicidade de maneira eficaz, criando espaços digitais que não são apenas tecnologicamente avançados, mas também seguros, inclusivos e propícios a interações significativas.
Ela receberá parâmetros e fornecerá um JSON.
Plataformas de Mídia Social: Integre a API para detectar e moderar automaticamente comentários tóxicos, promovendo um ambiente positivo e seguro para os usuários.
Fóruns Online: Utilize a API para moderar ativamente discussões, garantindo que a linguagem tóxica seja identificada e tratada prontamente.
Plataformas de Compartilhamento de Conteúdo: Aprimore plataformas de compartilhamento de conteúdo implementando a API para identificar e abordar comentários tóxicos associados ao conteúdo compartilhado.
Sites de Notícias: Proteja discussões online em artigos de notícias usando a API para detectar e moderar comentários tóxicos, mantendo um discurso respeitoso.
Aplicativos Dirigidos pela Comunidade: Integre a API em aplicativos dirigidos pela comunidade para automatizar a identificação e o tratamento de linguagem tóxica nas interações dos usuários.
Plano Básico: 2.500 Chamadas API. 100 solicitações por minuto.
Plano Pro: 6.000 Chamadas API. 150 solicitações por minuto.
Plano Pro Plus: 14.000 Chamadas API. 250 solicitações por minuto.
Para usar este ponto de extremidade você deve inserir um texto no parâmetro
Moderação de Texto - Recursos do endpoint
| Objeto | Descrição |
|---|---|
text |
[Obrigatório] |
[{"label":"toxic","score":0.0508943572640419},{"label":"obscene","score":0.0012038719141855836},{"label":"insult","score":0.0008151644724421203},{"label":"threat","score":0.0006429915083572268},{"label":"identity_hate","score":0.000581100583076477},{"label":"severe_toxic","score":0.00019787249038927257}]
curl --location --request GET 'https://zylalabs.com/api/2980/comment+cleanse+api/3139/text+moderation?text=I hate traveling to places that are far away' --header 'Authorization: Bearer YOUR_API_KEY'
| Cabeçalho | Descrição |
|---|---|
Authorization
|
[Obrigatório] Deve ser Bearer access_key. Veja "Sua chave de acesso à API" acima quando você estiver inscrito. |
Sem compromisso de longo prazo. Faça upgrade, downgrade ou cancele a qualquer momento. O teste gratuito inclui até 50 requisições.
Para usar esta API o usuário deve inserir um texto para verificar se o texto não é ofensivo
A API Comment Cleanse é uma ferramenta poderosa projetada para identificar e gerenciar comentários tóxicos em conteúdos digitais
Existem diferentes planos que atendem a todos incluindo um teste gratuito para uma pequena quantidade de solicitações mas sua taxa é limitada para evitar o abuso do serviço
Zyla oferece uma ampla gama de métodos de integração para quase todas as linguagens de programação Você pode usar esses códigos para integrar com seu projeto conforme necessário
O endpoint de Moderação de Texto retorna um objeto JSON contendo rótulos e pontuações que indicam a presença de vários tipos de toxicidade no texto de entrada Cada rótulo representa uma categoria específica de conteúdo prejudicial como "tóxico" "obsceno" ou "insulto" junto com uma pontuação correspondente que quantifica a probabilidade de aquele rótulo ser aplicável
Os campos principais nos dados de resposta incluem "label", que identifica o tipo de toxicidade, e "score", que indica o nível de confiança da classificação. Por exemplo, uma resposta pode mostrar um "label" de "tóxico" com um "score" de 0,05, sugerindo uma baixa probabilidade de toxicidade
Os dados da resposta são organizados como um array de objetos onde cada objeto contém um "rótulo" e um "ponto". Essa estrutura permite que os usuários analisem e interpretem facilmente os resultados para várias categorias de toxicidade em uma única chamada de API
O parâmetro principal para o endpoint de Moderação de Texto é o "texto" de entrada, que deve ser fornecido para análise. Os usuários podem personalizar suas solicitações variando o conteúdo do texto para avaliar diferentes comentários ou mensagens quanto à toxicidade
Os usuários podem utilizar os dados retornados analisando as pontuações associadas a cada rótulo para determinar a gravidade da toxicidade nos comentários Por exemplo uma pontuação alta para "severe_toxic" pode levar a ações de moderação imediatas enquanto pontuações mais baixas podem informar respostas menos urgentes
Os casos de uso típicos para os dados de moderação de texto incluem moderar comentários em redes sociais filtrar discussões em fóruns online e garantir um discurso respeitoso em sites de notícias A API ajuda a manter um ambiente positivo ao identificar linguagem prejudicial
A precisão dos dados é mantida por meio de algoritmos avançados de aprendizado de máquina que são continuamente treinados em conjuntos de dados diversos Atualizações regulares e verificações de qualidade garantem que a API se adapte a padrões linguísticos em evolução e identifique efetivamente comentários tóxicos
Padrões de dados padrão incluem pontuações variadas em diferentes rótulos indicando a presença de múltiplos tipos de toxicidade em um único comentário Os usuários podem esperar ver uma mistura de pontuações baixas e altas refletindo a complexidade da linguagem e do contexto em conteúdo gerado por usuários
Nível de serviço:
100%
Tempo de resposta:
6.917ms
Nível de serviço:
100%
Tempo de resposta:
1.215ms
Nível de serviço:
100%
Tempo de resposta:
337ms
Nível de serviço:
100%
Tempo de resposta:
3.940ms
Nível de serviço:
100%
Tempo de resposta:
4.374ms
Nível de serviço:
100%
Tempo de resposta:
1.341ms
Nível de serviço:
100%
Tempo de resposta:
1.537ms
Nível de serviço:
100%
Tempo de resposta:
2.633ms
Nível de serviço:
100%
Tempo de resposta:
173ms
Nível de serviço:
100%
Tempo de resposta:
524ms
Nível de serviço:
100%
Tempo de resposta:
1.293ms
Nível de serviço:
100%
Tempo de resposta:
945ms
Nível de serviço:
100%
Tempo de resposta:
823ms
Nível de serviço:
100%
Tempo de resposta:
656ms
Nível de serviço:
100%
Tempo de resposta:
718ms
Nível de serviço:
100%
Tempo de resposta:
696ms
Nível de serviço:
100%
Tempo de resposta:
278ms
Nível de serviço:
100%
Tempo de resposta:
0ms
Nível de serviço:
100%
Tempo de resposta:
587ms
Nível de serviço:
100%
Tempo de resposta:
0ms