A API de Detecção de Toxicidade é uma ferramenta crucial para manter um ambiente online seguro e respeitoso. Projetada especificamente para analisar conteúdo gerado por usuários, esta API de Compreensão de Linguagem é dedicada a identificar e filtrar várias formas de toxicidade. Desde palavrões e insultos até toxicidades severas, textos obscenos, ameaças e ódio à identidade, a API emprega algoritmos avançados para detectar com precisão conteúdo prejudicial e prevenir sua disseminação.
Para plataformas online, redes sociais e sites orientados por comunidades, a presença de conteúdo tóxico pode levar a consequências severas, incluindo danificação de reputações, diminuição do engajamento dos usuários e potenciais problemas legais. A API de Detecção de Toxicidade aborda essas preocupações ao escanear e avaliar automaticamente comentários, publicações e mensagens de usuários em tempo real.
A implementação desta API não apenas ajuda a proteger os membros da comunidade de conteúdos ofensivos e prejudiciais, mas também capacita os administradores da plataforma a tomar medidas proativas para moderar discussões e preservar uma experiência positiva para os usuários. Ao detectar rapidamente linguagem tóxica, os moderadores podem intervir prontamente, mitigar conflitos e promover uma comunidade online saudável e respeitosa.
A versatilidade da API de Detecção de Toxicidade se estende além do simples filtragem de palavras-chave. Ao empregar técnicas de processamento de linguagem natural e aprendizado de máquina, ela discerne contexto e nuances, levando a avaliações mais precisas. Isso permite que a API diferencie entre brincadeiras inofensivas e conteúdo genuinamente prejudicial, minimizando falsos positivos e garantindo que interações legítimas dos usuários não sejam inadvertidamente sinalizadas.
Além disso, a API pode ser integrada de forma transparente em plataformas existentes, aplicativos e fluxos de trabalho de moderação de conteúdo. Seus endpoints fáceis de usar e documentação clara facilitam a implementação suave, enquanto sua arquitetura escalável garante alto desempenho mesmo sob cargas pesadas.
A importância da detecção de toxicidade vai além das mídias sociais e sites comunitários. Plataformas de e-commerce podem se beneficiar ao filtrar avaliações de produtos e comentários, garantindo que as experiências de seus clientes não sejam manchadas por conteúdo prejudicial. Plataformas educacionais também podem utilizar a API para manter um ambiente de aprendizagem seguro, onde alunos e educadores possam participar de discussões significativas sem medo de assédio ou bullying.
Em conclusão, a API de Detecção de Toxicidade é um ativo indispensável para qualquer plataforma ou aplicativo online que valorize a segurança dos usuários e o bem-estar da comunidade. Com sua cobertura abrangente para detecção de palavrões e toxicidade, ela equipa empresas e organizações com os meios para promover interações respeitosas online, construir confiança e proteger seus usuários de conteúdo nocivo. Ao implementar esta poderosa API de Compreensão de Linguagem, desenvolvedores e administradores podem dar passos proativos em direção à criação de um espaço digital positivo para todos.
Envie o texto que você deseja analisar. A API fará uma análise e detectará as diferentes entidades de toxicidade.
Moderação de Conteúdo em Mídias Sociais: Plataformas de mídias sociais podem integrar a API de Detecção de Toxicidade para detectar automaticamente e filtrar conteúdo tóxico, ofensivo e odioso em comentários, publicações e mensagens de usuários. Isso garante um ambiente mais seguro e acolhedor para os usuários, promovendo discussões saudáveis e reduzindo o risco de assédio online.
Moderação de Fóruns Comunitários: Fóruns comunitários online podem utilizar a API para moderar conteúdo gerado pelos usuários, sinalizando e removendo linguagem tóxica, insultos e ameaças. Ao manter uma atmosfera respeitosa e de apoio, os administradores da comunidade podem incentivar uma participação mais ativa e cultivar um senso de pertencimento entre os membros.
Filtragem de Avaliações de Produtos em E-commerce: Sites de e-commerce podem empregar a API de Detecção de Toxicidade para escanear e filtrar avaliações de produtos em busca de conteúdo tóxico ou avaliações falsas. Isso garante que o sistema de classificação de produtos permaneça confiável e digno de confiança, levando a uma maior confiança dos clientes e a decisões de compra informadas.
Moderação de Conteúdo em Plataformas Educacionais: Plataformas educacionais e sites de e-learning podem utilizar a API para garantir um ambiente de aprendizado seguro e inclusivo. Ao detectar e filtrar linguagem tóxica em discussões e comentários de alunos, os educadores podem promover uma atmosfera positiva para compartilhamento de conhecimento e colaboração.
Plataformas de Publicação de Conteúdo: Plataformas de publicação de conteúdo, incluindo blogs e sites de notícias, podem implementar a API para moderar comentários de usuários e garantir que as discussões permaneçam civis e construtivas. Ao coibir comportamentos tóxicos, essas plataformas podem aumentar o engajamento dos leitores e cultivar uma comunidade online mais respeitosa.
Além do número de chamadas à API, não há nenhuma outra limitação
Este endpoint detecta profanidades, toxicidades, toxicidades severas, textos obscenos, insultos, ameaças e ódio à identidade em um dado texto
Analisador - Recursos do endpoint
| Objeto | Descrição |
|---|---|
text |
[Obrigatório] |
{"semantic_analysis":{"0":{"id_semantic_model":2,"name_semantic_model":"toxic","segment":"You idiot!"},"1":{"id_semantic_model":6,"name_semantic_model":"insult","segment":"You idiot!"},"2":{"id_semantic_model":7,"name_semantic_model":"identity_hate","segment":"You idiot!"},"3":{"id_semantic_model":6,"name_semantic_model":"insult","segment":"I will find where you live and kick you ass!"},"4":{"id_semantic_model":5,"name_semantic_model":"threat","segment":"I will find where you live and kick you ass!"}}}
curl --location --request POST 'https://zylalabs.com/api/2260/toxicity+detection+api/2126/analyzer?text=Required' --header 'Authorization: Bearer YOUR_API_KEY'
| Cabeçalho | Descrição |
|---|---|
Authorization
|
[Obrigatório] Deve ser Bearer access_key. Veja "Sua chave de acesso à API" acima quando você estiver inscrito. |
Sem compromisso de longo prazo. Faça upgrade, downgrade ou cancele a qualquer momento. O teste gratuito inclui até 50 requisições.
Sim a API de Detecção de Toxicidade é projetada para lidar com múltiplas línguas Ela emprega processamento de linguagem natural e modelos de aprendizado de máquina para detectar conteúdo tóxico em texto em várias línguas tornando-a versátil para aplicações globais
A API pode detectar uma ampla gama de conteúdo tóxico, incluindo profanidade, insultos, ameaças, ódio à identidade, toxidades severas e linguagem obscena. Suas capacidades abrangentes de detecção garantem uma moderação robusta de conteúdo para diferentes plataformas
A precisão da API é continuamente melhorada por meio de técnicas avançadas de aprendizado de máquina e atualizações regulares do modelo No entanto assim como em qualquer sistema de processamento de linguagem natural podem ocorrer falsos positivos ou negativos ocasionais É recomendado monitorar o desempenho da API e ajustar os limites de moderação com base em requisitos específicos
Sim a API é adequada para moderação de conteúdo em tempo real devido à sua baixa latência e tempos de resposta rápidos Os desenvolvedores podem integrá-la em aplicativos de chat plataformas de mídia social e plataformas de streaming ao vivo para identificar e abordar conteúdo tóxico em tempo real
Sim a API de Detecção de Toxicidade pode complementar os sistemas de moderação de conteúdo existentes Os desenvolvedores podem integrá-la como uma camada adicional de defesa para aumentar a precisão e a eficiência de seus esforços de moderação especialmente ao lidar com conteúdo complexo ou multilíngue
O endpoint Analyzer retorna um objeto JSON contendo toxicidades detectadas no texto de entrada Inclui segmentos de texto identificados como tóxicos juntamente com suas categorias de toxicidade correspondentes como insultos ameaças e ódio à identidade
Os campos chave na resposta incluem "análise_semântica," que contém um array de segmentos detectados. Cada segmento inclui um "id_modelo_semântico," "nome_modelo_semântico," e o "segmento" de texto identificado como tóxico
Os dados da resposta estão organizados em um formato JSON. Contém um objeto principal com um campo "análise_semântica", que é um array de objetos, cada um representando um segmento tóxico detectado com sua categoria e texto
O endpoint Analyzer aceita principalmente um único parâmetro: o texto a ser analisado Os usuários podem personalizar suas solicitações fornecendo diferentes entradas de texto para avaliar vários conteúdos gerados pelo usuário quanto à toxicidade
Os usuários podem utilizar os dados retornados revisando os segmentos sinalizados como tóxicos. Cada segmento pode ser processado para tomar ações adequadas de moderação, como remover, sinalizar ou revisar o conteúdo com base em seu nível de toxicidade
Casos de uso típicos incluem moderar comentários em redes sociais filtrar avaliações de produtos em sites de e-commerce e garantir discussões respeitosas em plataformas educacionais Os dados ajudam a manter um ambiente online positivo
A precisão dos dados é mantida através do treinamento contínuo de modelos de aprendizado de máquina usando conjuntos de dados diversos Atualizações regulares e ciclos de feedback ajudam a refinar os algoritmos de detecção minimizando falsos positivos e aumentando a confiabilidade
A API utiliza verificações de qualidade como validação de modelos monitoramento de desempenho e análise de feedback do usuário Essas verificações garantem que a detecção de toxicidade permaneça eficaz e se adapte ao uso da linguagem em evolução e ao contexto
Nível de serviço:
100%
Tempo de resposta:
65ms
Nível de serviço:
100%
Tempo de resposta:
246ms
Nível de serviço:
100%
Tempo de resposta:
61ms
Nível de serviço:
100%
Tempo de resposta:
74ms
Nível de serviço:
100%
Tempo de resposta:
950ms
Nível de serviço:
100%
Tempo de resposta:
188ms
Nível de serviço:
100%
Tempo de resposta:
65ms
Nível de serviço:
100%
Tempo de resposta:
404ms
Nível de serviço:
100%
Tempo de resposta:
5.750ms
Nível de serviço:
100%
Tempo de resposta:
377ms
Nível de serviço:
100%
Tempo de resposta:
416ms
Nível de serviço:
50%
Tempo de resposta:
10.656ms
Nível de serviço:
100%
Tempo de resposta:
874ms
Nível de serviço:
100%
Tempo de resposta:
3.033ms
Nível de serviço:
100%
Tempo de resposta:
13.695ms
Nível de serviço:
100%
Tempo de resposta:
11.149ms
Nível de serviço:
100%
Tempo de resposta:
175ms
Nível de serviço:
100%
Tempo de resposta:
76ms
Nível de serviço:
100%
Tempo de resposta:
360ms
Nível de serviço:
100%
Tempo de resposta:
15ms