内容安全审核员API使用AI检测和分类文本中的有害内容
为社交平台、论坛、聊天应用、评论系统以及需要审核用户生成内容的任何应用而构建
内容适度 - 端点功能
| 对象 | 描述 |
|---|---|
请求体 |
[必需] Json |
{"safe":true,"riskScore":0,"riskLevel":"none","categories":{"violence":{"detected":false,"confidence":0},"hate":{"detected":false,"confidence":0},"sexual":{"detected":false,"confidence":0},"selfHarm":{"detected":false,"confidence":0},"profanity":{"detected":false,"confidence":0},"harassment":{"detected":false,"confidence":0},"criminal":{"detected":false,"confidence":0},"childExploitation":{"detected":false,"confidence":0},"weapons":{"detected":false,"confidence":0},"privacy":{"detected":false,"confidence":0}},"flaggedCategories":[],"summary":"The message is safe and contains no harmful content.","language":"en"}
curl --location --request POST 'https://zylalabs.com/api/12320/content+safety+moderator+api/23139/moderate+content' --header 'Authorization: Bearer YOUR_API_KEY'
--data-raw '{"text":"Hello, this is a friendly test message."}'
| 标头 | 描述 |
|---|---|
授权
|
[必需] 应为 Bearer access_key. 订阅后,请查看上方的"您的 API 访问密钥"。 |
无长期承诺。随时升级、降级或取消。 免费试用包括最多 50 个请求。
The Content Safety Moderator API can detect various types of harmful content including toxic, offensive, hateful, threatening, and inappropriate text.
The API classifies content into several categories such as hate speech, harassment, self-harm, violence, and sexual content, providing a clear understanding of the nature of the detected harmful content.
The API returns confidence scores for each category of harmful content detected, along with an overall safety verdict indicating whether the content is safe or unsafe.
The API is designed for use in social platforms, forums, chat applications, comment systems, and any application that requires moderation of user-generated content to ensure a safe environment.
The API accepts text input for analysis and returns structured output in a format that includes category classifications, confidence scores, and an overall safety verdict.
适度内容端点返回结构化数据,包括总体安全裁定、风险评分、类别分类和对分析文本中检测到的各种有害内容的置信水平
响应中的关键字段包括“安全”(布尔值) “风险分数”(数字) “风险等级”(字符串) “类别”(带有检测内容类型的对象) “标记类别”(数组) 和“摘要”(描述内容安全性的字符串)
响应数据组织成JSON结构,顶级字段包括安全裁定和风险评估,之后是对类别分类及其相应置信分数的详细细分
中等内容端点主要接受一个参数:要分析的文本内容。用户可以通过提供不同的文本输入来定制他们的请求以进行审查
用户可以通过解读“safe”字段来判断内容安全性,使用“riskScore”进行严重性评估,并参考“categories”获取特定有害内容类型以指导审核行动
典型使用案例包括对社交媒体上的用户评论进行审核 在论坛中过滤聊天信息 以及通过自动标记有害文本以供审查来确保在线社区的安全内容
数据准确性通过对多样化数据集进行持续训练的人工智能模型维护 定期更新以提高检测能力 并针对现实世界有害内容的实例进行验证
标准数据模式包括明确指示内容是安全还是不安全的标识 为每个类别提供详细的置信评分 并提供简要总结清晰描述分析结果 有助于快速决策
服务级别:
100%
响应时间:
1,429ms
服务级别:
100%
响应时间:
287ms
服务级别:
100%
响应时间:
1,301ms
服务级别:
100%
响应时间:
229ms
服务级别:
100%
响应时间:
1,056ms
服务级别:
100%
响应时间:
309ms
服务级别:
100%
响应时间:
258ms
服务级别:
100%
响应时间:
1,451ms
服务级别:
100%
响应时间:
832ms
服务级别:
100%
响应时间:
1,877ms
服务级别:
100%
响应时间:
8,745ms
服务级别:
100%
响应时间:
19,082ms
服务级别:
100%
响应时间:
5,162ms
服务级别:
100%
响应时间:
7,052ms
服务级别:
100%
响应时间:
16ms
服务级别:
100%
响应时间:
2,466ms
服务级别:
100%
响应时间:
8,257ms
服务级别:
100%
响应时间:
4,443ms
服务级别:
50%
响应时间:
9,443ms
服务级别:
100%
响应时间:
16ms