यह एपीआई टेक्स्ट में आपत्तिजनक भाषा का स्वचालित रूप से पता लगाने के लिए एक उन्नत प्रणाली प्रदान करता है, जिससे अनुचित शब्दों, अपमानों और संभावित रूप से हानिकारक अभिव्यक्तियों की सटीक पहचान की जा सके। इसका मुख्य उद्देश्य वास्तविक समय में पाठों का मूल्यांकन करने में मदद करना है, जिससे उपयोगकर्ता-जनित सामग्री की सुरक्षा और गुणवत्ता में सुधार हो सके। जब एक टेक्स्ट इनपुट के रूप में भेजा जाता है, तो एपीआई एक संरचित विश्लेषण लौटाता है जिसमें संदेश में मौजूद विषाक्तता के स्तर को समझने के लिए आवश्यक कई संकेतक शामिल होते हैं।
सबसे महत्वपूर्ण विशेषताओं में से एक isProfanity है, जो एक बूलियन मान है जो यह दर्शाता है कि क्या टेक्स्ट में आपत्तिजनक या अनुचित भाषा शामिल है। यह एक स्कोर भी प्रदान करता है, जो एक मात्रात्मक मीट्रिक है जो दर्शाता है कि टेक्स्ट को अश्लील माना जाने की अनुमानित संभावना क्या है। यह मान विशेष रूप से उन वातावरणों में उपयोगी है जहाँ विभिन्न संदर्भों या दर्शकों के लिए मॉडरेशन थ्रेशोल्ड को समायोजित करने की आवश्यकता होती है।
एपीआई में एक गंभीरता क्षेत्र भी शामिल है, जो पता लगाए गए भाषा के गंभीरता के स्तर को वर्गीकृत करता है। यह वर्गीकरण हल्की स्थितियों, जैसे कि बोलचाल की अभिव्यक्तियों, और अधिक गंभीर स्थितियों, जैसे कि सीधे अपमान या अत्यधिक विषाक्त भाषा के बीच भेद करने की अनुमति देता है। स्पष्टता के लिए, प्रतिक्रिया में flaggedFor भी निर्दिष्ट किया गया है, जो श्रेत्तियों का एक सेट है जो यह बताता है कि टेक्स्ट को फ्लैग करने का सही कारण क्या था, जिससे स्वचालित प्रणाली को अधिक सूचित निर्णय लेने में मदद मिलती है।
पाठ का विश्लेषण करता है और अपमानजनक भाषा का पता लगाता है जिससे गंभीरता, स्कोर, चिह्नित श्रेणी, भाषा और यह कि सामग्री को अश्लील या अनुपयुक्त माना जाना चाहिए या नहीं लौटाता है
पाठ विश्लेषक - एंडपॉइंट फीचर्स
| ऑब्जेक्ट | विवरण |
|---|---|
रिक्वेस्ट बॉडी |
[आवश्यक] Json |
{"isProfanity":true,"score":0.8,"severity":70,"flaggedFor":["insult"],"language":"en","dialect":"general"}
curl --location --request POST 'https://zylalabs.com/api/11451/text+content+censorship+fetch+api/21611/text+analyzer' --header 'Authorization: Bearer YOUR_API_KEY'
--data-raw '{
"message": "I hate you"
}'
| हेडर | विवरण |
|---|---|
Authorization
|
[आवश्यक] होना चाहिए Bearer access_key. जब आप सब्सक्राइब हों तो ऊपर "Your API Access Key" देखें। |
कोई लंबी अवधि की प्रतिबद्धता नहीं। कभी भी अपग्रेड, डाउनग्रेड या कैंसल करें। फ्री ट्रायल में 50 रिक्वेस्ट तक शामिल हैं।
टेक्स्ट एनालाइज़र एंडपॉइंट संरचित डेटा लौटाता है जिसमें विश्लेषित पाठ में आपत्तिजनक भाषा के संकेत शामिल होते हैं मुख्य आउटपुट में यह शामिल है कि क्या पाठ में गाली-गलौज है एक गंभीरता स्कोर एक जोखिम स्कोर ध्वजांकित श्रेणियाँ पाठ की भाषा और पहचानी गई बोलियाँ
प्रतिक्रिया डेटा में मुख्य क्षेत्र `isProfanity` (बूलियन), `score` (संख्यात्मक), `severity` (संख्यात्मक), `flaggedFor` (श्रेणियों की सूची), `language` (स्ट्रिंग), और `dialect` (स्ट्रिंग) हैं ये क्षेत्र पता की गई अपशब्द भाषा की प्रकृति और गंभीरता के बारे में जानकारी प्रदान करते हैं
प्रतिक्रिया डेटा JSON प्रारूप में व्यवस्थित है प्रत्येक कुंजी विश्लेषण के विशिष्ट पहलू का प्रतिनिधित्व करती है उदाहरण के लिए `isProfanity` यह दर्शाता है कि क्या पाठ आक्रामक है जबकि `flaggedFor` चिह्नित करने के कारणों को सूचीबद्ध करता है जिससे स्वचालित सिस्टम द्वारा आसानी से पार्सिंग और व्याख्या संभव होती है
टेक्स्ट एनालाइज़र एंडपॉइंट अपमानजनक भाषा की उपस्थिति सर्वोच्चता स्तर जोखिम स्कोर ध्वजांकित सामग्री की श्रेणियों और टेक्स्ट की भाषा और बोलियों पर जानकारी प्रदान करता है यह व्यापक विश्लेषण उपयोगकर्ता-निर्मित सामग्री की विषाक्तता को समझने में मदद करता है
उपयोगकर्ता टेक्स्ट एनालाइज़र एंडपॉइंट पर भेजे जाने वाले इनपुट टेक्स्ट को समायोजित करके अपने डेटा अनुरोधों को कस्टमाइज़ कर सकते हैं जबकि एंडपॉइंट अतिरिक्त पैरामीटर स्वीकार नहीं करता है टेक्स्ट की सामग्री स्वयं विभिन्न परिस्थितियों का परीक्षण करने और विभिन्न प्रकार की भाषा का विश्लेषण करने के लिए भिन्न हो सकती है
टेक्सट एनालाइजर डेटा के लिए सामान्य उपयोग के मामलों में सोशल मीडिया प्लेटफॉर्म के लिए सामग्री moder बढ़ाना वेबसाइटों पर उपयोगकर्ता टिप्पणियों को फ़िल्टर करना चैट एप्लिकेशन को सुधारना ताकि उत्पीड़न को रोका जा सके और विषैला भाषा पहचान कर सामुदायिक दिशानिर्देशों का पालन सुनिश्चित करना शामिल है
डेटा सटीकता को आधारभूत भाषा मॉडल के निरंतर अपडेट और विविध डेटासेट के खिलाफ नियमित मूल्यांकन द्वारा बनाए रखा जाता है यह सुनिश्चित करता है कि एपीआई विभिन्न संदर्भों और बोलियों के बीच आक्रामक भाषा को प्रभावी ढंग से पहचान और वर्गीकृत कर सके
प्रतिक्रिया में मानक डेटा पैटर्न में यह स्पष्ट संकेत शामिल होता है कि क्या पाठ अश्लील है (`isProfanity`), भाषा की गंभीरता को दर्शाने वाला एक संख्यात्मक स्कोर, और `flaggedFor` में श्रेणियों की एक सूची होती है उपयोगकर्ता JSON प्रतिक्रिया में निरंतर प्रारूपण और संरचना की अपेक्षा कर सकते हैं
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
813ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
4,287ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
9,220ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
6,541ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
534ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
11,333ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
279ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
765ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
608ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
50ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
3,177ms
सर्विस लेवल:
50%
रिस्पॉन्स टाइम:
462ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
3,034ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
2,539ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
575ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
16ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
7,242ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
5,977ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
3,520ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
3,081ms