Tuesday, November 30EPS 95, EPFO, JOB NEWS

‘Borderline’ problematic content faster, slips under radar: Facebook memo

“बॉर्डरलाइन कंटेंट” का 40 प्रतिशत जितना कि अनदेखा किया गया फेसबुक15 अप्रैल, 2019, सोशल मीडिया कंपनी के आंतरिक ज्ञापन के अनुसार, संविदात्मक मध्यस्थ समस्याग्रस्त थे और इसमें “नग्नता”, “हिंसा” और “नफरत” शामिल थे।

फेसबुक “बॉर्डरलाइन कंटेंट” को परिभाषित करता है, जो “सामुदायिक मानकों का उल्लंघन नहीं करता है, लेकिन सीएस (सामुदायिक मानक) द्वारा कवर किए गए क्षेत्र में पहचान योग्य रूप से समस्याग्रस्त है”।

अधिक महत्वपूर्ण रूप से, इस तरह की सामग्री ने उन पोस्ट की तुलना में व्यूपोर्ट व्यू (वीपीवी) का 10 गुना उत्पन्न किया, जिन्हें प्लेटफ़ॉर्म के दिशानिर्देशों का एकमुश्त उल्लंघन करने के रूप में चिह्नित किया गया था, दस्तावेज़ में दिखाया गया है। व्यूपोर्ट व्यू एक फेसबुक मीट्रिक है जो यह मापने के लिए है कि सामग्री वास्तव में उपयोगकर्ताओं द्वारा कितनी बार देखी जाती है।

अप्रैल 2019 की रिपोर्ट में यह भी बताया गया है कि सीमा रेखा सामग्री “सौम्य” पदों की तुलना में अधिक सहभागिता प्राप्त करती है, और “उच्च वितरण” प्राप्त करने की प्रवृत्ति है – जिसका अर्थ है कि यह अधिक फेसबुक उपयोगकर्ताओं तक पहुंच गया – और “विकृत प्रोत्साहन का मुकाबला करने के लिए हस्तक्षेप की आवश्यकता” को रेखांकित किया।

ये आंतरिक निष्कर्ष मेटा प्लेटफॉर्म्स इंक के मुख्य कार्यकारी अधिकारी मार्क जुकरबर्ग के लगभग एक साल बाद आते हैं – फेसबुक को इस साल 28 अक्टूबर को मेटा के रूप में फिर से ब्रांडेड किया गया था – 2018 में एक विस्तृत नोट साझा किया था कि कैसे प्लेटफ़ॉर्म ने सीमा रेखा सामग्री को फ़िल्टर और डिमोट करने की योजना बनाई है। मेटा का यह भी दावा है कि उसने अपने सोशल मीडिया प्लेटफॉर्म पर भड़काऊ भाषण को कम करने में बिताए घंटों की संख्या बढ़ा दी है।

सीमा रेखा सामग्री के उच्च जुड़ाव स्तर और ऐसी सामग्री को हटाने की आवश्यकता के बीच संघर्ष के बारे में पूछे जाने पर, मेटा प्रवक्ता ने कहा: “हम सीमा रेखा सामग्री का पता लगाने के लिए एआई सिस्टम को प्रशिक्षित करते हैं ताकि हम उस सामग्री को कम वितरित कर सकें। चुनाव से पहले या चुनाव के दौरान समस्यात्मक सामग्री के वायरल होने और संभावित रूप से हिंसा भड़काने के जोखिम को कम करने के लिए, हम उस सामग्री के वितरण को महत्वपूर्ण रूप से कम कर देंगे जिसे हमारी सक्रिय पहचान तकनीक संभावित अभद्र भाषा या हिंसा और उकसावे के रूप में पहचानती है। हमारी नीतियों का उल्लंघन करने के लिए निर्धारित होने पर इस सामग्री को हटा दिया जाएगा, लेकिन इसका वितरण तब तक कम रहेगा जब तक कि यह निर्धारण नहीं हो जाता।

“हमारे मौजूदा सामुदायिक मानकों के तहत, हम कुछ ऐसे अपशब्दों को हटाते हैं जिन्हें हम अभद्र भाषा के रूप में निर्धारित करते हैं। उस प्रयास को पूरा करने के लिए, हम अभद्र भाषा से जुड़े नए शब्दों और वाक्यांशों की पहचान करने के लिए प्रौद्योगिकी को तैनात कर सकते हैं, और या तो उस भाषा के साथ पोस्ट हटा सकते हैं या उनके वितरण को कम कर सकते हैं, ”प्रवक्ता ने कहा।

ये आंतरिक रिपोर्ट संयुक्त राज्य प्रतिभूति और विनिमय आयोग (एसईसी) के सामने प्रकट किए गए दस्तावेज़ों का हिस्सा हैं और पूर्व फेसबुक कर्मचारी और व्हिसलब्लोअर फ्रांसेस हौगेन के कानूनी सलाहकार द्वारा संशोधित रूप में कांग्रेस को प्रदान किए गए हैं। कांग्रेस द्वारा प्राप्त संशोधित संस्करणों की समीक्षा वैश्विक समाचार संगठनों के एक संघ द्वारा की गई है, जिनमें शामिल हैं इंडियन एक्सप्रेस.

आंतरिक दस्तावेजों का एक और सेट, जिसका शीर्षक “भारत में सांप्रदायिक संघर्ष” है, ने पाया कि जब मार्च 2020 में हिंदी और बंगाली में अभद्र भाषा की सामग्री बढ़ गई, तो फेसबुक की “इस (बंगाली) सामग्री पर कार्रवाई की दर मार्च (2020) से लगभग पूरी तरह से गिर गई है। ) रिपोर्टिंग दरों में वृद्धि के बीच कम कार्रवाई दर से प्रेरित”, यहां तक ​​​​कि अंग्रेजी भाषा में पदों के लिए की गई कार्रवाई में तेजी से वृद्धि हुई।

“जून 2019 के बाद से, भारत में प्रति दैनिक सक्रिय उपयोगकर्ताओं के लिए कार्रवाई से घृणा सामग्री विशेष रूप से अंग्रेजी सामग्री के लिए काफी बढ़ गई है, जो 1 जून 2019 की तुलना में आज 4 गुना अधिक है। अंग्रेजी वृद्धि उच्च कार्रवाई दरों से प्रेरित है, रिपोर्ट नहीं,” आंतरिक रिपोर्ट दिखाया।

कंपनी के प्रवक्ता ने कहा: “अभद्र भाषा के आसपास हमारी सक्रिय पहचान दर 97% से अधिक बनी हुई है, जिसका अर्थ है कि लगभग 97% अभद्र भाषा सामग्री जिसे हम हटाते हैं, हम किसी के द्वारा रिपोर्ट किए जाने से पहले ही इसका सक्रिय रूप से पता लगा लेते हैं। इस उदाहरण में, आप उपयोगकर्ताओं द्वारा रिपोर्ट की गई सामग्री को हमारे क्लासिफायर (एआई टेक्नोलॉजी) द्वारा पकड़ी गई सामग्री से मिला रहे हैं। रिपोर्ट की गई सामग्री पर कम कार्रवाई दर विभिन्न कारणों से हो सकती है, हम उन्हें अपनी मासिक रिपोर्ट में भी समझाते हैं।”


कम कार्रवाई दर की व्याख्या करने वाले कुछ कारणों में कंपनी की किसी भी नीति का उल्लंघन नहीं करने वाली रिपोर्ट की गई सामग्री शामिल है; रिपोर्टर उस सामग्री का पता लगाने के लिए पर्याप्त जानकारी प्रदान नहीं कर रहा है जिसकी वे रिपोर्ट करने का प्रयास कर रहे हैं; कंपनी की नीतियां उसे रिपोर्ट की गई सामग्री पर कोई कार्रवाई करने की अनुमति नहीं देती हैं; और रिपोर्टर “हमें अपने और तीसरे पक्ष के बीच एक विवाद के बारे में लिख रहा है, जिसे फेसबुक मध्यस्थता करने की स्थिति में नहीं है”, प्रवक्ता ने कहा।

इंडियन एक्सप्रेस ने इस सप्ताह की शुरुआत में बताया था कि पिछले दो वर्षों में कई आंतरिक फेसबुक रिपोर्टों ने 2019 की लोकसभा के “एक महत्वपूर्ण घटक” के रूप में “अल्पसंख्यक विरोधी” और “मुस्लिम विरोधी” बयानबाजी में वृद्धि को लाल झंडी दिखा दी थी। चुनाव अभियान।

.

Source link

Leave a Reply

Your email address will not be published. Required fields are marked *