मेटा ने अपनी कंटेंट मॉडरेशन नीतियों में हाल ही में किए कई नए बदलाव, आप भी जानें

Photo Source :

Posted On:Friday, January 10, 2025

मुंबई, 10 जनवरी, (न्यूज़ हेल्पलाइन) फेसबुक और इंस्टाग्राम की मूल कंपनी मेटा, अपनी सामग्री मॉडरेशन नीतियों में हाल ही में किए गए बदलावों के कारण आलोचनाओं का सामना कर रही है, जिसके तहत अब विभिन्न नस्लीय, जातीय, यौन और लैंगिक पहचानों को लक्षित करने वाले अपमानजनक भाषणों की एक विस्तृत श्रृंखला की अनुमति है। द इंटरसेप्ट द्वारा प्राप्त आंतरिक प्रशिक्षण सामग्री में अब स्वीकार्य भाषणों के उदाहरण सामने आए हैं, जिनमें अत्यधिक आपत्तिजनक गालियाँ और अमानवीय भाषा शामिल हैं।

नीति में यह बदलाव मेटा द्वारा अपने तथ्य-जांच कार्यक्रम को निलंबित करने के साथ मेल खाता है, जिसका उद्देश्य मंगलवार को जारी कंपनी के बयान के अनुसार "अधिक भाषण की अनुमति देने के लिए प्रतिबंध हटाना" है। मेटा के नए वैश्विक नीति प्रमुख जोएल कपलान ने इस बदलाव का बचाव करते हुए इसे पूरे प्लेटफ़ॉर्म पर सामग्री प्रबंधन की बढ़ती जटिलता को संबोधित करने का प्रयास बताया। सीईओ मार्क जुकरबर्ग ने भी इसी तरह की भावनाओं को दोहराया, और बदलावों को स्वतंत्र वैचारिक और राजनीतिक अभिव्यक्ति को बढ़ावा देने के साधन के रूप में पेश किया।

हालांकि, आलोचकों का तर्क है कि ये बदलाव सोशल मीडिया पर हानिकारक बयानबाजी और गलत सूचना के लिए द्वार खोलते हैं। सामने आए उक्त प्रशिक्षण दस्तावेज़ बताते हैं कि मॉडरेटर को अब संशोधित घृणास्पद भाषण नीति के तहत पोस्ट को कैसे संभालना है। सामग्री में नए दिशा-निर्देशों के तहत स्वीकार्य माने जाने वाले पोस्ट के उदाहरण शामिल हैं, जैसे कि अप्रवासियों, LGBTQ+ व्यक्तियों और अल्पसंख्यकों के बारे में अपमानजनक टिप्पणियाँ, जिन्हें पहले प्रतिबंधित किया गया था।

मेटा ने 7 जनवरी, 2025 को घोषणा की कि वह अपने प्लेटफ़ॉर्म पर तथ्य-जाँच उपायों को लागू करना बंद कर देगा। कंपनी के सीईओ मार्क जुकरबर्ग ने कहा कि तथ्य-जाँच करने वाली टीम बहुत सारी गलतियाँ कर रही है। बेशक, टीम ने पलटवार किया और कहा कि जुकरबर्ग के दावे झूठे हैं। यह निर्णय दुनिया भर के मेटा आलोचकों के बीच पहले से ही काफी अलोकप्रिय रहा है, जो मानते हैं कि जुकरबर्ग ने केवल नए अमेरिकी राष्ट्रपति डोनाल्ड ट्रम्प को खुश करने के लिए सामग्री नीति में यह बदलाव किया है।

इसके अलावा, इस कदम ने अलार्म भी बजाया है क्योंकि तथ्य-जाँच को गलत सूचना से निपटने के लिए एक महत्वपूर्ण उपकरण के रूप में देखा जाता है, खासकर चुनावों और सार्वजनिक स्वास्थ्य संकटों के दौरान। आलोचकों का कहना है कि इन सुरक्षा उपायों को हटाने से झूठी कहानियों और हानिकारक प्रचार का प्रसार बढ़ सकता है।


नतीजतन, रिपोर्ट बताती हैं कि Facebook और Instagram को कैसे हटाया जाए, इस बारे में Google खोज बढ़ रही है। नीति में बदलाव के बाद से फेसबुक और इंस्टाग्राम पर भी कथित तौर पर जुड़ाव कम हुआ है। उपयोगकर्ता, विशेष रूप से सोशल मीडिया कंपनियों से अधिक जवाबदेही की वकालत करने वाले, डरते हैं कि मेटा के नीतिगत बदलावों से उसके प्लेटफ़ॉर्म की सुरक्षा और विश्वसनीयता से समझौता होगा।

मेटा की तथ्य-जांच पहल, जिसे दिसंबर 2016 में लॉन्च किया गया था, को फर्जी खबरों के प्रसार पर कड़ी जांच के दौर में पेश किया गया था। इस कार्यक्रम की शुरुआत में भरोसा बहाल करने की दिशा में एक कदम के रूप में सराहना की गई थी। भ्रामक सामग्री की पहुंच को चिह्नित और सीमित करके, कंपनी का उद्देश्य वायरल होक्स और गलत सूचना अभियानों के प्रभाव को रोकना था। हालाँकि, इन उपायों को बंद करना एक स्पष्ट उलटफेर का संकेत देता है, जिससे कई लोग पारदर्शिता और सार्वजनिक जिम्मेदारी के लिए मेटा की प्रतिबद्धता पर सवाल उठा रहे हैं।

इन बदलावों का ऑनलाइन पारिस्थितिकी तंत्र पर व्यापक प्रभाव पड़ता है। चूंकि हानिकारक सामग्री और गलत सूचना संभावित रूप से अनियंत्रित रूप से पनपती है, इसलिए विश्वसनीय जानकारी के स्रोत के रूप में सोशल मीडिया की भूमिका सवालों के घेरे में आ जाती है। जिम्मेदार डिजिटल शासन के पैरोकारों का तर्क है कि मेटा जैसे प्लेटफ़ॉर्म को उपयोगकर्ता सुरक्षा और साझा जानकारी की अखंडता को अनियंत्रित मुक्त अभिव्यक्ति पर प्राथमिकता देनी चाहिए।


जोधपुर और देश, दुनियाँ की ताजा ख़बरे हमारे Facebook पर पढ़ने के लिए यहां क्लिक करें,
और Telegram चैनल पर पढ़ने के लिए यहां क्लिक करें



You may also like !

मेरा गाँव मेरा देश

अगर आप एक जागृत नागरिक है और अपने आसपास की घटनाओं या अपने क्षेत्र की समस्याओं को हमारे साथ साझा कर अपने गाँव, शहर और देश को और बेहतर बनाना चाहते हैं तो जुड़िए हमसे अपनी रिपोर्ट के जरिए. Jodhpurvocalsteam@gmail.com

Follow us on

Copyright © 2021  |  All Rights Reserved.

Powered By Newsify Network Pvt. Ltd.