बीएसआर ऑडिट में पाया गया कि फेसबुक ने इजरायल-गाजा युद्ध में फिलिस्तीनियों को चोट पहुंचाई।

पिछले साल इजरायल और आतंकवादी फिलिस्तीनी समूह हमास के बीच दो सप्ताह के युद्ध के दौरान मेटा की ऑनलाइन सामग्री को संभालने के एक स्वतंत्र ऑडिट में पाया गया कि सोशल मीडिया दिग्गज ने फिलिस्तीनी उपयोगकर्ताओं को उनकी सामग्री को गलत तरीके से हटाने और अरबी भाषी उपयोगकर्ताओं को दंडित करके उनकी अभिव्यक्ति की स्वतंत्रता से वंचित कर दिया था। हिब्रू भाषी लोगों की तुलना में अधिक भारी।

कंसल्टेंसी बिजनेस फॉर सोशल रिस्पॉन्सिबिलिटी की रिपोर्ट, कंपनी की वैश्विक सार्वजनिक चौक पर पुलिस की क्षमता और तनावपूर्ण अंतरराष्ट्रीय संदर्भ में नुकसान की संभावना के खिलाफ अभिव्यक्ति की स्वतंत्रता को संतुलित करने की क्षमता का एक और अभियोग है। यह युद्धकाल के दौरान एक सामाजिक मंच की विफलताओं के पहले अंदरूनी सूत्रों में से एक का भी प्रतिनिधित्व करता है। और यह फिलिस्तीनी कार्यकर्ताओं की शिकायतों को बल देता है कि ऑनलाइन सेंसरशिप उन पर अधिक भारी पड़ गई, जैसा कि उस समय द वाशिंगटन पोस्ट और अन्य आउटलेट्स द्वारा रिपोर्ट किया गया था।

“बीएसआर रिपोर्ट पुष्टि करती है कि मेटा की सेंसरशिप ने उल्लंघन किया है #फिलिस्तीनी हिब्रू की तुलना में अरबी सामग्री के अधिक से अधिक प्रवर्तन के माध्यम से अन्य मानवाधिकारों के बीच अभिव्यक्ति की स्वतंत्रता का अधिकार, जो काफी हद तक कम नियंत्रित था, “7amleh, अरब सेंटर फॉर द एडवांसमेंट ऑफ सोशल मीडिया, एक समूह जो फिलिस्तीनी डिजिटल अधिकारों की वकालत करता है , ट्विटर पर एक बयान में कहा।

मई 2021 का युद्ध शुरू में एक आसन्न इज़राइली सुप्रीम कोर्ट के मामले में एक संघर्ष से छिड़ गया था जिसमें यह शामिल था कि क्या बसने वालों को यरुशलम में एक विवादित पड़ोस में फिलिस्तीनी परिवारों को उनके घरों से बेदखल करने का अधिकार था। अदालती मामले के बारे में तनावपूर्ण विरोध के दौरान, इज़राइली पुलिस ने अल अक्सा मस्जिद पर धावा बोल दिया, जो इस्लाम के सबसे पवित्र स्थलों में से एक है। हमास, जो गाजा पर शासन करता है, ने इजरायल में रॉकेट दागकर जवाब दिया, और इजरायल ने 11 दिनों के बमबारी अभियान के साथ जवाबी कार्रवाई की, जिसमें 200 से अधिक फिलिस्तीनी मारे गए। दोनों पक्षों के संघर्ष विराम के आह्वान से पहले इज़राइल में एक दर्जन से अधिक लोग मारे गए थे।

पूरे युद्ध के दौरान, तेजी से बढ़ते संघर्ष से जमीनी आख्यानों पर प्रत्यक्ष रूप से साझा करने में उनकी केंद्रीय भूमिका के लिए फेसबुक और अन्य सामाजिक प्लेटफार्मों की सराहना की गई। फिलिस्तीनियों ने बैराज के दौरान मलबे और बच्चों के ताबूतों में ढके घरों की तस्वीरें पोस्ट कीं, जिससे संघर्ष को समाप्त करने के लिए वैश्विक आक्रोश फैल गया।

लेकिन कंटेंट मॉडरेशन की समस्या लगभग तुरंत ही सामने आ गई। विरोध के दौरान, व्हाट्सएप और फेसबुक के साथ मेटा के स्वामित्व वाले इंस्टाग्राम ने हैशटैग #AlAqsa युक्त सामग्री को प्रतिबंधित करना शुरू कर दिया। सबसे पहले कंपनी को दोषी ठहराया स्वचालित सॉफ़्टवेयर परिनियोजन त्रुटि पर समस्या। द पोस्ट द्वारा इस मुद्दे को उजागर करने वाली एक कहानी प्रकाशित करने के बाद, एक मेटा प्रवक्ता ने यह भी कहा कि एक “मानवीय त्रुटि” के कारण गड़बड़ी हुई थी, लेकिन आगे की जानकारी नहीं दी।

बीएसआर रिपोर्ट इस घटना पर नई रोशनी डालती है। रिपोर्ट में कहा गया है कि #AlAqsa हैशटैग को गलती से एक तीसरे पक्ष के ठेकेदार के लिए काम करने वाले कर्मचारी द्वारा आतंकवाद से जुड़े शब्दों की सूची में जोड़ दिया गया था जो कंपनी के लिए सामग्री मॉडरेशन करता है। रिपोर्ट में पाया गया कि कर्मचारी ने “अल अक्सा ब्रिगेड वाले अमेरिकी ट्रेजरी विभाग की शर्तों की एक अद्यतन सूची से गलत तरीके से खींच लिया, जिसके परिणामस्वरूप #AlAqsa को खोज परिणामों से छिपा दिया गया।” अल अक्सा ब्रिगेड एक ज्ञात आतंकवादी समूह है (बज़फीड न्यूज ने उस समय आतंकवाद के गलत लेबलिंग के बारे में आंतरिक चर्चा की सूचना दी)।

सोशल मीडिया पर इजरायल और गाजा में हिंसा के रूप में, कार्यकर्ता तकनीकी कंपनियों के हस्तक्षेप के बारे में चिंता जताते हैं

रिपोर्ट, जिसने केवल 2021 के युद्ध और उसके तत्काल बाद की अवधि की जांच की, फिलिस्तीनी पत्रकारों और कार्यकर्ताओं के वर्षों के खातों की पुष्टि करती है कि फेसबुक और इंस्टाग्राम हिब्रू-भाषियों की तुलना में उनके पोस्ट को अधिक बार सेंसर करते दिखाई देते हैं। उदाहरण के लिए, बीएसआर ने पाया कि इज़राइल और फिलिस्तीनी क्षेत्रों में हिब्रू और अरबी बोलने वालों के बीच जनसंख्या में अंतर को समायोजित करने के बाद, फेसबुक इजरायलियों की तुलना में फिलिस्तीनियों से अधिक पोस्ट को हटा रहा था या स्ट्राइक जोड़ रहा था। आंतरिक डेटा बीएसआर की समीक्षा ने यह भी दिखाया कि सॉफ़्टवेयर नियमित रूप से हिब्रू में सामग्री की तुलना में अरबी में संभावित नियम-तोड़ने वाली सामग्री को उच्च दरों पर फ़्लैग कर रहा था।

रिपोर्ट में कहा गया है कि इसकी संभावना इसलिए थी क्योंकि मेटा की कृत्रिम बुद्धिमत्ता-आधारित अभद्र भाषा प्रणाली विदेशी आतंकवादी संगठनों से जुड़े शब्दों की सूची का उपयोग करती है, जिनमें से कई क्षेत्र के समूह हैं। इसलिए इस बात की अधिक संभावना होगी कि अरबी में पोस्ट करने वाले व्यक्ति की सामग्री को संभावित रूप से एक आतंकवादी समूह से संबद्ध होने के रूप में चिह्नित किया जा सकता है।

इसके अलावा, रिपोर्ट में कहा गया है कि मेटा ने अरबी में नफरत और शत्रुतापूर्ण भाषण की पहचान करने के लिए इस तरह के डिटेक्शन सॉफ्टवेयर का निर्माण किया था, लेकिन हिब्रू भाषा के लिए ऐसा नहीं किया था।

रिपोर्ट ने यह भी सुझाव दिया कि – अरबी और हिब्रू दोनों में सामग्री मध्यस्थों की कमी के कारण – कंपनी संभावित रूप से नियम-तोड़ने वाली सामग्री को उन समीक्षकों को भेज रही थी जो भाषा नहीं बोलते या समझते हैं, विशेष रूप से अरबी बोलियाँ। इसके परिणामस्वरूप और त्रुटियां हुईं।

रिपोर्ट, जिसे फेसबुक ने अपने स्वतंत्र ओवरसाइट बोर्ड की सिफारिश पर कमीशन किया था, ने कंपनी को 21 सिफारिशें जारी कीं। इनमें खतरनाक संगठनों और व्यक्तियों की पहचान करने पर अपनी नीतियों को बदलना, पोस्ट को दंडित किए जाने पर उपयोगकर्ताओं को अधिक पारदर्शिता प्रदान करना, “बाजार संरचना” के आधार पर हिब्रू और अरबी में सामग्री मॉडरेशन संसाधनों को पुन: आवंटित करना और अरबी में संभावित सामग्री उल्लंघनों को उन लोगों को निर्देशित करना शामिल है जो समान बोलते हैं। सोशल मीडिया पोस्ट में एक के रूप में अरबी बोली।

एक प्रतिक्रिया में। मेटा के मानवाधिकार निदेशक मिरांडा सिसंस ने कहा कि कंपनी 10 सिफारिशों को पूरी तरह से लागू करेगी और चार को आंशिक रूप से लागू कर रही है। कंपनी अन्य छह की “व्यवहार्यता का आकलन” कर रही थी, और एक पर “आगे कोई कार्रवाई नहीं” कर रही थी।

“इन सिफारिशों में से कई के लिए कोई त्वरित, रातोंरात सुधार नहीं है, जैसा कि बीएसआर स्पष्ट करता है,” सिसंस ने कहा। “हालांकि हमने पहले से ही इस अभ्यास के परिणामस्वरूप महत्वपूर्ण बदलाव किए हैं, इस प्रक्रिया में समय लगेगा – यह समझने में समय लगेगा कि इनमें से कुछ सिफारिशों को कैसे संबोधित किया जा सकता है, और क्या वे तकनीकी रूप से व्यवहार्य हैं।”

भारत में अभद्र भाषा और हिंसा को हवा देकर, फेसबुक ने दुनिया के बाकी हिस्सों की उपेक्षा कैसे की

अरब सेंटर फॉर सोशल मीडिया एडवांसमेंट (7amleh) ने अपने बयान में कहा कि रिपोर्ट ने गलत तरीके से मेटा से पूर्वाग्रह को अनजाने में कहा है।

“हम मानते हैं कि वर्षों से जारी सेंसरशिप [Palestinian] हमारी रिपोर्टों और इस तरह के पूर्वाग्रह के तर्कों के बावजूद, आवाज इस बात की पुष्टि करती है कि यह जानबूझकर सेंसरशिप है जब तक कि मेटा इसे समाप्त करने के लिए प्रतिबद्ध न हो, ”यह कहा।

Leave a Reply

Your email address will not be published.