ऐप्पल ने सेवाओं, उपकरणों से सीएसएएम डिटेक्शन सुविधाओं को हटाने के लिए मुकदमा दायर किया – फ़र्स्टपोस्ट

2021 में घोषणा की गई थी कि ऐप्पल ऑन-डिवाइस तकनीक का उपयोग करके बाल दुर्व्यवहार सामग्री के लिए iCloud पर छवियों को स्कैन करेगा। जबकि Apple ने अपने मैसेज ऐप के लिए नग्नता-पहचान उपकरण बरकरार रखा था, गोपनीयता और सुरक्षा चिंताओं के बीच CSAM पहचान सुविधा को 2022 में हटा दिया गया था।

और पढ़ें

अपनी पहचान छुपाने के लिए छद्म नाम का इस्तेमाल करने वाली एक महिला द्वारा मुकदमा दायर करने के बाद एप्पल कानूनी जांच के दायरे में है, जिसमें दावा किया गया है कि कंपनी ने अपनी सीएसएएम पहचान योजना को छोड़कर बाल यौन शोषण के पीड़ितों को विफल कर दिया है।

विशेषता, 2021 में घोषित किया गयाऑन-डिवाइस तकनीक का उपयोग करके बाल यौन शोषण सामग्री (सीएसएएम) के लिए आईक्लाउड छवियों को स्कैन करना था। जबकि ऐप्पल ने अपने संदेश ऐप के लिए नग्नता-पहचान उपकरण बरकरार रखा था, विशेषज्ञों और वकालत समूहों द्वारा उठाए गए गोपनीयता और सुरक्षा चिंताओं के बीच सीएसएएम पहचान सुविधा को 2022 में हटा दिया गया था।

मुकदमे में तर्क दिया गया है कि Apple के निर्णय ने साझाकरण को कायम रखा है अवैध सामग्री ऑनलाइन और उसके जैसे दुर्व्यवहार पीड़ितों की रक्षा करने के कंपनी के वादे को तोड़ दिया।

लापरवाही का आरोप

27 वर्षीय वादी, जिसके साथ बचपन में दुर्व्यवहार किया गया था, का दावा है कि एप्पल के सीएसएएम डिटेक्शन को खत्म करने के फैसले ने उसे असुरक्षित बना दिया था। वह याद करती है कि कानून प्रवर्तन ने उसे सूचित किया कि उसके दुर्व्यवहार की तस्वीरें वर्मोंट में जब्त किए गए मैकबुक के माध्यम से आईक्लाउड पर संग्रहीत की गई थीं। उन्होंने Apple पर “दोषपूर्ण उत्पाद” बेचने का आरोप लगाया जो पीड़ितों की सुरक्षा करने में विफल है, उन्होंने Apple की प्रथाओं में बदलाव और प्रभावित व्यक्तियों के लिए मुआवजे की मांग की।

मुकदमा इस बात पर प्रकाश डालता है कि Google और मेटा जैसी अन्य तकनीकी कंपनियां सीएसएएम-स्कैनिंग टूल का उपयोग करती हैं जो ऐप्पल की नग्नता-पहचान सुविधाओं की तुलना में काफी अधिक अवैध सामग्री का पता लगाती हैं। उनकी कानूनी टीम का अनुमान है कि 2,680 पीड़ित मुकदमे में शामिल हो सकते हैं, अगर Apple को उत्तरदायी पाया गया तो संभावित रूप से $1.2 बिलियन से अधिक का नुकसान हो सकता है।

ऐसे ही मामले चिंता बढ़ाते हैं

यह मुकदमा CSAM से संबंधित मुद्दों पर Apple की एकमात्र कानूनी लड़ाई नहीं है। एक अलग मामले में, एक नौ वर्षीय पीड़िता और उसके परिवार ने उत्तरी कैरोलिना में Apple पर मुकदमा दायर किया। लड़की का आरोप है कि अजनबियों ने उसे सीएसएएम वीडियो भेजने के लिए आईक्लाउड लिंक का इस्तेमाल किया और उसे इसी तरह की सामग्री बनाने और अपलोड करने के लिए प्रोत्साहित किया।

ऐप्पल ने संघीय धारा 230 सुरक्षा का हवाला देते हुए इस मामले को खारिज करने की मांग की है, जो कंपनियों को उपयोगकर्ता द्वारा अपलोड की गई सामग्री के दायित्व से बचाता है। हालाँकि, हाल के अदालती फैसलों से पता चलता है कि यदि कंपनियां हानिकारक सामग्री को सक्रिय रूप से मॉडरेट करने में विफल रहती हैं तो ये सुरक्षा लागू नहीं हो सकती है।

Apple की प्रतिक्रिया और चल रही बहस

Apple ने उपयोगकर्ता की गोपनीयता से समझौता किए बिना बाल शोषण से निपटने की अपनी प्रतिबद्धता दोहराते हुए अपने रुख का बचाव किया है। कंपनी ने अपने मैसेज ऐप में नग्नता का पता लगाने और उपयोगकर्ताओं के लिए हानिकारक सामग्री की रिपोर्ट करने की क्षमता जैसे नवाचारों पर प्रकाश डाला।

हालाँकि, वादी के वकील, मार्गरेट मैबी का तर्क है कि ये उपाय अपर्याप्त हैं। मैबी की जांच में वादी की तस्वीरें साझा किए जाने के 80 से अधिक उदाहरण सामने आए, जिनमें कैलिफोर्निया का एक व्यक्ति भी शामिल है, जिसने आईक्लाउड पर हजारों अवैध तस्वीरें संग्रहीत की थीं।

जैसे-जैसे कानूनी कार्यवाही सामने आ रही है, Apple को हानिकारक सामग्री के खिलाफ प्रभावी सुरक्षा के साथ उपयोगकर्ता की गोपनीयता को संतुलित करने के बढ़ते दबाव का सामना करना पड़ रहा है।

Leave a Reply

Your email address will not be published. Required fields are marked *