अलास्का के व्यक्ति ने AI CSAM (चाइल्ड सेक्सुअल एब्यूज मैटेरियल) की रिपोर्ट की, फिर उसी अपराध के लिए गिरफ्तार हुआ

अगर आप पुलिस से संपर्क करने और किसी की चाइल्ड सेक्सुअल एब्यूज मैटेरियल (CSAM) में रुचि व्यक्त करने की शिकायत करने जा रहे हैं, तो शायद यह सबसे अच्छा विचार नहीं है कि वही सामग्री आपके अपने डिवाइस पर मौजूद हो। या फिर कानून प्रवर्तन को और जानकारी इकट्ठा करने के लिए खोज की अनुमति देना भी सही नहीं है। लेकिन कथित तौर पर, अलास्का के एक व्यक्ति ने ऐसा ही किया। इसका नतीजा यह हुआ कि वह पुलिस हिरासत में पहुंच गया।

404 मीडिया ने हाल ही में एक व्यक्ति, एंथनी ओ’कॉनर, पर रिपोर्ट की, जिसे तब गिरफ्तार कर लिया गया जब पुलिस की खोज में उनके डिवाइस पर कथित तौर पर AI-जनित CSAM पाया गया।

404 के अनुसार:

नए चार्जिंग दस्तावेज़ों के अनुसार, एंथनी ओ’कॉनर ने अगस्त में कानून प्रवर्तन से संपर्क किया ताकि उन्हें एक अनजान एयरमैन के बारे में सूचित किया जा सके, जिसने ओ’कॉनर के साथ CSAM साझा किया था। अपराध की जांच के दौरान, और ओ’कॉनर की सहमति से, संघीय अधिकारियों ने अतिरिक्त जानकारी के लिए उनके फोन की तलाशी ली। इलेक्ट्रॉनिक्स की समीक्षा से पता चला कि ओ’कॉनर ने कथित तौर पर एयरमैन के लिए वर्चुअल रियलिटी CSAM बनाने की पेशकश की थी।

पुलिस के अनुसार, अनजान एयरमैन ने ओ’कॉनर के साथ एक बच्चे की तस्वीर साझा की थी, जो उन्होंने एक किराने की दुकान में ली थी, और दोनों ने चर्चा की कि उस बच्चे को एक स्पष्ट वर्चुअल रियलिटी दुनिया में कैसे डाला जा सकता है।

कानून प्रवर्तन का दावा है कि ओ’कॉनर के डिवाइस पर कम से कम छह स्पष्ट, AI-जनित CSAM छवियां मिलीं, जिन्हें उन्होंने जानबूझकर डाउनलोड किया था, साथ ही कई “वास्तविक” छवियां भी मिलीं, जो अनजाने में मिल गई थीं। ओ’कॉनर के घर की तलाशी के दौरान, पुलिस ने एक कंप्यूटर और कई हार्ड ड्राइव्स बरामद कीं, जो घर के वेंट में छिपाई गई थीं; कंप्यूटर की समीक्षा में कथित तौर पर 41 सेकंड का एक वीडियो मिला, जिसमें बच्चे के साथ बलात्कार दिखाया गया था।

एक साक्षात्कार में, ओ’कॉनर ने कहा कि वह नियमित रूप से CSAM को इंटरनेट सेवा प्रदाताओं को रिपोर्ट करते थे, “लेकिन फिर भी वह इन छवियों और वीडियो से यौन संतुष्टि प्राप्त करते थे।” यह स्पष्ट नहीं है कि उन्होंने एयरमैन को कानून प्रवर्तन को क्यों रिपोर्ट किया। शायद उन्हें अपराध बोध हुआ या शायद उन्हें वास्तव में लगा कि उनका AI-जनित CSAM कानून का उल्लंघन नहीं करता।

AI इमेज जनरेटर्स आम तौर पर वास्तविक तस्वीरों का उपयोग करके प्रशिक्षित किए जाते हैं; इसका मतलब है कि AI द्वारा “जनरेट” की गई बच्चों की तस्वीरें मौलिक रूप से वास्तविक छवियों पर आधारित होती हैं। इन्हें अलग करना असंभव है। इस अर्थ में, AI-आधारित CSAM पीड़ित-रहित अपराध नहीं है।

पहली बार किसी व्यक्ति को AI-जनित CSAM रखने के आरोप में मई में गिरफ्तार किया गया था, जब FBI ने एक व्यक्ति को “Stable Diffusion” का उपयोग करके प्रीप्यूबेसेंट बच्चों की “हजारों वास्तविक छवियां” बनाने के लिए गिरफ्तार किया था।

AI के समर्थक कहेंगे कि फोटोशॉप का उपयोग करके नाबालिगों की स्पष्ट छवियां बनाना हमेशा संभव था, लेकिन AI टूल्स इसे किसी के लिए भी बहुत आसान बना देते हैं। एक हालिया रिपोर्ट में पाया गया कि हर छह में से एक महिला सांसद को AI-जनित डीपफेक पोर्न का निशाना बनाया गया है। कई उत्पादों में सबसे बुरे उपयोगों को रोकने के लिए सुरक्षा उपाय मौजूद हैं, जैसे कि प्रिंटर मुद्रा की फोटोकॉपी की अनुमति नहीं देते। इस तरह की बाधाओं को लागू करना कम से कम कुछ हद तक इस तरह के व्यवहार को रोकने में मदद करता है।

Leave a Reply

Your email address will not be published. Required fields are marked *