अगर आप पुलिस से संपर्क करने और किसी की चाइल्ड सेक्सुअल एब्यूज मैटेरियल (CSAM) में रुचि व्यक्त करने की शिकायत करने जा रहे हैं, तो शायद यह सबसे अच्छा विचार नहीं है कि वही सामग्री आपके अपने डिवाइस पर मौजूद हो। या फिर कानून प्रवर्तन को और जानकारी इकट्ठा करने के लिए खोज की अनुमति देना भी सही नहीं है। लेकिन कथित तौर पर, अलास्का के एक व्यक्ति ने ऐसा ही किया। इसका नतीजा यह हुआ कि वह पुलिस हिरासत में पहुंच गया।
404 मीडिया ने हाल ही में एक व्यक्ति, एंथनी ओ’कॉनर, पर रिपोर्ट की, जिसे तब गिरफ्तार कर लिया गया जब पुलिस की खोज में उनके डिवाइस पर कथित तौर पर AI-जनित CSAM पाया गया।
404 के अनुसार:
नए चार्जिंग दस्तावेज़ों के अनुसार, एंथनी ओ’कॉनर ने अगस्त में कानून प्रवर्तन से संपर्क किया ताकि उन्हें एक अनजान एयरमैन के बारे में सूचित किया जा सके, जिसने ओ’कॉनर के साथ CSAM साझा किया था। अपराध की जांच के दौरान, और ओ’कॉनर की सहमति से, संघीय अधिकारियों ने अतिरिक्त जानकारी के लिए उनके फोन की तलाशी ली। इलेक्ट्रॉनिक्स की समीक्षा से पता चला कि ओ’कॉनर ने कथित तौर पर एयरमैन के लिए वर्चुअल रियलिटी CSAM बनाने की पेशकश की थी।
पुलिस के अनुसार, अनजान एयरमैन ने ओ’कॉनर के साथ एक बच्चे की तस्वीर साझा की थी, जो उन्होंने एक किराने की दुकान में ली थी, और दोनों ने चर्चा की कि उस बच्चे को एक स्पष्ट वर्चुअल रियलिटी दुनिया में कैसे डाला जा सकता है।
कानून प्रवर्तन का दावा है कि ओ’कॉनर के डिवाइस पर कम से कम छह स्पष्ट, AI-जनित CSAM छवियां मिलीं, जिन्हें उन्होंने जानबूझकर डाउनलोड किया था, साथ ही कई “वास्तविक” छवियां भी मिलीं, जो अनजाने में मिल गई थीं। ओ’कॉनर के घर की तलाशी के दौरान, पुलिस ने एक कंप्यूटर और कई हार्ड ड्राइव्स बरामद कीं, जो घर के वेंट में छिपाई गई थीं; कंप्यूटर की समीक्षा में कथित तौर पर 41 सेकंड का एक वीडियो मिला, जिसमें बच्चे के साथ बलात्कार दिखाया गया था।
एक साक्षात्कार में, ओ’कॉनर ने कहा कि वह नियमित रूप से CSAM को इंटरनेट सेवा प्रदाताओं को रिपोर्ट करते थे, “लेकिन फिर भी वह इन छवियों और वीडियो से यौन संतुष्टि प्राप्त करते थे।” यह स्पष्ट नहीं है कि उन्होंने एयरमैन को कानून प्रवर्तन को क्यों रिपोर्ट किया। शायद उन्हें अपराध बोध हुआ या शायद उन्हें वास्तव में लगा कि उनका AI-जनित CSAM कानून का उल्लंघन नहीं करता।
AI इमेज जनरेटर्स आम तौर पर वास्तविक तस्वीरों का उपयोग करके प्रशिक्षित किए जाते हैं; इसका मतलब है कि AI द्वारा “जनरेट” की गई बच्चों की तस्वीरें मौलिक रूप से वास्तविक छवियों पर आधारित होती हैं। इन्हें अलग करना असंभव है। इस अर्थ में, AI-आधारित CSAM पीड़ित-रहित अपराध नहीं है।
पहली बार किसी व्यक्ति को AI-जनित CSAM रखने के आरोप में मई में गिरफ्तार किया गया था, जब FBI ने एक व्यक्ति को “Stable Diffusion” का उपयोग करके प्रीप्यूबेसेंट बच्चों की “हजारों वास्तविक छवियां” बनाने के लिए गिरफ्तार किया था।
AI के समर्थक कहेंगे कि फोटोशॉप का उपयोग करके नाबालिगों की स्पष्ट छवियां बनाना हमेशा संभव था, लेकिन AI टूल्स इसे किसी के लिए भी बहुत आसान बना देते हैं। एक हालिया रिपोर्ट में पाया गया कि हर छह में से एक महिला सांसद को AI-जनित डीपफेक पोर्न का निशाना बनाया गया है। कई उत्पादों में सबसे बुरे उपयोगों को रोकने के लिए सुरक्षा उपाय मौजूद हैं, जैसे कि प्रिंटर मुद्रा की फोटोकॉपी की अनुमति नहीं देते। इस तरह की बाधाओं को लागू करना कम से कम कुछ हद तक इस तरह के व्यवहार को रोकने में मदद करता है।