यह मुद्दा तब सामने आया जब Apple के AI सारांश उपकरण ने गलत दावा किया कि युनाइटेडहेल्थकेयर के सीईओ ब्रायन थॉम्पसन की हत्या के आरोपी लुइगी मैंगियोन की आत्महत्या से मृत्यु हो गई थी। सारांश में बीबीसी को इस झूठी रिपोर्ट के स्रोत के रूप में उद्धृत किया गया है
और पढ़ें
टेक दिग्गज का नया एआई-पावर्ड फीचर, ऐप्पल इंटेलिजेंस, यूके में लॉन्च होने के एक हफ्ते बाद ही गर्म पानी में आ गया है। बीबीसी ने यह पता चलने के बाद एक औपचारिक शिकायत दर्ज की है कि एप्पल के एआई-जनरेटेड सारांश ने उसके नाम के साथ फर्जी खबरों को गलत बताया है।
मामला तब सामने आया जब एआई सारांशीकरण उपकरण ने गलत दावा किया वह लुइगी मैंगिओनकी हत्या का आरोप लगाया गया यूनाइटेडहेल्थकेयर के सीईओ ब्रायन थॉम्पसनआत्महत्या करके मर गया था। सारांश में बीबीसी को इस झूठी रिपोर्ट के स्रोत के रूप में उद्धृत किया गया है। वास्तव में, मैंगियोन अमेरिकी हिरासत में है, और बीबीसी ने कभी भी ऐसा कोई लेख प्रकाशित नहीं किया। जाहिर तौर पर निराश होकर, बीबीसी ने इस बात पर जोर दिया कि विश्वास और सटीकता उसकी वैश्विक प्रतिष्ठा के केंद्र में हैं, और ऐसी त्रुटियां उसके द्वारा बनाई गई विश्वसनीयता को खतरे में डालती हैं।
प्रमुख समाचार आउटलेट्स के साथ और भी गलत कदम
बीबीसी एआई क्रॉसफ़ायर में पकड़ा गया एकमात्र मीडिया आउटलेट नहीं है। रिपोर्टों से पता चलता है कि ऐप्पल इंटेलिजेंस ने भी समाचार सामग्री को गलत तरीके से प्रस्तुत किया है दी न्यू यौर्क टाइम्स. एक उदाहरण में, एआई ने गलत दावे के साथ एक लेख का सारांश दिया कि इजरायली प्रधान मंत्री बेंजामिन नेतन्याहू को “गिरफ्तार” किया गया था। जबकि अंतर्राष्ट्रीय आपराधिक न्यायालय (आईसीसी) द्वारा नेतन्याहू के खिलाफ गिरफ्तारी वारंट जारी किया गया था, लेकिन ऐसी कोई गिरफ्तारी नहीं हुई है।
इन उदाहरणों ने जेनेरिक एआई टूल की सटीकता के बारे में मौजूदा चिंताओं को और बढ़ा दिया है। भ्रामक सारांशों की संभावना, विशेष रूप से जब विश्वसनीय स्रोतों के लिए जिम्मेदार ठहराया जाता है, तो एआई सिस्टम में मीडिया की विश्वसनीयता और उपयोगकर्ता के विश्वास दोनों को नुकसान पहुंचने का जोखिम होता है।
एआई “मतिभ्रम” की व्यापक समस्या
Apple की परेशानियाँ जनरेटिव AI को परेशान करने वाली एक व्यापक चुनौती को उजागर करती हैं: मतिभ्रम। यह शब्द एआई सिस्टम को संदर्भित करता है जो ऐसी सामग्री उत्पन्न करता है जो विश्वसनीय लगती है लेकिन तथ्यात्मक रूप से गलत है। ऐसी घटनाएं केवल Apple के लिए ही नहीं हैं – ChatGPT सहित अन्य AI प्लेटफ़ॉर्म भी इसी तरह सामग्री को गलत तरीके से पेश करने या उसे संदर्भ से अलग करने की समस्या से जूझ रहे हैं।
कोलंबिया जर्नलिज्म स्कूल के एक हालिया अध्ययन ने इस मुद्दे को रेखांकित किया। शोध में ऐसे कई मामले पाए गए जहां जेनरेटिव एआई टूल्स ने गलत तरीके से विश्वसनीय आउटलेट्स का हवाला देते हुए ब्लॉक कोट्स को गलत तरीके से हैंडल किया वाशिंगटन पोस्ट और यह वित्तीय समय. ये गलत कदम इस बारे में गंभीर सवाल उठाते हैं कि क्या एआई समाचार रिपोर्टिंग और सारांश जैसे संवेदनशील चीज़ को प्रबंधित करने के लिए तैयार है।
एक समस्या जिसे Apple को ठीक करना होगा
AI और डिजिटल मीडिया दोनों में विश्वास पहले से ही कमजोर होने के कारण, Apple को अब यह साबित करने की चुनौती का सामना करना पड़ रहा है कि उसके AI उपकरण विश्वसनीय हो सकते हैं। बीबीसी की त्वरित प्रतिक्रिया से पता चलता है कि मुद्दा कितना गंभीर है, खासकर उन समाचार संगठनों के लिए जिनकी विश्वसनीयता सटीकता पर टिकी हुई है।
Apple के लिए, यह विवाद उसके AI सिस्टम को परिष्कृत करने और मतिभ्रम की समस्या से सीधे निपटने के लिए एक स्पष्ट संकेत है। यदि नहीं, तो स्मार्ट, एआई-संचालित सारांशों के साथ उपयोगकर्ता अनुभव को बढ़ाने के इसके प्रयासों का उल्टा असर हो सकता है – इसमें सुधार होने के बजाय विश्वास कम हो सकता है।