• TGN's Newsletter
  • Posts
  • ‘Astoundingly realistic’ child abuse images being generated using AI-TGN

‘Astoundingly realistic’ child abuse images being generated using AI-TGN

एक ऑनलाइन सुरक्षा समूह ने चेतावनी दी है कि यथार्थवादी बाल यौन शोषण सामग्री की “अभूतपूर्व मात्रा” उत्पन्न करने के लिए कृत्रिम बुद्धिमत्ता का उपयोग किया जा सकता है।

इंटरनेट वॉच फ़ाउंडेशन (IWF) ने कहा कि उसे पहले से ही “आश्चर्यजनक रूप से यथार्थवादी” लग रहा है -ऐसी छवियां बनाई गईं जो कई लोगों को वास्तविक छवियों से “अभेद्य” लगेंगी।

समूह द्वारा जांचे गए वेब पेजों में से कुछ को जनता द्वारा रिपोर्ट किया गया था, जिनमें तीन वर्ष से कम उम्र के बच्चे शामिल थे।

आईडब्ल्यूएफ, जो इंटरनेट पर बाल यौन शोषण सामग्री को खोजने और हटाने के लिए जिम्मेदार है, ने चेतावनी दी है कि वे इतने यथार्थवादी हैं कि यह पता लगाना कठिन हो सकता है कि वास्तविक बच्चे कब खतरे में हैं।

आईडब्ल्यूएफ की मुख्य कार्यकारी सूसी हरग्रीव्स ने प्रधानमंत्री से मुलाकात की ऋषि सुनक जब ब्रिटेन इस वर्ष के अंत में वैश्विक एआई शिखर सम्मेलन की मेजबानी करेगा तो इस मुद्दे को “सर्वोच्च प्राथमिकता” के रूप में माना जाएगा।

उन्होंने कहा, “फिलहाल हम इन छवियों को बड़ी संख्या में नहीं देख रहे हैं, लेकिन यह हमारे लिए स्पष्ट है कि अपराधियों के लिए अभूतपूर्व मात्रा में जीवन जैसी बाल यौन शोषण छवियों का उत्पादन करने की क्षमता मौजूद है।

“यह इंटरनेट सुरक्षा और ऑनलाइन बच्चों की सुरक्षा के लिए संभावित रूप से विनाशकारी होगा।”

एआई छवियों का जोखिम ‘बढ़ रहा है’

जबकि इस प्रकृति की AI-जनित छवियां यूके में अवैध हैं, IWF ने कहा कि प्रौद्योगिकी की तीव्र प्रगति और बढ़ी हुई पहुंच का मतलब है कि समस्या का पैमाना जल्द ही कानून के लिए इसे बनाए रखना कठिन बना सकता है।

राष्ट्रीय अपराध एजेंसी (एनसीए) ने कहा कि जोखिम “बढ़ रहा है” और इसे “बेहद गंभीरता से” लिया जा रहा है।

एनसीए के खतरा नेतृत्व के निदेशक क्रिस फैरीमोंड ने कहा: “इस बात की बहुत वास्तविक संभावना है कि यदि एआई-जनित सामग्री की मात्रा बढ़ती है, तो यह कानून प्रवर्तन संसाधनों पर काफी प्रभाव डाल सकता है, जिससे हमें सुरक्षा की आवश्यकता वाले वास्तविक बच्चों की पहचान करने में लगने वाला समय बढ़ जाएगा”।

श्री सुनक ने कहा है कि आगामी वैश्विक शिखर सम्मेलन, जो शरद ऋतु में होने की उम्मीद है, नियामक “रेलवे” पर बहस करेगा जो एआई द्वारा उत्पन्न भविष्य के जोखिमों को कम कर सकता है।

वह पहले ही उद्योग के प्रमुख खिलाड़ियों से मिल चुके हैंजिसमें आंकड़े भी शामिल हैं गूगल साथ ही चैटजीपीटी निर्माता OpenAI.

एक सरकारी प्रवक्ता ने स्काई न्यूज को बताया: “एआई-जनित बाल यौन शोषण और दुर्व्यवहार सामग्री अवैध है, भले ही यह वास्तविक बच्चे को चित्रित करती है या नहीं, जिसका अर्थ है कि तकनीकी कंपनियों को ऑनलाइन सुरक्षा बिल के तहत सक्रिय रूप से सामग्री की पहचान करने और इसे हटाने की आवश्यकता होगी, जिसे एआई जैसी उभरती प्रौद्योगिकियों के साथ तालमेल रखने के लिए डिज़ाइन किया गया है।

“ऑनलाइन सुरक्षा विधेयक के लिए कंपनियों को ऑनलाइन बाल यौन शोषण के सभी रूपों से निपटने के लिए सक्रिय कार्रवाई करने की आवश्यकता होगी, जिसमें सौंदर्य, लाइव-स्ट्रीमिंग, बाल यौन शोषण सामग्री और बच्चों की निषिद्ध छवियां शामिल हैं – या भारी जुर्माना का सामना करना पड़ेगा।”

और पढ़ें:एआई ‘लोकतंत्र के लिए खतरा’एआई के भविष्य के लिए पारदर्शिता क्यों महत्वपूर्ण है?

अधिक सुलभ वीडियो प्लेयर के लिए कृपया क्रोम ब्राउज़र का उपयोग करें

    8:11 

अपराधी एआई का उपयोग करके एक-दूसरे की मदद कर रहे हैं

आईडब्ल्यूएफ ने कहा कि उसे अपराधियों द्वारा लिखा गया एक ऑनलाइन “मैनुअल” भी मिला है, जो छवि जनरेटर द्वारा लगाए गए सुरक्षा उपायों को दरकिनार करते हुए दूसरों को एआई का उपयोग करके और भी अधिक जीवंत दुरुपयोग छवियां बनाने में मदद करता है।

चैटजीपीटी जैसे टेक्स्ट-आधारित जेनरेटिव एआई की तरह, DALL-E 2 और मिडजर्नी जैसे इमेज टूल को संकेतों को समझने और उचित परिणाम प्रदान करने के लिए इंटरनेट से डेटा पर प्रशिक्षित किया जाता है।

DALL-E 2, ChatGPT निर्माता OpenAI का एक लोकप्रिय छवि जनरेटर, और मिडजॉर्नी दोनों का कहना है कि वे अपने सॉफ़्टवेयर के प्रशिक्षण डेटा को कुछ सामग्री बनाने की क्षमता को सीमित करने और कुछ टेक्स्ट इनपुट को ब्लॉक करने के लिए सीमित करते हैं।

ओपनएआई दुरुपयोग से बचाव के लिए स्वचालित और मानव निगरानी प्रणालियों का भी उपयोग करता है।

सुश्री हरग्रीव्स ने कहा कि एआई कंपनियों को यह सुनिश्चित करने के लिए अनुकूलन करना होगा कि उनके प्लेटफॉर्म का शोषण न हो।

उन्होंने कहा, “इस तकनीक के निरंतर दुरुपयोग के गंभीर परिणाम हो सकते हैं – और अधिक से अधिक लोग इस हानिकारक सामग्री के संपर्क में आ सकते हैं।”