• TGN's Newsletter
  • Posts
  • AI Giants Pledge to Allow External Probes of Their Algorithms, Under a New White House Pact-TGN

AI Giants Pledge to Allow External Probes of Their Algorithms, Under a New White House Pact-TGN

वह सफ़ेद घर ने अमेज़ॅन, गूगल, मेटा, माइक्रोसॉफ्ट और ओपनएआई सहित प्रमुख एआई डेवलपर्स के साथ एक समझौता किया है, जो उन्हें हानिकारक एआई मॉडल को दुनिया में जारी होने से रोकने के लिए कार्रवाई करने के लिए प्रतिबद्ध करता है।

समझौते के तहत, जिसे व्हाइट हाउस “स्वैच्छिक प्रतिबद्धता” कहता है, कंपनियां सार्वजनिक रूप से जारी होने से पहले आंतरिक परीक्षण करने और नए एआई मॉडल के बाहरी परीक्षण की अनुमति देने की प्रतिज्ञा करती हैं। परीक्षण पक्षपातपूर्ण या भेदभावपूर्ण आउटपुट, साइबर सुरक्षा खामियां और व्यापक सामाजिक नुकसान के जोखिमों सहित समस्याओं की तलाश करेगा। ओपनएआई के चैटजीपीटी के उल्लेखनीय प्रतिद्वंद्वियों के दोनों डेवलपर्स स्टार्टअप एंथ्रोपिक और इन्फ्लेक्शन ने भी समझौते में भाग लिया।

व्हाइट हाउस के एआई के विशेष सलाहकार बेन बुकानन ने कल एक ब्रीफिंग में संवाददाताओं से कहा, “कंपनियों का कर्तव्य है कि वे अपने एआई सिस्टम की सुरक्षा और क्षमता का परीक्षण करके यह सुनिश्चित करें कि उनके उत्पाद जनता के सामने पेश करने से पहले सुरक्षित हैं।” कंपनियों को जिन जोखिमों पर ध्यान देने के लिए कहा गया था उनमें गोपनीयता का उल्लंघन और यहां तक ​​कि जैविक खतरों में संभावित योगदान भी शामिल है। कंपनियां सार्वजनिक रूप से अपने सिस्टम की सीमाओं और उनके द्वारा उत्पन्न होने वाले सुरक्षा और सामाजिक जोखिमों की रिपोर्ट करने के लिए भी प्रतिबद्ध हैं।

समझौते में यह भी कहा गया है कि कंपनियां वॉटरमार्किंग सिस्टम विकसित करेंगी जिससे लोगों के लिए एआई द्वारा उत्पन्न ऑडियो और इमेजरी की पहचान करना आसान हो जाएगा। OpenAI पहले से ही अपने Dall-E छवि जनरेटर द्वारा निर्मित छवियों में वॉटरमार्क जोड़ता है, और Google ने कहा है कि वह AI-जनरेटेड इमेजरी के लिए समान तकनीक विकसित कर रहा है। लोगों को यह समझने में मदद करना कि क्या असली है और क्या नकली है, राजनीतिक अभियानों के रूप में एक बढ़ता हुआ मुद्दा है ऐसा प्रतीत होता है कि जेनेरिक एआई की ओर रुख किया जा रहा है 2024 में अमेरिकी चुनाव से पहले।

जेनेरिक एआई सिस्टम में हालिया प्रगति जो टेक्स्ट या इमेजरी बना सकती है, ने वेब खोज और अनुशंसा पत्र लिखने जैसे कार्यों के लिए प्रौद्योगिकी को अपनाने वाली कंपनियों के बीच नए सिरे से एआई हथियारों की दौड़ शुरू कर दी है। लेकिन नए एल्गोरिदम ने एआई के लिंगवाद या नस्लवाद जैसी दमनकारी सामाजिक प्रणालियों को मजबूत करने, चुनावी दुष्प्रचार को बढ़ावा देने या साइबर अपराध के लिए उपकरण बनने के बारे में भी नई चिंता पैदा कर दी है। परिणामस्वरूप, वाशिंगटन, डीसी सहित दुनिया के कई हिस्सों में नियामकों और कानून निर्माताओं ने नए विनियमन की मांग बढ़ा दी है, जिसमें तैनाती से पहले एआई का आकलन करने की आवश्यकताएं भी शामिल हैं।

यह स्पष्ट नहीं है कि समझौते से प्रमुख एआई कंपनियों के संचालन के तरीके में कितना बदलाव आएगा। पहले से ही, प्रौद्योगिकी के संभावित नुकसान के बारे में बढ़ती जागरूकता ने तकनीकी कंपनियों के लिए एआई नीति और परीक्षण पर काम करने के लिए लोगों को नियुक्त करना आम बना दिया है। Google के पास ऐसी टीमें हैं जो उसके सिस्टम का परीक्षण करती हैं, और यह इच्छित उपयोग के मामलों और नैतिक विचारों जैसी कुछ जानकारी प्रचारित करती है कुछ एआई मॉडल के लिए. मेटा और ओपनएआई कभी-कभी बाहरी विशेषज्ञों को रेड-टीमिंग नामक दृष्टिकोण में अपने मॉडल को आज़माने और तोड़ने के लिए आमंत्रित करते हैं।

माइक्रोसॉफ्ट के अध्यक्ष ब्रैड स्मिथ ने एक ब्लॉग पोस्ट में कहा, “सुरक्षा, सुरक्षा और विश्वास के स्थायी सिद्धांतों द्वारा निर्देशित, स्वैच्छिक प्रतिबद्धताएं उन्नत एआई मॉडल द्वारा प्रस्तुत जोखिमों को संबोधित करती हैं और विशिष्ट प्रथाओं को अपनाने को बढ़ावा देती हैं – जैसे कि रेड-टीम परीक्षण और पारदर्शिता रिपोर्ट का प्रकाशन – जो पूरे पारिस्थितिकी तंत्र को आगे बढ़ाएगा।”

समझौते में जिन संभावित सामाजिक जोखिमों पर कंपनियों को नजर रखने का वचन दिया गया है, उनमें एआई मॉडल के प्रशिक्षण के कार्बन फुटप्रिंट शामिल नहीं हैं, एक चिंता का विषय जिसे अब आमतौर पर एआई सिस्टम के प्रभाव पर शोध में उद्धृत किया जाता है। चैटजीपीटी जैसी प्रणाली बनाने के लिए लंबे समय तक चलने वाले हजारों उच्च-शक्ति वाले कंप्यूटर प्रोसेसर की आवश्यकता हो सकती है।

(टैग्सटूट्रांसलेट)व्हाइट हाउस(टी)आर्टिफिशियल इंटेलिजेंस(टी)चैटजीपीटी(टी)ओपनाई(टी)गूगल(टी)माइक्रोसॉफ्ट(टी)मेटा(टी)मशीन लर्निंग(टी)एल्गोरिदम(टी)रेगुलेशन