संपादक, न्यूज़NORTH
Indian Govt Approval Must for Generative AI models?: ऑर्टिफिशियल इंटेलीजेंस तकनीक की तेजी से बढ़ती लोकप्रियता और इस्तेमाल, इसके साथ कुछ खतरों को भी जन्म दे रहा है। भारत समेत दुनिया भर में डीपफेक कंटेंट जैसी कई गंभीर चुनौतियाँ चर्चा का विषय बनी हुई है। इस बीच भारत में इलेक्ट्रॉनिक्स और सूचना प्रौद्योगिकी मंत्रालय या ‘MeitY’ की ओर से AI उपयोग को लेकर एक नई एडवायजरी जारी की गई है।
बीते दिनों 1 मार्च को जारी की गई इस एडवायजरी में देश में कार्यरत सभी मध्यस्थों या प्लेटफॉर्म को यह स्पष्ट निर्देश दिए गए हैं कि टेस्टिंग या ट्रायल के तहत गैर-भरोसेमंद AI मॉडल, लार्ज लैंग्वेज मॉडल या जेनरेटिव एआई मॉडल को तमाम यूजर्स के लिए पेश करने या इस्तेमाल करने हेतु उपलब्ध करवाने से पहले भारत सरकार की इजाजत ली जाए।
Indian Govt Approval Must for Generative AI models
सरकार इस कदम के साथ यह सुनिश्चित करना चाहती है कि किसी भी कंपनी द्वारा बनाए गए AI मॉडल या एल्गोरिदम की संभावित अशुद्धता या किसी भी प्रकार की अविश्वसनीय जानकारी दे सकने की संभावना को खत्म करने और उचित परीक्षण के बाद ही यह किसी सार्वजनिक प्लेटफॉर्म पर उपलब्ध करवाए जाए।
आसान शब्दों में इस नई एडवायजरी के तहत भारतीय उपयोगकर्ताओं के लिए एलएलएम/जनरेटिव एआई, सॉफ्टवेयर या एल्गोरिदम सहित ‘अंडर-टेस्टिंग’ या ‘अविश्वसनीय’ एआई मॉडल को तैनात करने से पहले सरकारी अनुमति लेना ज़रूरी बना दिया गया है। गौर करने वाली बात ये है कि फिलहाल यह वर्तमान एडवायजरी कानूनी रूप से बाध्यकारी नहीं है। लेकिन इतना ज़रूर है कि भारत में एआई रेगुलेशन के संदर्भ में इसे एक अहम कदम के रूप में देखा जा रहा है।
न्यूज़North अब WhatsApp पर, सबसे तेज अपडेट्स पानें के लिए अभी जुड़ें!
इतना ही नहीं बल्कि मीडिया रिपोर्ट्स में सामने आ रही जानकारी के तहत एडवायजरी में स्पष्ट किया गया है कि कंपनियों को अपने यूजर्स को एआई मॉडल द्वारा प्रदान किए जाने वाले आउटपुट की संभावित अविश्वसनीयता के बारे में साफ तौर पर सूचित करना होगा। इसके लिए कंसेंट पॉप-अप सिस्टम के इस्तेमाल की सलाह दिए जाने जैसी बातें भी सामने आई है।
एडवायजरी में स्पष्ट किया गया कि सोशल मीडिया प्लेटफॉर्म और मध्यस्थों की एक जिम्मेदारी यह भी है कि वह यह सुनिश्चित करें कि उनके द्वारा पेश किए जा रहे एआई मॉडल का आउटपुट किसी तरह के संभावित पूर्वाग्रह या भेदभाव या अन्य किसी गैर-कानूनी चीज से ग्रसित नहीं है।
कंपनी को देनी होगी रिपोर्ट
खास ये है कि MeitY द्वारा जारी एडवायजरी में सभी प्लेटफार्म व मध्यस्थों को 16 मार्च तक एक रिपोर्ट भी भेजनें के लिए कहा गया है। इस रिपोर्ट में उन्हें यह स्पष्ट करना होगा कि उन्होंने दिए गए निर्देशों के संदर्भ में अब तक क्या क्या कार्यवाई की हैं।
इसमें एक और अहम बात शामिल है। भारत सरकार की ओर से ऐसी कंपनियों को यह निर्देश भी दिए गए हैं कि वह एआई तकनीक की मदद से बनाए जाने वाले कंटेंट की पहचान के लिए भी समाधान के साथ सामने आएँ। कोशिश यह है कि एआई द्वारा तैयार फोटो, वीडियो या टेक्स्ट को किसी प्रकार लेबल किया जाए या ऐसे प्रोडक्ट को एक विशेष पहचान या मेटाडेटा के साथ एम्बेड किया जाए, ताकि यह आसानी से जाना जा सके कि इसे एआई की मदद से तैयार किया गया है।
क्यों पड़ी जरूरत?
कई जानकारों के मानना है कि Google के Gemini AI मॉडल की हाल की खामियों को देखते हुए, सरकार भी और सचेत हो गई है। असल में हुआ ये था कि हाल में Google के इस एआई मॉडल ने प्रधानमंत्री मोदी को लेकर एक विवादित कंटेंट पेश किया। इसको लेकर कंपनी ने माफी तक माँगी। लेकिन अगर टेक दिग्गज़ कंपनी के एआई मॉडल में ऐसी गंभीर खामी हो सकती है तो फिर नियामकों को यह विचार करने की ज़रूरत है कि बाजार में मौजूद या आगामी अन्य एआई मॉडल भी कितने सुरक्षित या सटीक हैं?