अपडेट

भारत की एआई शासन व्यवस्था में ₹1,000 करोड़ का तकनीकी-वैधानिक मोड़

27 जनवरी, 2026 को प्रधान वैज्ञानिक सलाहकार कार्यालय (OPSA) ने “तकनीकी-वैधानिक ढांचे के माध्यम से एआई शासन को मजबूत करना” पर अपना श्वेत पत्र पेश किया, जो भारत की नियामक परिदृश्य में एक महत्वपूर्ण बदलाव को दर्शाता है। इस दस्तावेज़ में एक महत्वाकांक्षी, बहु-स्तरीय रणनीति का विवरण दिया गया है, जो वैधानिक आदेशों, नैतिक सुरक्षा उपायों, और तकनीकी प्रवर्तन को सीधे एआई प्रणालियों के डिज़ाइन में शामिल करती है। मुख्य प्रावधानों में Nishpaksh (निष्पक्षता ऑडिट), ParakhAI (भागीदारी एल्गोरिदम ऑडिट), और Track-LLM (बड़े भाषा मॉडलों के लिए शासन परीक्षण) का कार्यान्वयन शामिल है, जिसका समर्थन IndiaAI Mission और इसके “सुरक्षित और विश्वसनीय एआई” स्तंभ द्वारा किया जा रहा है। प्रतिबद्धता का स्तर स्पष्ट है: एआई ऑडिटिंग और शासन उपकरणों के लिए विभिन्न MeitY पहलों के माध्यम से पहले ही ₹1,000 करोड़ से अधिक आवंटित किए जा चुके हैं।

भारत की दृष्टि वैश्विक नियामक मानकों से क्यों भिन्न है

यूरोपीय संघ के एआई अधिनियम में देखी गई कठोर, अनुपालन-आधारित नियामक नीतियों के विपरीत, भारत का मॉडल शासन को एआई प्रणालियों की आंतरिक विशेषता के रूप में देखता है। यह तकनीकी-वैधानिक दृष्टिकोण नैतिक सुरक्षा उपायों को सीधे एल्गोरिदम और कार्यप्रवाहों में शामिल करने का प्रयास करता है, बजाय इसके कि उन्हें बाद की सोच या बाहरी अनुपालन चेकलिस्ट के रूप में देखा जाए। उदाहरण के लिए, केवल दंड लागू करने के बजाय, Nishpaksh जैसे उपकरण पूर्व-तैनाती से पहले पूर्वाग्रह के लिए एल्गोरिदम का सक्रिय ऑडिट करने का लक्ष्य रखते हैं। इसी तरह, भारत के डिजिटल सार्वजनिक अवसंरचना (DPI) में शासन तंत्र का एकीकरण — जिसमें आधार, डिजिलॉकर, और यूपीआई शामिल हैं — पारंपरिक पश्चिमी प्रणालियों की तुलना में अद्वितीय पैमाने की रणनीति को दर्शाता है।

इसके व्यापक प्रभाव गहरे हैं। एआई को केवल एक तटस्थ तकनीक के रूप में नहीं, बल्कि संविधान के मूल्यों और विकासात्मक प्राथमिकताओं के साथ सक्रिय रूप से संरेखित एक एजेंट के रूप में प्रस्तुत किया गया है। नुकसान को रोकने पर जोर इस रणनीति को भारत की अद्वितीय सामाजिक-आर्थिकी के ताने-बाने के साथ जोड़ता है, जो अक्सर एल्गोरिदम के निर्णयों द्वारा बहिष्कृत कमजोर जनसांख्यिकी के जोखिमों को संबोधित करता है। यह एक सूक्ष्म लेकिन महत्वपूर्ण भिन्नता है: जबकि वैश्विक ढांचे एआई नवाचार या बाजार की तटस्थता को प्राथमिकता देते हैं, भारत स्पष्ट रूप से सामाजिक न्याय को शासन के मानदंड के रूप में पेश करता है।

बदलाव के पीछे की मशीनरी

तकनीकी-वैधानिक मॉडल मजबूत संस्थागत तंत्र पर निर्भर करता है। डिजिटल व्यक्तिगत डेटा संरक्षण अधिनियम (DPDP), 2023 बुनियादी गोपनीयता सुरक्षा प्रदान करता है, जबकि व्यापक भारतीय न्याय संहिता (BNS), 2023, एल्गोरिदम निर्णय लेने के लिए समग्र जवाबदेही ढांचे में योगदान देता है। फिर भी, इनमें से कोई भी एआई-विशिष्ट जोखिमों की बारीकियों के साथ तैयार नहीं किया गया है — विशेष रूप से जनरेटिव एआई या पूर्वानुमानित अपराध मानचित्रण जैसी प्रणालियों की अनुकूलनशील और अस्पष्ट प्रकृति।

इन खामियों को भरने के लिए, तीन उपकरणों को प्राथमिकता दी गई है:

  • Nishpaksh: एआई निष्पक्षता ऑडिट जो जनसांख्यिकीय समूहों के बीच गैर-भेदभावात्मक परिणाम सुनिश्चित करता है।
  • ParakhAI: भागीदारी एल्गोरिदम परीक्षण के लिए उपकरण, जो हितधारकों को एल्गोरिदम पूर्वाग्रहों को चुनौती देने या मान्य करने की अनुमति देते हैं।
  • Track-LLM: बड़े भाषा मॉडलों का मूल्यांकन करने के लिए एक विशेषीकृत ढांचा, जो सीधे भ्रांतियों और गलत सूचना उत्पन्न करने जैसे जोखिमों को संबोधित करता है।

इनके साथ ही स्केलेबिलिटी के लिए डिज़ाइन किए गए कानूनी ढांचे भी हैं। DPI के साथ एकीकरण, आधार या यूपीआई संचालन के भीतर वास्तविक समय के एआई ऑडिटिंग को सक्षम करना, अवसंरचनात्मक स्तर पर एआई नैतिकता को कार्यान्वित करने के पीछे की महत्वाकांक्षा को और स्पष्ट करता है।

डेटा और वास्तविकता: ऊँचे दावे या व्यावहारिक दृष्टिकोण?

सरकार का दावा है कि ये उपाय मौलिक अधिकारों जैसे गोपनीयता, निष्पक्षता, और सुरक्षा को बनाए रखेंगे। लेकिन कार्यान्वयन में कई बाधाएँ हैं। उदाहरण के लिए, एक हालिया MeitY रिपोर्ट का अनुमान है कि 80% भारतीय SMEs के पास बुनियादी सुरक्षा उन्नयन को लागू करने के लिए पूंजी की कमी है, तकनीकी-वैधानिक अनुपालन तो दूर की बात है। Nishpaksh जैसे ऑडिट और एल्गोरिदम निष्पक्षता उपकरणों की उच्च लागत महत्वपूर्ण नियामक विषमताओं को जन्म दे सकती है, जहाँ केवल तकनीकी दिग्गज (जो पैमाने की अर्थव्यवस्थाओं द्वारा सक्षम हैं) अनुपालन के लिए सक्षम हो सकते हैं।

पारदर्शिता के मामले में, आंकड़े मिश्रित कहानी बताते हैं। जबकि MeitY के जिम्मेदार एआई कॉल के तहत तैनात एल्गोरिदम पर प्रभाव आकलन किए जाते हैं, केवल 14 में से 4 भाग लेने वाली कंपनियों ने पिछले वर्ष अपने ऑडिट परिणाम प्रकाशित किए। बहुत कुछ विषय-केंद्रित सुरक्षा उपायों के कार्यान्वयन पर निर्भर करता है—प्रोएक्टिव खुलासे और शिकायत निवारण तंत्र को अनिवार्य करना—यह सुनिश्चित करने के लिए कि भारत का ढांचा खोखले वादों के जाल में न फंसे।

कठिन प्रश्न जो कोई नहीं पूछ रहा है

सबसे स्पष्ट कमजोरी तकनीकी नहीं बल्कि संस्थागत है। तकनीकी-वैधानिक मानकों को कौन लागू करता है? शासन सावधानीपूर्वक ऑडिटिंग पर निर्भर करता है, फिर भी कोई स्वतंत्र एआई नियामक की परिकल्पना नहीं की गई है, जैसा कि EU के समर्पित निगरानी निकायों के समान। क्या MeitY जैसी संस्थाएँ—जो पहले से ही DPI रखरखाव के कार्यभार से जूझ रही हैं—प्रत्यक्ष प्रवर्तन कर सकती हैं बिना अन्य आदेशों को कमजोर किए?

इसके अलावा, राज्य स्तर पर अपनाने पर स्पष्ट चुप्पी है। भारत का असमान कार्यान्वयन का इतिहास—GST के अनुपालन में खामियों से लेकर MGNREGA में देरी तक—महत्वपूर्ण प्रश्न उठाता है कि क्या तकनीकी-वैधानिक एआई शासन सभी राज्यों में समान रूप से लागू होगा। एक प्रणाली जो स्केलेबिलिटी के लिए डिज़ाइन की गई है, उसे तमिलनाडु और झारखंड जैसे राज्यों के बीच तकनीकी अपनाने की क्षमता में संरचनात्मक असमानताओं की अनदेखी नहीं करनी चाहिए।

एक और अंधा बिंदु अंतर्राष्ट्रीय क्षेत्राधिकार से संबंधित है। एआई शासन स्वाभाविक रूप से सीमा रहित है, फिर भी कोई तंत्र भारत-केंद्रित नियमों और वैश्विक रूप से स्रोत की गई तकनीकों के बीच संघर्षों को संबोधित नहीं करता—यूएस-प्रशिक्षित एल्गोरिदम से लेकर चीनी जनरेटिव एआई उपकरणों तक। बिना लागू करने योग्य प्रत्यर्पण या सीमा-पार उत्तरदायित्व प्रोटोकॉल के, भारत का दृष्टिकोण बाहरी अभिनेताओं के साथ निपटने में विखंडन का जोखिम उठाता है।

दक्षिण कोरिया क्या सही कर रहा है—और भारत क्या सीख सकता है

एल्गोरिदम शासन के मामले में, दक्षिण कोरिया एक महत्वपूर्ण तुलना प्रस्तुत करता है। इसका एआई नैतिक ढांचा 2023 सभी एल्गोरिदम के लिए अनिवार्य प्रभाव घोषणाएँ की आवश्यकता करता है जो सार्वजनिक कल्याण के क्षेत्रों—शिक्षा, स्वास्थ्य देखभाल, और सामाजिक सेवाओं—के साथ बातचीत करते हैं। इन घोषणाओं में प्रशिक्षण डेटा सेट, जनसांख्यिकीय धारणाएँ, और मैनुअल ओवरराइड की संभावनाओं का खुलासा करना आवश्यक है, जो भारत के तकनीकी-वैधानिक दृष्टिकोण में अभी भी अनुपस्थित है।

दक्षिण कोरिया का एल्गोरिदम शिकायत निवारण पर जोर भी उल्लेखनीय है। स्वतंत्र शिकायत प्राधिकरणों को कल्याण क्षेत्रों में एल्गोरिदम की गलतियों को ओवरराइड करने का अधिकार दिया गया है, जो प्रभावी रूप से कानूनी जवाबदेही को मानव-इन-द-लूप दृष्टिकोण के साथ मिश्रित करता है। भारत का ढांचा, अपनी महत्वाकांक्षा के बावजूद, तुलनात्मक रूप से मजबूत विषय-आधारित तंत्रों की कमी है। जितना Track-LLM एल्गोरिदम परीक्षण में सुधार करता है, मानव-यंत्र सहयोग यहाँ कम सराहा गया है।

प्रिलिम्स अभ्यास प्रश्न

  • प्रश्न 1: निम्नलिखित में से कौन सा उपकरण भारत के तकनीकी-वैधानिक एआई शासन ढांचे में बड़े भाषा मॉडलों के लिए शासन परीक्षण के लिए विशेष रूप से डिज़ाइन किया गया है?
    a) Nishpaksh
    b) ParakhAI
    c) आधार ऑडिट
    d) Track-LLM
    उत्तर: d) Track-LLM
  • प्रश्न 2: भारत के वर्तमान एआई शासन मॉडल में बुनियादी गोपनीयता सुरक्षा प्रदान करने वाला प्राथमिक कानूनी उपकरण कौन सा है?
    a) आईटी अधिनियम, 2000
    b) DPDP अधिनियम, 2023
    c) भारतीय न्याय संहिता, 2023
    d) गोपनीयता का अधिकार अधिनियम, 2024
    उत्तर: b) DPDP अधिनियम, 2023

मेन्स अभ्यास प्रश्न

आलोचनात्मक रूप से मूल्यांकन करें कि क्या भारत का तकनीकी-वैधानिक एआई शासन मॉडल एल्गोरिदम निर्णयों से प्रभावित कमजोर जनसांख्यिकीय समूहों की कमजोरियों को पर्याप्त रूप से संबोधित करता है।

हमारे कोर्स

72+ बैच

हमारे कोर्स
Contact Us