CAG का AI-संचालित ऑडिट सिस्टम: दक्षता बनाम जवाबदेही?
18 सितंबर, 2025 को, भारत के नियंत्रक और महालेखा परीक्षक (CAG) ने सरकारी खातों के ऑडिट के लिए AI-संचालित लार्ज लैंग्वेज मॉडल (LLM) को लागू करने की योजना की घोषणा की। यह कदम सार्वजनिक ऑडिट में दक्षता और पारदर्शिता में बदलाव लाने की उम्मीद करता है। LLM विशाल डेटा सेट का स्वचालित विश्लेषण और ₹45 लाख करोड़ के वार्षिक सरकारी लेन-देन में विसंगतियों का पता लगाने का वादा करता है। लेकिन सार्वजनिक वित्त प्रबंधन का मूल्यांकन करने के लिए AI पर निर्भरता सटीकता, सुरक्षा और संस्थागत जवाबदेही के बारे में मौलिक प्रश्न उठाती है।
महत्वाकांक्षा: ऑडिट में लार्ज लैंग्वेज मॉडल
यहाँ नीति उपकरण तकनीकी और संरचनात्मक दोनों हैं। AI ढांचा स्वचालित साक्ष्य संग्रह, जोखिम प्राथमिकता और मंत्रालयों, सार्वजनिक क्षेत्र के उपक्रमों (PSUs) और पंचायत राज संस्थानों (PRIs) में प्रदर्शन रिपोर्टिंग को सक्षम करेगा। CAG-Connect जैसे डिजिटल पोर्टलों के समर्थन से, जो पहले से ही लगभग 10 लाख ऑडिट करने वाली संस्थाओं को एकीकृत करता है, यह सिस्टम पश्चिम बंगाल के पेपरलेस PRI ऑडिट और तेलंगाना के दूरस्थ अनुपालन प्रयासों जैसी पूर्व पहलों पर आधारित है। लक्ष्य: व्यापक मैन्युअल समीक्षाओं से AI-समर्थित हाइब्रिड ऑडिट की ओर बढ़ना ताकि ऑडिटर्स उच्च जोखिम वाले मामलों पर कम फील्ड विजिट कर सकें।
लेकिन दक्षताओं के साथ-साथ, यह विचार करना आवश्यक है कि वास्तव में क्या स्वचालित किया जा रहा है। डीप लर्निंग एल्गोरिदम जो LLMs के लिए केंद्रीय हैं, असंरचित डेटा—रिकॉर्ड, रिपोर्ट, लेन-देन इतिहास—को समझते हैं और पैटर्न की भविष्यवाणी करते हैं। उदाहरण के लिए, GST राजस्व के तहत वार्षिक ₹3.5 लाख करोड़ का वितरण संभाव्य विश्लेषण के माध्यम से तेजी से विसंगति पहचान सकता है। फिर भी, यह तकनीक ऑडिट को मानव समीक्षा में निहित व्यक्तिपरक निर्णय से हटा रही है।
AI-समर्थित ऑडिटिंग के पक्ष में
समर्थक तर्क करते हैं कि AI का एकीकरण भारत के ऑडिट दृष्टिकोण में लंबे समय से निहित अक्षमताओं को समाप्त कर सकता है। वर्तमान में, पारंपरिक प्रणाली को ऑडिट से पहले फील्ड-स्तरीय साक्ष्य एकत्र करने में महीनों लगते हैं। LLM-आधारित एल्गोरिदम दशकों के निरीक्षण पूर्वानुमानों को स्कैन करके मानकों में अधिक स्थिरता का वादा करते हैं, जो ऑडिटर्स के बीच व्यक्तिपरक भिन्नताओं को पार करते हैं। हरियाणा के सार्वजनिक कार्यों के हाइब्रिड ऑडिट में प्रारंभिक परीक्षणों ने तेज़ फीडबैक लूप का प्रदर्शन किया।
महत्वपूर्ण रूप से, सरकारी निगरानी की विशाल चुनौतियाँ ऐसे हस्तक्षेप की आवश्यकता को दर्शाती हैं। भारत में 2.7 करोड़ PRI कर्मचारी विकेन्द्रीकृत वित्त का प्रबंधन कर रहे हैं—जो मैन्युअल निगरानी के लिए लगभग असंभव है। पश्चिम बंगाल का वर्चुअल ऑडिट दिखाता है कि AI एकीकरण संचालनात्मक बाधाओं को कम करता है, बेहतर वास्तविक समय में फीडबैक की अनुमति देता है और बिना अनुपातिक स्टाफ वृद्धि के ऑडिट की पहुंच का विस्तार करता है। उच्च मूल्य वाले शासन कार्यक्रम—जैसे आवास योजनाओं के तहत आवंटित ₹15,000 करोड़—विशेष रूप से लाभान्वित हो सकते हैं।
इसके अलावा, AI उन क्षेत्रों में प्रवर्तन को मजबूत कर सकता है जो अस्पष्टता से ग्रस्त हैं। GST रसीदों में विसंगति पहचान लें—यह एक ऐसा क्षेत्र है जहाँ बड़े लेन-देन डेटा सेट में पैटर्न पहचानना कर चोरी का पता लगाने के लिए महत्वपूर्ण है। पैटर्न-आधारित लक्ष्यीकरण मानव-आधारित सैंपलिंग ऑडिट द्वारा छोड़े गए अंतराल को भरता है, विशेष रूप से उन क्षेत्रों में जहाँ डेटा ट्रेल्स विखंडित हैं। 1.2 करोड़ GST पंजीकरणकर्ताओं का टुकड़ों-टुकड़ों में ऑडिट करने के बजाय, AI सिस्टम उच्च वित्तीय विसंगति जोखिम वाले समूहों की पहचान कर सकता है।
विपरीत तर्क: अत्यधिक स्वचालन के खतरे
हालांकि दक्षता लाभ अवश्य हैं, लेकिन संदेहवादी महत्वपूर्ण चिंताओं को उठाते हैं—संस्थागत और तकनीकी दोनों। सबसे पहले, डेटा परिपक्वता राज्यों, मंत्रालयों और PRIs के बीच बहुत भिन्न होती है। शासन रिकॉर्ड का एक महत्वपूर्ण हिस्सा कागज पर आधारित या खराब तरीके से डिजिटाइज्ड है। उच्च गुणवत्ता वाले इनपुट पर निर्भर AI सिस्टम क्षेत्रों में असमान परिणामों का जोखिम उठाते हैं, जैसे तमिलनाडु में मजबूत ई-गवर्नेंस बनाम पीछे रहने वाले राज्यों।
लार्ज लैंग्वेज मॉडल की सटीकता एक और Achilles हील है। पारंपरिक ऑडिटिंग पद्धतियों से जुड़े निर्धारीत तर्क के विपरीत, AI एल्गोरिदम संभाव्य रूप से कार्य करते हैं। ऑडिटर्स कैसे पार्लियामेंटरी समितियों को ओpaque ब्लैक-बॉक्स मॉडलों द्वारा उत्पन्न त्रुटियों को सही ठहराएंगे? दोषपूर्ण विसंगति पहचान गलत तरीके से अनुपालन करने वाली संस्थाओं को झंडा लगा सकती है—यह एक समस्या है जो अत्यधिक आक्रामक स्वचालन पर निर्भरता से बढ़ जाती है।
डेटा गोपनीयता और साइबर सुरक्षा एक बड़ा मुद्दा है। संवेदनशील डेटाबेस (आय प्रकटीकरण, सामाजिक लाभ, सब्सिडी प्राप्तकर्ता) में ₹45 लाख करोड़ के लेन-देन को संभालना अभूतपूर्व गोपनीयता जोखिम प्रस्तुत करता है। लेकिन ऐसी जानकारी की सुरक्षा करने वाले संस्थान—भारत का CERT-In या राजस्व विभाग—AI सुरक्षा प्रोटोकॉल को पूरी तरह से एकीकृत करने में असफल रहे हैं जो अंतर- विभागीय AI ऑडिट का समर्थन कर सकें। महत्वाकांक्षा और बुनियादी ढाँचे के बीच का अंतर वास्तविक है।
शायद सबसे बड़ी आलोचना इस बात में है कि मानव निगरानी AI-संचालित सिफारिशों का संतुलन कैसे बना सकती है। CAG (Duties, Powers, and Conditions of Service) Act, 1971, जो ऑडिट स्वायत्तता के लिए केंद्रीय है, स्वचालन को पारंपरिक विधियों के साथ मिलाने के लिए स्पष्ट प्रावधानों की कमी है। AI निष्कर्षों पर मैन्युअल क्रॉसचेक को अनिवार्य करने के लिए संस्थागत सुरक्षा का अभाव है, जो मशीनों पर अत्यधिक निर्भरता के जोखिम को बढ़ाता है और मानव मूल्यांकन की कठोरता को कम करता है।
अंतरराष्ट्रीय तुलना: दक्षिण कोरिया की स्वचालित निगरानी
दक्षिण कोरिया मूल्यवान सबक प्रदान करता है। ऑडिट और निरीक्षण बोर्ड (BAI) ने बढ़ते डिजिटल वित्तीय लेन-देन के बीच समान ऑडिट चुनौतियों का सामना किया। 2021 में, इसने सार्वजनिक कार्य परियोजनाओं में विसंगति पहचान के लिए AI-आधारित ऑडिट टूल लागू किया, जिसकी वार्षिक लागत $87 बिलियन है। जबकि पहले के पायलटों ने मैन्युअल रिपोर्टों की तुलना में अधिक वित्तीय विसंगतियाँ झंडा लगाईं, ये निष्कर्ष चेतावनियों के साथ आए—AI ने अक्सर बाहरी तत्वों को भ्रष्टाचार के जोखिम के रूप में गलत तरीके से व्याख्यायित किया। दक्षिण कोरिया ने सभी AI-जनित विसंगतियों के अंतिम ऑडिट निष्कर्षों से पहले अनिवार्य मानव जांच की आवश्यकता रखकर इस समस्या को हल किया।
भारत की चुनौती समान लेकिन अलग है। जबकि दक्षिण कोरिया ने स्वचालन को कट्टर संस्थागत सुधार के साथ जोड़ा, भारत की विखंडित पहुंच नीतियाँ (राज्य-केंद्र भिन्नताएँ) और असमान डिजिटाइजेशन एक कठिन रास्ता सुझाते हैं।
वर्तमान स्थिति
भारत का AI-नेतृत्व वाला ऑडिट में कदम उठाना साहसी, आवश्यक और जोखिमों से भरा है। अवश्य लाभ—गति, कवरेज, और बेहतर पहचान—सुधार के लिए तात्कालिकता को दर्शाते हैं। हालांकि, इस संक्रमण की वास्तविक प्रभावशीलता इस पर निर्भर करेगी कि संस्थाएँ सुरक्षा उपायों को कितनी लचीले ढंग से डिज़ाइन करती हैं। CAG प्रक्रियाओं में मानव जवाबदेही को समाहित किए बिना, AI पर अत्यधिक निर्भरता भयानक रूप से गलत हो सकती है।
वास्तविक जोखिम? कि चमकदार सिस्टम प्रणालीगत सुधारों को ढक दें। मानकीकृत डेटा प्रारूप, निरंतर मॉडल ऑडिट, और लागू करने योग्य स्पष्टीकरण उपायों को पूर्ण पैमाने पर अपनाने से पहले होना चाहिए।
परीक्षा अभ्यास
- प्रारंभिक MCQ 1: CAG के कर्तव्यों के ढांचे को कौन से संविधान के अनुच्छेद नियंत्रित करते हैं?
(a) अनुच्छेद 138 से 141
(b) अनुच्छेद 148 से 151
(c) अनुच्छेद 112 से 116
(d) अनुच्छेद 151 से 155
सही उत्तर: (b) - प्रारंभिक MCQ 2: AI-संचालित ऑडिट सिस्टम का एक प्रमुख लाभ क्या है?
(a) स्टाफ विजिट की संख्या दोगुनी
(b) बढ़ते साइबर सुरक्षा जोखिम
(c) विसंगति पहचान में वृद्धि
(d) मानव समीक्षा से छूट
सही उत्तर: (c)
मुख्य प्रश्न: CAG द्वारा प्रस्तावित AI-संचालित ऑडिट सिस्टम सार्वजनिक वित्तीय निगरानी में प्रणालीगत अक्षमताओं को किस हद तक संबोधित करता है? इसके जोखिमों, अवसरों और संरचनात्मक सीमाओं का मूल्यांकन करें, भारत और विदेशों से उदाहरणों के साथ।
स्रोत: LearnPro Editorial | Economy | प्रकाशित: 18 September 2025 | अंतिम अपडेट: 4 March 2026
लर्नप्रो संपादकीय मानकों के बारे में
लर्नप्रो की संपादकीय सामग्री सिविल सेवा तैयारी में अनुभवी विषय विशेषज्ञों द्वारा शोधित और समीक्षित है। हमारे लेख सरकारी स्रोतों, NCERT पाठ्यपुस्तकों, मानक संदर्भ सामग्री और प्रतिष्ठित प्रकाशनों जैसे द हिंदू, इंडियन एक्सप्रेस और PIB से लिए गए हैं।
सामग्री को नवीनतम पाठ्यक्रम परिवर्तनों, परीक्षा पैटर्न और वर्तमान घटनाक्रमों के अनुसार नियमित रूप से अपडेट किया जाता है। सुधार या प्रतिक्रिया के लिए admin@learnpro.in पर संपर्क करें।
