अपडेट

भारत का सैन्य एआई पर दुविधा: रणनीतिक लचीलापन या नैतिक चूक?

इस महीने की शुरुआत में आयोजित तीसरे वैश्विक शिखर सम्मेलन में, जो सैन्य क्षेत्र में जिम्मेदार कृत्रिम बुद्धिमत्ता (REAIM) पर केंद्रित था, केवल 85 में से 35 भाग लेने वाले देशों ने ‘कार्रवाई के लिए मार्ग’ घोषणा पत्र पर हस्ताक्षर किए। भारत इनमें शामिल नहीं था। यह अनुपस्थिति, अमेरिका और चीन द्वारा उठाए गए समान कदमों के साथ, एक असहज गणना को दर्शाती है: प्रौद्योगिकी में नेतृत्व की खोज और सैन्य एआई विकास में नैतिक सुरक्षा उपायों की बढ़ती आवश्यकता के बीच संतुलन। विडंबना को नजरअंदाज करना असंभव है—भारत युद्ध में एआई के “जिम्मेदार उपयोग” का समर्थन करता है, लेकिन एक कठिनाई में है, जहां वह न तो पूर्ण प्रतिबंधों का समर्थन करता है और न ही ठोस नियामक तंत्रों का।

नीति उपकरण: REAIM और भारत की स्थिति

REAIM का ‘कार्रवाई के लिए मार्ग’ घोषणा पत्र का उद्देश्य यह सुनिश्चित करना था कि सैन्य अनुप्रयोगों में एआई अंतरराष्ट्रीय मानवतावादी कानून (IHL) के सिद्धांतों और महत्वपूर्ण मानव निगरानी के अनुरूप हो। जबकि शिखर सम्मेलन में लगभग एक तिहाई उपस्थित लोगों ने इस घोषणा का समर्थन किया, पिछले शिखर सम्मेलन में 60 देशों द्वारा हस्ताक्षर किए गए समान दस्तावेज की तुलना में यह संख्या में गिरावट गहरे भू-राजनीतिक विभाजन और प्रौद्योगिकी असुरक्षाओं को उजागर करती है। भारत की स्थिति, जो कूटनीतिक चैनलों के माध्यम से व्यक्त की गई, ने कानूनी रूप से बाध्यकारी उपायों के बजाय सिद्धांत-आधारित, गैर-बाध्यकारी वैश्विक ढांचे का समर्थन करने पर जोर दिया।

भारत ने स्पष्ट रूप से संकेत दिया है कि उसे घातक स्वायत्त हथियार प्रणालियों (LAWS) पर बाध्यकारी प्रतिबंध “अत्यधिक जल्दी” लगते हैं। इसके विरोध के दो कारण हैं: LAWS की सार्वभौमिक रूप से स्वीकृत परिभाषा का अभाव और एआई प्रौद्योगिकियों की तेजी से विकसित होती प्रकृति। इस स्थिति को और जटिल बनाते हुए, भारत के एआई अनुसंधान और सैन्य आधुनिकीकरण में महत्वपूर्ण निवेश हैं, जो आंशिक रूप से ‘डिफेंस एआई काउंसिल’ और रक्षा अनुसंधान और विकास संगठन (DRDO) के तहत स्वदेशी प्रयासों के माध्यम से वित्तपोषित हैं। सरकार ने एआई-आधारित सटीक हथियारों और पूर्वानुमानित युद्धक्षेत्र खुफिया प्रणालियों को प्राथमिकता परियोजनाओं के रूप में पहचाना है—ऐसी परियोजनाएं जिन्हें कठोर वैश्विक नियमों द्वारा सीमित किया जा सकता है।

सैन्य एआई का मामला: सटीकता, गति, और रणनीतिक बढ़त

समर्थकों का तर्क है कि सैन्य एआई खेल बदलने वाले लाभ प्रदान करता है। पहले, लक्ष्यीकरण में सटीकता में वृद्धि और अनावश्यक क्षति में कमी की संभावना है। स्वायत्त ड्रोन जो वास्तविक समय में डेटा विश्लेषण से लैस हैं, नियंत्रित परीक्षणों में खतरों की पहचान और निष्क्रिय करने में अभूतपूर्व सटीकता दिखा चुके हैं। उदाहरण के लिए, अमेरिका का दावा है कि उसके एआई-संचालित प्रणालियों ने मध्य पूर्व में 2018 से 2023 के बीच हवाई हमलों के दौरान नागरिक हताहतों में 27% से अधिक की कमी की है।

दूसरे, एआई तेजी से निर्णय लेने में सक्षम बनाता है—जो साइबर, इलेक्ट्रॉनिक, और भौतिक खतरों से संबंधित उच्च गति संघर्षों के युग में एक महत्वपूर्ण आवश्यकता है। पूर्वानुमान विश्लेषण उपकरण जैसे प्रणालियाँ निगरानी, उपग्रहों और मानव खुफिया से संवेदनशील डेटा को एकत्र कर सेकंडों में सामरिक विकल्पों की सिफारिश कर सकती हैं। यह हाइब्रिड युद्ध के लिए विशेष रूप से प्रासंगिक है, जो हाल के युद्धक्षेत्रों जैसे कि यूक्रेन में सक्रिय रूप से देखा गया है। यहाँ, एआई-संवर्धित एल्गोरिदम ने साइबर हमलों का मुकाबला करने और युद्धक्षेत्र की लॉजिस्टिक्स में सुधार करने में महत्वपूर्ण भूमिका निभाई है।

इसके अलावा, मानव रहित एआई-शक्ति वाले प्रणालियाँ सैनिकों के लिए प्रत्यक्ष जोखिम को काफी कम कर देती हैं, जिससे ये हिमालय में सीमा गश्त या इंडो-पैसिफिक के विवादित क्षेत्रों में नौसैनिक अभियानों जैसे दुश्मन के वातावरण में अनिवार्य हो जाती हैं। दीर्घकाल में, ऐसी प्रौद्योगिकियाँ रणनीतिक निरोध में विषमताओं को खत्म कर सकती हैं, जिससे भारत को तकनीकी रूप से श्रेष्ठ प्रतिकूलों जैसे चीन के खिलाफ बढ़त बनाए रखने की अनुमति मिलती है।

विपक्ष का मामला: नैतिक अस्पष्टताएँ और रणनीतिक जोखिम

लेकिन इस तर्क के दूसरे पहलू को नजरअंदाज नहीं किया जा सकता। यदि युद्ध में एआई सटीकता का वादा करता है, तो यह महत्वपूर्ण अनिश्चितताओं को भी बढ़ाता है। प्रशिक्षण डेटा में पूर्वाग्रह, एल्गोरिदमिक दोष, और तकनीकी गड़बड़ियाँ विनाशकारी परिणामों का कारण बन सकती हैं। यह जोखिम काल्पनिक नहीं है। 2020 में, लीबिया पर एक यूएन रिपोर्ट ने बताया कि एक तुर्की निर्मित स्वायत्त ड्रोन ने मानव नियंत्रण के बिना लक्ष्यों पर हमला किया, जो यह दर्शाता है कि यदि सुरक्षा उपाय अपर्याप्त रहे तो क्या हो सकता है।

और भी चिंताजनक बात यह है कि जवाबदेही तंत्र का अभाव है। उन एल्गोरिदम-आधारित त्रुटियों की ज़िम्मेदारी कौन लेगा जो बड़े पैमाने पर नागरिक हताहतों का कारण बनती हैं? मौजूदा ढाँचे IHL या जिनेवा कन्वेंशनों के तहत इस शून्य को संबोधित नहीं करते क्योंकि ये युद्ध के समय मानव निर्णय लेने की धारणा पर आधारित हैं। एआई के साथ, दोष विभाजित हो जाता है—क्या यह प्रोग्रामर, राज्य, या तकनीक को लागू करने वाले सैनिक पर है?

यहाँ रणनीतिक जोखिम भी हैं। एआई प्रणालियाँ, जो अक्सर नेटवर्क संचार पर निर्भर होती हैं, साइबर हमलों के प्रति संवेदनशील रहती हैं। एक हैक किया गया स्वायत्त रक्षा प्लेटफॉर्म दुश्मन के हाथों में एक हथियार बन सकता है—यह उन देशों के लिए एक महत्वपूर्ण कमजोरी है जो आपस में जुड़े प्रणालियों पर निर्भर हैं। भारत की साइबर सुरक्षा में सीमित विशेषज्ञता, जहां 20% से कम महत्वपूर्ण अवसंरचना स्वदेशी समाधानों द्वारा सुरक्षित है, ऐसे जोखिमों को और बढ़ाता है।

अन्य लोकतंत्रों ने क्या किया: दक्षिण कोरिया का मामला

दक्षिण कोरिया एक उपयोगी तुलना प्रदान करता है। बंधनकारी प्रतिबद्धताओं को पूरी तरह से अस्वीकार करने के बजाय, सियोल ने सैन्य एआई विनियमन के लिए एक सतर्क लेकिन सक्रिय दृष्टिकोण अपनाया है। 2021 में, दक्षिण कोरिया ने सभी एआई-सक्षम सैन्य संचालन के लिए मानव निगरानी की आवश्यकता के लिए संचालन दिशानिर्देश पेश किए। इसमें सभी स्वायत्त युद्धक ड्रोन में एक अनिवार्य “किल स्विच” शामिल है। ऐसे मध्यवर्ती सुरक्षा उपाय तकनीकी नवाचार को जारी रखने की अनुमति देते हैं, जबकि संवेदनशील तैनाती पर नैतिक सुरक्षा उपाय भी लागू करते हैं।

फिर भी, यहां तक कि इस संतुलित दृष्टिकोण को भी चुनौतियों का सामना करना पड़ा है। आलोचकों का तर्क है कि दिशानिर्देशों, बिना प्रवर्तन तंत्र के, गैर-राज्य अभिनेताओं या विद्रोही प्रोग्रामरों द्वारा दुरुपयोग को रोकने के लिए अपर्याप्त हैं। फिर भी, दक्षिण कोरिया की संतुलित स्थिति यह दर्शाती है कि नवाचार की वेदी पर जवाबदेही का बलिदान नहीं होना चाहिए। इसके विपरीत, भारत का यहां तक कि गैर-बाध्यकारी अनुपालन मानकों का विरोध करना इसके दीर्घकालिक नियामक दृष्टिकोण पर सवाल उठाता है।

स्थिति क्या है: एक रणनीतिक जुआ

REAIM के घोषणा पत्र से भारत की अनुपस्थिति उभरती शक्तियों की रणनीतिक पहेली को उजागर करती है: भविष्य के युद्ध को आकार देने की इच्छा और बाहरी रूप से लगाए गए प्रतिबंधों से बचने की कोशिश। यह तर्क निराधार नहीं है। एक अत्यधिक जल्दी में नियामक ढांचा भारत की तकनीकी रूप से उन्नत प्रतिकूलों के साथ प्रतिस्पर्धा करने की क्षमता को सीमित कर सकता है। फिर भी, वैश्विक—या यहां तक कि राष्ट्रीय—मानकों की अनुपस्थिति प्रणालीगत अराजकता को आमंत्रित करती है, जहां तकनीकी दौड़ सुरक्षा उपायों के बजाय शॉर्टकट को प्रोत्साहित करती है।

वास्तविक जोखिम केवल नैतिक उल्लंघनों का नहीं है बल्कि ऑपरेशनल विरोधाभासों का भी है: ऐसे प्रौद्योगिकियाँ जो सटीकता और सुरक्षा के लिए बनाई गई हैं, अप्रत्याशितता और अस्थिरता को बढ़ा सकती हैं। भारत का नवाचार और कूटनीति के बीच संतुलन बनाने का प्रयास समझ में आता है लेकिन अपर्याप्त है। जैसे-जैसे सैन्य अनुप्रयोगों में एआई का प्रसार होता है, “सिद्धांत-आधारित ढांचे” जैसे आधे उपाय शायद बहुत कम और बहुत देर साबित होंगे।

प्रारंभिक प्रश्न

📝 प्रारंभिक अभ्यास
अंतरराष्ट्रीय मानवतावादी कानून (IHL) के तहत युद्ध में एआई के उपयोग के संबंध में प्राथमिक चिंता क्या है?
  • aतटस्थता समझौतों का उल्लंघन
  • bमहत्वपूर्ण मानव नियंत्रण की कमी
  • cमानवता और गरिमा के सिद्धांतों को कमजोर करना
  • dकेवल राज्य अभिनेताओं द्वारा एआई का उपयोग निम्नलिखित में से कौन सा स्वायत्त हथियार प्रणालियों से संबंधित जोखिम नहीं है?

मुख्य प्रश्न

इस बात का समालोचनात्मक मूल्यांकन करें कि क्या भारत की वर्तमान स्थिति युद्ध में कृत्रिम बुद्धिमत्ता के नियमन के संबंध में नवाचार और नैतिक जिम्मेदारी के बीच संतुलित दृष्टिकोण को दर्शाती है।

हमारे कोर्स

72+ बैच

हमारे कोर्स
Contact Us