अपडेट

परिचय: भारतीय सरकार और आईटी क्षेत्र का Anthropic AI मॉडल के साथ जुड़ाव

साल 2024 में, भारत सरकार ने आईटी उद्योग के साथ मिलकर Anthropic AI मॉडल के साइबर सुरक्षा प्रभावों का गहन अध्ययन शुरू किया है। यह मॉडल एक बड़ा भाषा मॉडल है, जिसे सुरक्षा विशेषताओं के साथ विकसित किया गया है। इस सहयोग में MeitY, CERT-In और NASSCOM जैसी एजेंसियां और उद्योग संगठन शामिल हैं, जो उभरते हुए AI-आधारित साइबर खतरों का मूल्यांकन कर रहे हैं। इस अध्ययन का उद्देश्य भारत के तेजी से बढ़ते डिजिटल क्षेत्र और AI के बढ़ते उपयोग को ध्यान में रखते हुए कमजोरियों और नियामक खामियों की पहले से पहचान करना है। यह पहल इसलिए महत्वपूर्ण है ताकि बड़े पैमाने पर साइबर हमलों से पहले सुरक्षा जोखिमों को रोका जा सके, खासकर भारत के बढ़ते AI बाजार और साइबर हमलों की संख्या को देखते हुए।

UPSC प्रासंगिकता

  • GS Paper 3: विज्ञान और प्रौद्योगिकी – साइबर सुरक्षा चुनौतियां, AI शासन, IT Act के प्रावधान
  • GS Paper 2: राजनीति – डेटा सुरक्षा कानून, संवैधानिक गोपनीयता अधिकार
  • निबंध: डिजिटल इंडिया और उभरती तकनीकें – नवाचार और सुरक्षा का संतुलन

साइबर सुरक्षा और AI के लिए कानूनी एवं संवैधानिक ढांचा

भारत में साइबर सुरक्षा का शासन Information Technology Act, 2000 पर आधारित है, विशेषकर इसके Sections 43A (डेटा सुरक्षा जिम्मेदारी) और 66 (कंप्यूटर अपराध) महत्वपूर्ण हैं। Personal Data Protection Bill, 2019 अभी संसद में लंबित है, जो डेटा गोपनीयता को व्यापक रूप से नियंत्रित करने का प्रयास करता है, और AI डेटा शासन में यह एक अहम कमी को पूरा करेगा। सुप्रीम कोर्ट ने Justice K.S. Puttaswamy (2017) के फैसले में Article 21 के तहत गोपनीयता के अधिकार को संवैधानिक मान्यता दी है, जो AI के दुरुपयोग से व्यक्तिगत डेटा की सुरक्षा के लिए कानूनी आधार प्रदान करता है। इसके अलावा, National Cyber Security Policy, 2013 में रणनीतिक उद्देश्य तो बताए गए हैं, लेकिन AI-विशेष निर्देश नहीं हैं। Shreya Singhal v. Union of India (2015) के फैसले ने मध्यस्थों की जिम्मेदारी स्पष्ट की है, जो AI प्लेटफॉर्म्स पर उपयोगकर्ता-जनित सामग्री के प्रबंधन से जुड़ा है।

  • IT Act 2000: सेक्शन 43A और 66 डेटा उल्लंघन और साइबर अपराधों के लिए मुआवजा और दंड निर्धारित करते हैं।
  • Personal Data Protection Bill 2019: लंबित कानून जो डेटा गोपनीयता और AI डेटा प्रबंधन को नियंत्रित करेगा।
  • Article 21: गोपनीयता का अधिकार, AI संदर्भ में डेटा सुरक्षा का आधार।
  • National Cyber Security Policy 2013: साइबर सुरक्षा का ढांचा, AI-विशेष प्रावधानों के बिना।
  • Shreya Singhal केस: AI सामग्री मॉडरेशन के लिए मध्यस्थों की जिम्मेदारी तय करता है।

आर्थिक पहलू: भारत में साइबर सुरक्षा और AI बाजार की स्थिति

भारत का साइबर सुरक्षा बाजार 2020 में USD 3.05 बिलियन से बढ़कर 2025 तक USD 13.6 बिलियन तक पहुंचने का अनुमान है, जो 32.5% की CAGR से बढ़ रहा है (NASSCOM 2021)। केंद्रीय बजट 2023-24 में डिजिटल इंडिया के तहत साइबर सुरक्षा अवसंरचना के लिए INR 5,000 करोड़ (~USD 670 मिलियन) आवंटित किए गए हैं। इसी दौरान, AI बाजार 2025 तक USD 7.8 बिलियन तक पहुंचने की उम्मीद है (NITI Aayog 2022), जिससे Anthropic के Claude जैसे AI मॉडलों से जुड़े साइबर जोखिम बढ़ रहे हैं। भारत में साइबर अपराध की वार्षिक लागत लगभग INR 1.15 लाख करोड़ (~USD 15 बिलियन) आंकी गई है (CERT-In 2023)। IT क्षेत्र में 4.5 मिलियन से अधिक पेशेवर कार्यरत हैं, जिनमें साइबर सुरक्षा विशेषज्ञों की मांग तेजी से बढ़ रही है ताकि AI-सक्षम खतरों से निपटा जा सके।

  • साइबर सुरक्षा बाजार CAGR: 32.5% की दर से बढ़कर 2025 में USD 13.6 बिलियन।
  • सरकारी फंडिंग: डिजिटल इंडिया के तहत INR 5,000 करोड़ साइबर सुरक्षा के लिए।
  • AI बाजार वृद्धि: 2025 तक USD 7.8 बिलियन का अनुमान।
  • सालाना साइबर अपराध हानि: INR 1.15 लाख करोड़ (~USD 15 बिलियन)।
  • IT कार्यबल: 4.5 मिलियन से अधिक, साइबर सुरक्षा कौशल की बढ़ती मांग।

प्रमुख संस्थान और उनकी AI साइबर सुरक्षा में भूमिका

CERT-In राष्ट्रीय स्तर पर साइबर सुरक्षा घटनाओं के जवाब और समन्वय का काम करता है। National Critical Information Infrastructure Protection Centre (NCIIPC) महत्वपूर्ण बुनियादी ढांचे को साइबर खतरों से बचाता है। MeitY IT और साइबर सुरक्षा नीतियों का निर्माण और क्रियान्वयन करता है, जिसमें AI शासन भी शामिल है। NASSCOM IT उद्योग का प्रतिनिधित्व करता है और साइबर सुरक्षा सर्वेक्षण करता है। Anthropic एक AI अनुसंधान कंपनी है जो सुरक्षा और व्याख्यात्मकता पर ध्यान केंद्रित करते हुए बड़े भाषा मॉडल विकसित करती है। NITI Aayog सरकार को AI नीति और उभरती तकनीकों के रणनीतिक पहलुओं पर सलाह देता है, जिसमें साइबर सुरक्षा भी शामिल है।

  • CERT-In: साइबर घटना प्रतिक्रिया और खतरा समन्वय।
  • NCIIPC: महत्वपूर्ण बुनियादी ढांचे की साइबर सुरक्षा।
  • MeitY: IT नीति और साइबर सुरक्षा नियमावली।
  • NASSCOM: उद्योग का प्रतिनिधित्व और साइबर सुरक्षा अनुसंधान।
  • Anthropic: सुरक्षा विशेषताओं वाले AI मॉडल विकसित करने वाली कंपनी।
  • NITI Aayog: AI और साइबर सुरक्षा पर नीति सलाहकार।

डेटा और रुझान: AI-आधारित साइबर सुरक्षा चुनौतियां

2023 में भारत में 1.16 बिलियन से अधिक साइबर हमले दर्ज हुए, जिससे यह विश्व में तीसरे स्थान पर है (CERT-In वार्षिक रिपोर्ट 2023)। Anthropic का Claude AI मॉडल GPT-4 की तुलना में बेहतर व्याख्यात्मकता और सुरक्षा का दावा करता है (Anthropic Whitepaper 2023), फिर भी 2023 में 70% से अधिक भारतीय IT कंपनियों ने AI उपकरणों से जुड़े साइबर खतरों में वृद्धि की सूचना दी है (NASSCOM साइबर सुरक्षा सर्वे 2023)। केवल 15% भारतीय उद्यमों के पास AI-विशेष साइबर सुरक्षा प्रोटोकॉल हैं (KPMG India AI Risk Report 2023)। लंबित Personal Data Protection Bill के कारण AI डेटा शासन में नियामक अनिश्चितता बनी हुई है (PRS Legislative Research 2024)। वैश्विक स्तर पर, AI-संबंधित साइबर अपराध से 2025 तक USD 15 बिलियन का नुकसान होने का अनुमान है, जिसमें भारत डिजिटल उपस्थिति के कारण प्रमुख लक्ष्य है (Interpol Cybercrime Report 2023)।

  • 2023 में भारत में 1.16 बिलियन साइबर हमले; विश्व में तीसरा स्थान।
  • Anthropic Claude मॉडल: बेहतर सुरक्षा और व्याख्यात्मकता।
  • 70% से अधिक भारतीय IT कंपनियों ने AI से जुड़े खतरे बढ़े बताए।
  • केवल 15% उद्यमों के पास AI-विशेष साइबर सुरक्षा उपाय।
  • Personal Data Protection Bill लंबित, नियामक अनिश्चितता।
  • वैश्विक AI साइबर अपराध का अनुमानित नुकसान USD 15 बिलियन तक।

तुलनात्मक अध्ययन: भारत बनाम यूरोपीय संघ AI साइबर सुरक्षा नियम

पहलूभारतयूरोपीय संघ (EU)
नियामक ढांचाIT Act 2000, लंबित Personal Data Protection Bill, AI-विशेष साइबर सुरक्षा कानून नहींप्रस्तावित AI Act (2021) जिसमें उच्च जोखिम वाले AI के लिए अनिवार्य जोखिम मूल्यांकन और साइबर सुरक्षा मानक
AI मॉडल शासनसीमित दिशा-निर्देश, डेटा सुरक्षा और साइबर अपराध रोकथाम पर ध्यानकठोर पारदर्शिता, मानवीय निगरानी और साइबर सुरक्षा अनुपालन
प्रवर्तन और अनुपालनMeitY, CERT-In, NCIIPC द्वारा अलग-अलग प्रवर्तनकेंद्रीकृत प्रवर्तन, गैर-अनुपालन पर दंड, पायलट राज्यों में 30% AI-संबंधित साइबर घटनाओं में कमी
डेटा गोपनीयतासुप्रीम कोर्ट द्वारा गोपनीयता अधिकार मान्यता; Personal Data Protection Bill लंबितGDPR AI Act के साथ एकीकृत, मजबूत डेटा गोपनीयता और उपयोगकर्ता अधिकार

भारत के AI साइबर सुरक्षा शासन में मुख्य कमियां

भारत में AI-विशेष साइबर सुरक्षा के लिए कोई व्यापक नियामक ढांचा नहीं है जो डेटा सुरक्षा, AI नैतिकता और वास्तविक समय खतरा निवारण को एकीकृत करता हो। Personal Data Protection Bill की लंबित स्थिति AI डेटा शासन में अस्पष्टता पैदा करती है। मौजूदा कानूनी ढांचा AI मॉडल की पारदर्शिता, जवाबदेही या अनिवार्य जोखिम मूल्यांकन को संबोधित नहीं करता। MeitY, CERT-In और NCIIPC के बीच संस्थागत समन्वय टूटता हुआ है, जो AI-आधारित खतरों के प्रति त्वरित प्रतिक्रिया को सीमित करता है। यह अंतर EU के सक्रिय AI Act से विपरीत है, जो सख्त साइबर सुरक्षा और नैतिक मानकों को लागू करता है और AI-आधारित साइबर घटनाओं को कम करता है।

  • कोई AI-विशेष साइबर सुरक्षा कानून या अनिवार्य जोखिम मूल्यांकन प्रोटोकॉल नहीं।
  • Personal Data Protection Bill लंबित, नियामक अनिश्चितता।
  • टूटा हुआ संस्थागत समन्वय खतरा निवारण क्षमता कम करता है।
  • AI पारदर्शिता और जवाबदेही के लिए कोई अनिवार्यता नहीं।
  • शासन की कमियों के कारण AI-आधारित साइबर हमलों के प्रति संवेदनशीलता।

आगे का रास्ता: भारत की AI साइबर सुरक्षा को मजबूत बनाना

  • Personal Data Protection Bill को AI-विशेष प्रावधानों के साथ पारित करें ताकि डेटा शासन और गोपनीयता सुनिश्चित हो सके।
  • EU AI Act से प्रेरणा लेकर एक समर्पित AI साइबर सुरक्षा ढांचा विकसित करें, जिसमें जोखिम मूल्यांकन, पारदर्शिता और मानवीय निगरानी अनिवार्य हो।
  • MeitY, CERT-In, और NCIIPC के बीच समन्वय बढ़ाकर खतरा पहचान और प्रतिक्रिया को एकीकृत करें।
  • उद्योग में AI-विशेष साइबर सुरक्षा प्रोटोकॉल अपनाने और साइबर सुरक्षा पेशेवरों के कौशल विकास को बढ़ावा दें।
  • सार्वजनिक-निजी भागीदारी को प्रोत्साहित करें ताकि AI सुरक्षा मानक और नैतिक दिशानिर्देश तैयार किए जा सकें।
📝 प्रारंभिक अभ्यास
भारत के साइबर सुरक्षा नियामक ढांचे के बारे में निम्नलिखित कथनों पर विचार करें:
  1. Information Technology Act, 2000 में डेटा सुरक्षा विफलता के मामले में मुआवजे के प्रावधान शामिल हैं।
  2. Personal Data Protection Bill, 2019 वर्तमान में भारत में डेटा गोपनीयता को नियंत्रित करने वाला सक्रिय कानून है।
  3. National Cyber Security Policy, 2013 में AI साइबर सुरक्षा जोखिम कम करने के लिए विशिष्ट दिशा-निर्देश शामिल हैं।
  • aकेवल 1
  • bकेवल 2 और 3
  • cकेवल 1 और 3
  • d1, 2 और 3
उत्तर: (a)
कथन 1 सही है क्योंकि IT Act 2000 की सेक्शन 43A डेटा सुरक्षा विफलता पर मुआवजे का प्रावधान करती है। कथन 2 गलत है क्योंकि Personal Data Protection Bill, 2019 अभी लंबित है और लागू नहीं हुआ है। कथन 3 गलत है क्योंकि National Cyber Security Policy, 2013 में AI-विशेष दिशा-निर्देश नहीं हैं।
📝 प्रारंभिक अभ्यास
CERT-In और MeitY के बारे में निम्नलिखित कथनों पर विचार करें:
  1. CERT-In भारत में साइबर सुरक्षा घटनाओं के जवाब और समन्वय के लिए जिम्मेदार है।
  2. MeitY IT और साइबर सुरक्षा नीतियों के निर्माण और क्रियान्वयन के लिए प्रमुख एजेंसी है।
  3. CERT-In सीधे Personal Data Protection Bill के तहत डेटा सुरक्षा कानूनों को लागू करता है।
  • aकेवल 1 और 2
  • bकेवल 2 और 3
  • cकेवल 1 और 3
  • d1, 2 और 3
उत्तर: (a)
कथन 1 और 2 सही हैं। CERT-In साइबर घटना प्रतिक्रिया संभालता है, जबकि MeitY IT और साइबर सुरक्षा नीतियां बनाता है। कथन 3 गलत है क्योंकि CERT-In डेटा सुरक्षा कानून लागू नहीं करता; यह MeitY और अन्य एजेंसियों का कार्य है।

मुख्य प्रश्न

Anthropic के Claude जैसे उभरते AI मॉडलों से भारत में उत्पन्न होने वाली साइबर सुरक्षा चुनौतियों की गंभीरता से समीक्षा करें। इन चुनौतियों से निपटने के लिए भारत के मौजूदा कानूनी और संस्थागत ढांचे की पर्याप्तता पर चर्चा करें और AI साइबर सुरक्षा शासन को मजबूत बनाने के उपाय सुझाएं।

झारखंड और JPSC प्रासंगिकता

  • JPSC पेपर: पेपर 3 (विज्ञान और प्रौद्योगिकी) – साइबर सुरक्षा और AI शासन
  • झारखंड दृष्टिकोण: झारखंड के बढ़ते IT हब और डिजिटल अवसंरचना AI-आधारित साइबर खतरों के प्रति संवेदनशीलता बढ़ाते हैं।
  • मुख्य बिंदु: राज्य स्तर की साइबर सुरक्षा क्षमता, AI-विशेष नीतियों की आवश्यकता और राष्ट्रीय ढांचे के साथ समन्वय पर उत्तर तैयार करें।
IT Act, 2000 की सेक्शन 43A साइबर सुरक्षा में क्या भूमिका निभाती है?

सेक्शन 43A कंपनियों को संवेदनशील व्यक्तिगत डेटा की सुरक्षा में विफलता पर मुआवजा देने का दायित्व देती है, जिससे साइबर सुरक्षा में लापरवाही की जिम्मेदारी तय होती है।

Personal Data Protection Bill, 2019 AI साइबर सुरक्षा के लिए क्यों महत्वपूर्ण है?

यह बिल डेटा गोपनीयता को व्यापक रूप से नियंत्रित करने का प्रयास करता है, जिसमें AI डेटा प्रोसेसिंग भी शामिल है, लेकिन लंबित होने के कारण AI शासन में नियामक अनिश्चितता बनी हुई है।

Anthropic के Claude AI मॉडल की सुरक्षा विशेषताएं कैसे अलग हैं?

Claude GPT-4 की तुलना में बेहतर व्याख्यात्मकता और सुरक्षा तंत्र प्रदान करता है, जिससे AI आउटपुट के दुरुपयोग को कम किया जा सके और पारदर्शिता बढ़े।

भारत में AI से जुड़े मुख्य साइबर सुरक्षा चुनौतियां क्या हैं?

बढ़ते AI-आधारित साइबर हमले, केवल 15% उद्यमों में AI-विशेष प्रोटोकॉल की कमी, और टूटा हुआ नियामक ढांचा मुख्य चुनौतियां हैं।

EU AI Act भारत के लिए कैसे एक मॉडल है?

EU AI Act उच्च जोखिम वाले AI के लिए जोखिम मूल्यांकन, पारदर्शिता और मानवीय निगरानी को अनिवार्य करता है, जिससे पायलट राज्यों में AI-संबंधित साइबर घटनाओं में 30% कमी आई है। यह भारत के लिए नियामक रूपरेखा का उदाहरण है।

आधिकारिक स्रोत और आगे पढ़ाई के लिए

हमारे कोर्स

72+ बैच

हमारे कोर्स
Contact Us