अपडेट

AI-जनित सामग्री का नियमन: IT नियम, 2021 में संशोधन ऊँचे लक्ष्यों का संकेत देते हैं, लेकिन परिणाम अनिश्चित हैं

23 अक्टूबर, 2025 को इलेक्ट्रॉनिक्स और सूचना प्रौद्योगिकी मंत्रालय (MeitY) ने सूचना प्रौद्योगिकी (मध्यस्थ दिशानिर्देश और डिजिटल मीडिया नैतिकता कोड) नियम, 2021 में संशोधन की घोषणा की। इसके सबसे महत्वपूर्ण परिवर्तनों में, संशोधन में यह अनिवार्य किया गया है कि AI-से संसाधित मीडिया अब उपयोगकर्ताओं को सूचित करने के लिए स्पष्ट लेबल के साथ होना चाहिए और सिंथेटिक और डीपफेक सामग्री को रोकने के लिए कड़े जवाबदेही तंत्र पेश किए गए हैं। MeitY के अनुसार, जो प्लेटफॉर्म इन आवश्यकताओं को पूरा करने में विफल रहते हैं, उन्हें “सुरक्षित बंदरगाह” संरक्षण खोने का जोखिम है, जो कि सूचना प्रौद्योगिकी अधिनियम, 2000 के धारा 79 के तहत है, जिससे वे उपयोगकर्ता सामग्री के लिए कानूनी जिम्मेदारियों के अधीन हो जाते हैं।

AI को लक्ष्य बनाना: सामग्री नियमन के पिछले पैटर्न से विचलन

यह संशोधन पूर्व के नियामक दृष्टिकोणों से स्पष्ट रूप से भिन्न है, जो केवल मध्यस्थों की सावधानी और अनुपालन उपकरणों पर केंद्रित थे। “सिंथेटिक रूप से उत्पन्न जानकारी” का स्पष्ट उल्लेख — जिसे वास्तविक सामग्री के समान दिखने वाले एल्गोरिदम द्वारा उत्पन्न मीडिया के रूप में परिभाषित किया गया है — भारतीय डिजिटल शासन के लिए एक नया आधार रखता है। अब तक, भारत के डिजिटल ढांचे में AI के हस्तक्षेप, डीपफेक सामग्री या सिंथेटिक मीडिया से उत्पन्न मुद्दों पर वैधानिक स्पष्टता की कमी थी, जिससे प्लेटफॉर्म IT नियम, 2021 के तहत सामान्य नष्ट करने की प्रक्रियाओं पर निर्भर थे।

प्लेटफॉर्मों के लिए AI-जनित मीडिया को स्पष्ट रूप से लेबल और टैग करने की शर्त — जो नियमों के अनुसार फ्रेम या अवधि का 10%占 करती है — सीधे प्लेटफॉर्मों पर जिम्मेदारी सौंपने में एक वैश्विक मानक स्थापित करती है। यह नियामक इरादे का एक नवाचार और सुदृढ़ीकरण दोनों है, क्योंकि ऐसे समान कदम डिजिटल नीति-भारी न्यायक्षेत्रों जैसे यूरोपीय संघ में भी धीरे-धीरे उभरे हैं। जबकि EU AI अधिनियम AI उपकरणों में शामिल डेवलपर्स और कॉर्पोरेशनों के लिए जवाबदेही को प्राथमिकता देता है, भारत सीधे मध्यस्थों को सिंथेटिक सामग्री के सामाजिक प्रभाव को प्रबंधित करने के लिए सार्वजनिक-समर्थक दायित्व सौंपने की दिशा में है।

निगरानी की मशीनरी: विखंडन या सटीकता?

संशोधनों के केंद्र में नष्ट करने के अनुरोधों पर कड़ा प्रशासनिक नियंत्रण है। केवल संयुक्त सचिव स्तर (केंद्रीय सरकार के लिए) या पुलिस महानिदेशक स्तर (राज्यों के लिए) के अधिकारी आदेश जारी करने के लिए अधिकृत हैं। यह प्रावधान मनमाने सेंसरशिप की पुनरावृत्ति की आलोचना का उत्तर देता है, जहां आदेश अक्सर मध्य स्तर के नौकरशाहों द्वारा अस्पष्ट आधार पर उत्पन्न होते थे। संशोधनों में नष्ट करने के अनुरोधों के लिए कठोर मानदंड भी अनिवार्य किए गए हैं: प्रत्येक को अपने वैधानिक आधार का उल्लेख करना होगा, URL या सामग्री पहचानकर्ता निर्दिष्ट करना होगा, और लिखित तर्क प्रदान करना होगा।

एक और महत्वपूर्ण कदम है मासिक सचिव-स्तरीय समीक्षा तंत्र का परिचय। यह प्रक्रियात्मक सुरक्षा मनमाने कार्य को न्यूनतम करने और यह सुनिश्चित करने के लिए है कि नष्ट करने के निर्णय कानूनीता, आवश्यकता और अनुपात के सिद्धांतों के अनुसार हों। फिर भी, निगरानी तंत्रों पर निर्भर प्रणालियाँ अक्सर प्रभावशीलता की बाधाओं का सामना करती हैं, विशेष रूप से यदि मात्रा उनकी क्षमता को पार कर जाती है। यदि प्लेटफॉर्म झंडा उठाए गए सामग्री पर विवादों को बहुत अधिक बढ़ाते हैं, तो बैकलॉग और देरी संस्थागत dysfunction में बदल सकते हैं।

दावों और वास्तविकता का सामंजस्य

सरकार का तर्क है कि ये संशोधन पारदर्शिता को बढ़ाते हैं जबकि उपयोगकर्ता अधिकारों की रक्षा करते हैं, लेकिन क्या यह दावा सही है, यह एक खुला प्रश्न है। उस प्रावधान पर विचार करें जो स्वचालित पहचान उपकरणों की मांग करता है जो डीपफेक या सिंथेटिक सामग्री की पहचान और टैग करते हैं। जबकि महत्वपूर्ण सामाजिक मीडिया मध्यस्थों (SSMIs) जैसे Instagram या YouTube के लिए तकनीकी रूप से संभव है, छोटे प्लेटफॉर्मों के पास अनुपालन के लिए आवश्यक संसाधन या AI-प्रशिक्षित उपकरणों की कमी हो सकती है। महत्वपूर्ण बात यह है कि प्लेटफॉर्म की जवाबदेही का स्तर ऊँचा बना हुआ है — अनुपालन में विफलता का अर्थ है धारा 79 के तहत सुरक्षित बंदरगाह संरक्षण का हनन, जो छोटे मध्यस्थों को असमान रूप से प्रभावित करता है।

आंकड़े भी अंतर्निहित तनावों को प्रकट करते हैं। अक्टूबर 2024 के MeitY रिपोर्ट के अनुसार, भारत में केवल 12% प्लेटफॉर्मों ने संभावित रूप से भ्रामक सामग्री को ट्रैक करने के लिए AI उपकरणों का उपयोग किया, और अधिकांश ने इसके बजाय मानव मॉडरेटर पर निर्भर किया। संशोधन AI एकीकरण को प्रोत्साहित कर सकता है, लेकिन AI-परिवर्तित सामग्री अपलोड करने वाले उपयोगकर्ताओं से घोषणाओं की मांग करना एक ऐसे देश में आत्म-नियमन के अवास्तविक स्तर की धारणा करता है जहां डिजिटल साक्षरता अभी भी असमान है।

असुविधाजनक प्रश्न: असली लड़ाई आगे है

व्यापक चिंता तकनीकी संभाव्यता से परे जाती है और नियामक डिजाइन पर सीधे केंद्रित होती है। पहले, क्या संयुक्त सचिव स्तर और DGP स्तर की स्वीकृतियाँ वास्तव में दुरुपयोग को रोकेंगी? बहुत कुछ इन भूमिकाओं की स्वतंत्रता और राजनीतिक दबाव का सामना करने की इच्छा पर निर्भर करता है। दूसरे, मासिक समीक्षाएँ एक आशाजनक जवाबदेही की परत की तरह लगती हैं — लेकिन क्या सचिव स्तर के अधिकारियों के पास AI-केंद्रित नष्ट करने के मामलों को डिजिटल प्लेटफॉर्मों की मांग के साथ गति से जांचने की क्षमता और विशेषज्ञता है?

तीसरा, और शायद सबसे परेशान करने वाला, सेंसरशिप का प्रश्न है। डीपफेक को लेबल करना और एल्गोरिदमिक जवाबदेही सुनिश्चित करना दर्शकों को वास्तविकता को संशोधित दृश्यों से अलग करने में मदद करता है, लेकिन “भ्रामक या सिंथेटिक मीडिया” की परिभाषा कानूनी रूप से विषयगत बनी हुई है। “हानिकारक संशोधन” के क्या मायने हैं, इस पर स्पष्ट मानदंड के बिना, ये संशोधन अनजाने में सेंसरशिप की विवेकाधिकार को बढ़ा सकते हैं बजाय कि इसे रोकने के।

दक्षिण कोरिया की सटीकता से सबक

दक्षिण कोरिया एक महत्वपूर्ण तुलना प्रस्तुत करता है। 2018 में, जब डीपफेक स्कैंडल सामने आने लगे, सियोल ने डिजिटल सूचना नैतिकता अधिनियम लागू किया, जो मध्यस्थों को नहीं बल्कि उन AI उपकरणों के डेवलपर्स को लक्षित करता था जो हेरफेर के लिए उपयोग किए जाते थे। इस भिन्नता ने प्लेटफॉर्मों को अपर्याप्त तकनीकी निवेश में मजबूर करने से बचा लिया, जबकि एल्गोरिदम निर्माताओं को सिंथेटिक गलत सूचना के लिए जिम्मेदार ठहराया। भारत के व्यापक लेबलिंग मानदंडों के विपरीत, दक्षिण कोरिया ने सामग्री हटाने के लिए स्पष्ट, सुलभ मानदंड विकसित किए, जो राष्ट्रीय सुरक्षा या व्यक्तिगत प्रतिष्ठाओं को नुकसान पहुँचाने वाले फर्जी मीडिया पर जोर देते हैं। भारत के कदम अधिक व्यापक लग सकते हैं, लेकिन वे प्लेटफॉर्मों और उपयोगकर्ताओं पर समानांतर बोझ डालकर सटीकता का बलिदान करते हैं।

प्रारंभिक अभ्यास प्रश्न

  • कौन सा विधायी ढांचा IT नियम, 2021 के संशोधनों के लिए प्राधिकरण प्रदान करता है?
    उत्तर: सूचना प्रौद्योगिकी अधिनियम, 2000।
  • IT नियमों के संशोधनों के तहत सिंथेटिक मीडिया के लिए लेबलिंग मानदंडों का पालन न करने वाले प्लेटफार्मों के लिए क्या परिणाम है?
    उत्तर: IT अधिनियम के धारा 79 के तहत सुरक्षित बंदरगाह संरक्षण का हनन।

मुख्य अभ्यास प्रश्न

आलोचनात्मक रूप से मूल्यांकन करें कि क्या सूचना प्रौद्योगिकी नियम, 2021 में हालिया संशोधन भारत में सिंथेटिक मीडिया के नियमन और डिजिटल अधिकारों के संरक्षण के बीच संतुलन स्थापित करते हैं।

हमारे कोर्स

72+ बैच

हमारे कोर्स
Contact Us