अपडेट

AI-संचालित खिलौनों का बच्चों के मन और माता-पिता के अधिकारों पर प्रभाव

फरवरी 2026 तक, AI-संचालित खिलौने प्रमुख ई-कॉमर्स प्लेटफार्मों के "बेस्टसेलर" और "शैक्षिक खिलौने" वर्गों में हावी हो गए हैं। इन खिलौनों को इंटरैक्टिव साथी के रूप में प्रस्तुत किया जाता है, जो गणित सिखाने, चिंता को कम करने और रचनात्मकता को प्रोत्साहित करने का दावा करते हैं। फिर भी, कुछ खरीदार रुककर यह सवाल नहीं करते: यह सब किस कीमत पर?

इंटरनेट और मोबाइल एसोसिएशन ऑफ इंडिया (IAMAI) का अनुमान है कि भारत का AI-सक्षम खिलौना बाजार 2028 तक ₹4,000 करोड़ तक पहुँच सकता है, जो हर साल 14% की दर से बढ़ रहा है। इस बीच, साइबर सुरक्षा शोधकर्ताओं ने 2025 में ऐसे खिलौनों में 50 से अधिक सुरक्षा कमजोरियों की रिपोर्ट की। ये दोनों आंकड़े बाजार की उत्साह और बच्चों के लिए महत्वपूर्ण सुरक्षा चिंताओं के बीच एक विरोधाभास को उजागर करते हैं।

कानूनी और नियामक शून्यता

भारत के डिजिटल पर्सनल डेटा प्रोटेक्शन (DPDP) अधिनियम, 2023 के तहत, बच्चों के व्यक्तिगत डेटा के लिए "सत्यापित माता-पिता की सहमति" आवश्यक है। यह कागज पर अच्छा लगता है, लेकिन इसके कार्यान्वयन में AI खिलौनों की प्रकृति का ध्यान नहीं रखा गया है। हमेशा सुनने वाले उपकरण जैसे AI प्लशियों पर माइक्रोफोन "माता-पिता की सहमति" के विचार को धुंधला कर देते हैं, जब उपकरण निष्क्रिय रूप से डेटा एकत्र करते हैं, मिनट दर मिनट। बच्चे, जो प्रभावशाली उपयोगकर्ता होते हैं, स्वतंत्र रूप से अपने डेटा को ट्रैक और प्रोसेस किए जाने से बाहर नहीं कर सकते।

DPDP अधिनियम के तीन विशेष प्रावधान नियामक असंगति को उजागर करते हैं:

  • डेटा न्यूनतमकरण: अधिनियम केवल आवश्यक व्यक्तिगत डेटा एकत्र करने की अनिवार्यता करता है। फिर भी, AI खिलौने अक्सर विस्तृत भावनात्मक और व्यवहारात्मक डेटा सेट स्टोर करते हैं, जिसमें उत्तरों के टाइमस्टैम्प या बच्चों की आवाज़ों के स्वर विश्लेषण भी शामिल होते हैं।
  • सीमा पार डेटा स्थानांतरण: ऐसे खिलौनों के लिए क्लाउड स्टोरेज नियमित रूप से संवेदनशील डेटा को अमेरिका के सर्वरों पर भेजता है, जिससे भारत के अधिकार क्षेत्र के तहत प्रवर्तन के प्रश्न उठते हैं।
  • व्यवहारिक प्रोफाइलिंग पर प्रतिबंध: अधिनियम बच्चों के मनोवैज्ञानिक लक्षित करने को रोकने का प्रयास करता है, लेकिन AI खिलौने आसानी से प्रतिक्रियाओं को खरीदारी के व्यवहार या भावनात्मक जरूरतों को प्रभावित करने के लिए अनुकूलित कर सकते हैं।

इस कानूनी ढांचे के बावजूद, खिलौनों के लिए विशेष AI सुरक्षा दिशानिर्देशों की अनुपस्थिति भारत के डेटा सुरक्षा इतिहास में एक स्पष्ट समस्या बनी हुई है। MeitY (इलेक्ट्रॉनिक्स और सूचना प्रौद्योगिकी मंत्रालय) और NCPCR (राष्ट्रीय बाल अधिकार संरक्षण आयोग) जैसी संस्थाएँ या तो प्रतिक्रिया देने में धीमी रही हैं या अपने निगरानी रणनीतियों में विकसित होती प्रौद्योगिकियों को शामिल नहीं कर पाई हैं। यह केवल एक अंतर नहीं है—यह एक गहरी खाई है।

बच्चों पर मनोवैज्ञानिक प्रभाव

यह दावा कि ऐसे खिलौने "शैक्षिक" हैं, अक्सर गहरे विकासात्मक चिंताओं को छिपा देता है। उदाहरण के लिए, अध्ययन बताते हैं कि भारत में 5-10 वर्ष के बच्चे AI खिलौनों के उपयोगकर्ताओं का 50% से अधिक हिस्सा बनाते हैं। इस आयु में, वास्तविक जीवन के मानव इंटरैक्शन भावनात्मक बुद्धिमत्ता और लचीलापन विकसित करने के लिए महत्वपूर्ण होता है। लेकिन जब एक भालू के आकार का चैटबॉट निराशाओं को शांत करता है या अवधारणाओं को समझाता है, तो माता-पिता या देखभाल करने वाला धीरे-धीरे चित्र से बाहर निकल जाता है।

और भी बुरा, AI खिलौनों पर भावनात्मक अधिक निर्भरता बच्चे की साथियों के साथ बातचीत करने की क्षमता को प्रभावित कर सकती है। मानव संवाददाताओं के विपरीत, एक AI खिलौना हर सूक्ष्म वोकल संकेत के प्रति अनुकूलित नहीं हो सकता या वास्तविक पारस्परिकता को बढ़ावा नहीं दे सकता। EU द्वारा वित्त पोषित अनुसंधान की रिपोर्टें AI शिक्षण प्रणालियों के बारे में इस अनपेक्षित परिणाम की पुष्टि करती हैं, जिसमें यह बताया गया है कि भावनात्मक रूप से प्रतिक्रियाशील AI सहायक के संपर्क में आने वाले बच्चों ने तीन महीने के भीतर समूह सेटिंग में सामाजिक बातचीत कौशल में कमी दिखाई।

और फिर पूर्वाग्रह की बात है। AI सिस्टम, जैसा कि आलोचक अक्सर चेतावनी देते हैं, अपने प्रोग्रामिंग के पूर्वाग्रहों को दर्शाते हैं। अमेरिका में कई खिलौना परीक्षकों ने कुछ AI गुड़ियों में लिंग पूर्वाग्रहों को बढ़ावा देने वाली समस्याओं की पहचान की ("माँ से कुकीज़ बनाने के लिए क्यों नहीं पूछते?") और अन्य कठिन सवालों को गलत तरीके से संभालने की समस्याएँ ("मेरी त्वचा इतनी गोरी क्यों नहीं है?")। यदि इन खिलौनों को सांस्कृतिक समन्वय और नैतिक मानदंडों के लिए सख्ती से नियामित नहीं किया गया, तो भारत के बच्चे भी हानिकारक कथाओं को आत्मसात कर सकते हैं।

वैश्विक दृष्टिकोण: जर्मनी का AI खिलौनों पर संतुलन

जर्मनी एक स्पष्ट संतुलन प्रदान करता है। इसके संघीय डेटा सुरक्षा अधिनियम के तहत, बच्चों के लिए AI-संचालित खिलौनों पर कड़ी निगरानी की जाती है। किसी भी खिलौने द्वारा न्यूनतम डेटा से अधिक एकत्र करने पर मजबूत एन्क्रिप्शन अनिवार्य है। इसके अलावा, माता-पिता के डैशबोर्ड डेटा की निगरानी के लिए विस्तृत दृश्यता प्रदान करते हैं कि कौन सा डेटा ट्रैक किया जा रहा है, इसे कितने समय तक संग्रहीत किया जाता है और इसे हटाने का विकल्प भी दिया जाता है। उल्लंघनों पर €20 मिलियन तक के जुर्माने का प्रावधान है—जो भारत में वित्तीय निवारक की कमी है।

फिर भी, जर्मनी भी सीमा पार चुनौतियों का सामना करता है, खासकर जब कई खिलौने गैर-EU कंपनियों द्वारा नियंत्रित क्लाउड-आधारित अपडेट पर निर्भर करते हैं। यह दर्शाता है कि कोई भी देश, यहां तक कि जो प्रगतिशील सुरक्षा उपायों वाला है, वैश्विक AI बाजार में अंतर्निहित जोखिमों से अछूता नहीं है।

संरचनात्मक तनाव: नीति का आधा उपाय?

भारत के नियामक अंतर कई गहरे तनावों को उजागर करते हैं। पहले, DPDP अधिनियम पर अत्यधिक निर्भरता है, जो ऐसे मुद्दों को हल करने के लिए कभी विशेषीकृत नहीं किया गया था। स्वास्थ्य डेटा या भुगतान प्रणालियों के विपरीत, खिलौने उपयोगकर्ताओं को ऐसे छोटे आयु के लोगों से जोड़ते हैं जो सहमति को समझने में असमर्थ होते हैं, जिससे डेटा सुरक्षा सिद्धांतों के प्रवर्तन को और भी कठिन बना दिया जाता है।

दूसरा, AI खिलौने कल्याण अधिकारों और बाजार नियमन के बीच की असहज चौराहे को उजागर करते हैं। जबकि कंपनियाँ इन खिलौनों को "आवश्यक शैक्षिक उपकरण" के रूप में प्रस्तुत करती हैं, भारतीय सरकार का खिलौनों के लिए विशेष नैतिक मानकों पर चुप्पी तकनीकी नवाचारों के प्रति व्यापक लायसेज़-फेयर दृष्टिकोण को दर्शाती है। फिर भी, इस शून्य में, बच्चे दोनों गोपनीयता और मनोवैज्ञानिक जोखिमों का सामना करते हैं।

अंत में, माता-पिता का अपार विश्वासहीनता ओpaque AI तंत्र के प्रति चिंताओं को बढ़ा सकती है, खासकर भारत के बढ़ते मध्य-आय वाले परिवारों में। यदि माता-पिता यह स्पष्ट नहीं कर सकते कि FluffyBot उनके बच्चे की आवाज़ डेटा को कैसे प्रोसेस करता है, तो अपनाने की दरें, विडंबना से, जीवंत विपणन दावों के बावजूद गिर सकती हैं।

AI खिलौना बाजार में सफलता की पुनर्कल्पना

एक AI खिलौना पारिस्थितिकी तंत्र को बच्चों के अधिकारों से समझौता किए बिना फलने-फूलने के लिए, कई कदम अनिवार्य हैं। पहले, पारदर्शिता: हर खिलौने के साथ डेटा-एक्सेस डैशबोर्ड होना चाहिए जो देखभाल करने वालों के लिए उपलब्ध हो। दूसरे, प्रमाणन: भारत को "चाइल्डसेफ AI सर्टिफाइड" लेबल की आवश्यकता है, जो स्वतंत्र नियामकों द्वारा जारी किया जाए। तीसरे, ऑडिटिंग: आवाज़ प्रोसेसिंग का उपयोग करने वाली कंपनियों को MeitY या एक निर्दिष्ट बाल संरक्षण प्राधिकरण को समय-समय पर ऑडिट प्रस्तुत करने चाहिए।

यह कहना अभी जल्दी है कि भारत इन नियामक चुनौतियों का सामना करेगा, लेकिन यदि इन्हें अब अनदेखा किया गया, तो यह लाखों घरों में हानियों को प्रवेश देने की अनुमति देगा। बच्चों के विकास के लिए नैतिक AI अनिवार्य है।

प्रारंभिक परीक्षा अभ्यास प्रश्न

  1. DPDP अधिनियम, 2023 में निम्नलिखित में से कौन से प्रावधान AI-संचालित खिलौनों के नियमन पर सीधे प्रभाव डालते हैं?
    1. डेटा न्यूनतमकरण और उद्देश्य सीमा
    2. व्यवहारिक प्रोफाइलिंग प्रतिबंध
    3. सीमा पार डेटा स्थानांतरण नियम
    4. उपरोक्त सभी

    उत्तर: d) उपरोक्त सभी

  2. कौन सा देश AI-सक्षम खिलौनों के लिए सख्त बाल डेटा सुरक्षा कानून रखता है, जिसमें उल्लंघनों के लिए €20 मिलियन तक के जुर्माने शामिल हैं?
    1. भारत
    2. जर्मनी
    3. संयुक्त राज्य अमेरिका
    4. संयुक्त राष्ट्र

    उत्तर: b) जर्मनी

मुख्य परीक्षा अभ्यास प्रश्न

आलोचनात्मक रूप से मूल्यांकन करें कि क्या भारत का वर्तमान नियामक ढांचा DPDP अधिनियम, 2023 के तहत AI-संचालित खिलौनों द्वारा उत्पन्न गोपनीयता, सुरक्षा और नैतिक जोखिमों को संबोधित करने के लिए पर्याप्त है। क्या अतिरिक्त उपाय आवश्यक हो सकते हैं?

हमारे कोर्स

72+ बैच

हमारे कोर्स
Contact Us