डिजिटल दुनिया में तेजी से बढ़ते आर्टिफिशियल इंटेलिजेंस (AI) के प्रभाव के बीच भारत सरकार ने सूचना प्रौद्योगिकी (मध्यस्थ दिशानिर्देश और डिजिटल मीडिया आचार संहिता) नियम, 2021 में महत्वपूर्ण संशोधन अधिसूचित कर दिए हैं। इन संशोधनों के साथ सोशल मीडिया प्लेटफॉर्म्स के लिए नियम पहले से अधिक सख्त हो गए हैं। नए प्रावधान 20 फरवरी 2026 से लागू होंगे और इनका मुख्य उद्देश्य डीपफेक, भ्रामक सूचनाओं तथा गैर-सहमति से साझा की जाने वाली सामग्री पर रोक लगाना है।
संशोधित आईटी नियम 2021 के तहत अब एआई-जनित (AI-generated) या सिंथेटिक जनरेटेड इंफॉर्मेशन (SGI) पर स्पष्ट और प्रमुख लेबल लगाना अनिवार्य होगा। साथ ही, अवैध सामग्री हटाने की समय-सीमा को 36 घंटे से घटाकर केवल तीन घंटे कर दिया गया है। यह बदलाव डिजिटल प्लेटफॉर्म्स की जवाबदेही बढ़ाने की दिशा में एक बड़ा कदम माना जा रहा है।
एआई-जनित सामग्री पर अनिवार्य लेबलिंग
नए नियमों के अनुसार, यदि कोई कंटेंट एआई की मदद से तैयार किया गया है, तो उस पर “स्पष्ट और प्रमुख” रूप से दिखाई देने वाला लेबल लगाना होगा। इससे उपयोगकर्ताओं को यह समझने में आसानी होगी कि वे जो सामग्री देख रहे हैं, वह वास्तविक है या कृत्रिम रूप से तैयार की गई है।
शुरुआती प्रस्ताव में यह सुझाव दिया गया था कि एआई लेबल सामग्री के कम से कम 10 प्रतिशत हिस्से पर होना चाहिए। हालांकि, तकनीकी कंपनियों और उद्योग विशेषज्ञों से परामर्श के बाद इस सीमा को हटा दिया गया। अब फोकस लेबल के स्पष्ट और प्रमुख रूप से प्रदर्शित होने पर है, न कि उसके आकार पर।
एक महत्वपूर्ण प्रावधान यह भी है कि एक बार एआई लेबल लगाने के बाद उसे हटाया, छुपाया या दबाया नहीं जा सकेगा। इसका उद्देश्य पारदर्शिता सुनिश्चित करना और उपयोगकर्ताओं को भ्रमित होने से बचाना है। यह कदम विशेष रूप से डीपफेक वीडियो, छेड़छाड़ की गई तस्वीरों और फर्जी ऑडियो क्लिप्स के बढ़ते मामलों को देखते हुए उठाया गया है।
तीन घंटे में अवैध सामग्री हटाने का नियम
संशोधन का सबसे अहम हिस्सा अवैध सामग्री हटाने की समय-सीमा में बदलाव है। अब सोशल मीडिया प्लेटफॉर्म्स को अवैध सामग्री की सूचना मिलने के तीन घंटे के भीतर उसे हटाना या उस तक पहुंच रोकनी होगी। पहले यह समय-सीमा 36 घंटे थी।
गैर-सहमति से साझा की गई निजी या अंतरंग तस्वीरों और वीडियो के मामलों में यह समय-सीमा और भी सख्त है—ऐसी सामग्री को दो घंटे के भीतर हटाना अनिवार्य होगा। सरकार का मानना है कि त्वरित कार्रवाई से हानिकारक और संवेदनशील सामग्री के वायरल होने से रोका जा सकता है।
यदि कोई प्लेटफॉर्म तय समय-सीमा में कार्रवाई करने में विफल रहता है, तो उसे आईटी अधिनियम के तहत मिलने वाली “सेफ हार्बर” सुरक्षा खोनी पड़ सकती है। इसका मतलब है कि वह उपयोगकर्ताओं द्वारा डाली गई सामग्री के लिए कानूनी रूप से जिम्मेदार ठहराया जा सकता है।
सेफ हार्बर: क्यों है यह इतना महत्वपूर्ण?
“सेफ हार्बर” एक कानूनी सुरक्षा प्रावधान है, जो सोशल मीडिया प्लेटफॉर्म्स को उपयोगकर्ताओं द्वारा पोस्ट की गई सामग्री के लिए सीधे तौर पर जिम्मेदार नहीं ठहराता, बशर्ते वे सरकार द्वारा निर्धारित दिशानिर्देशों का पालन करें।
नए संशोधनों के बाद, यदि प्लेटफॉर्म तीन घंटे की समय-सीमा या अन्य अनुपालन शर्तों का पालन नहीं करते हैं, तो वे यह कानूनी सुरक्षा खो सकते हैं। इससे उनके खिलाफ आपराधिक या दीवानी कार्रवाई की संभावना बढ़ सकती है।
जहाँ सरकार इसे डिजिटल सुरक्षा और जवाबदेही बढ़ाने का आवश्यक कदम बता रही है, वहीं कुछ कानूनी विशेषज्ञों का मानना है कि इतनी सख्त समय-सीमा के कारण प्लेटफॉर्म्स “अति-सेंसरशिप” की राह अपना सकते हैं, ताकि वे किसी भी कानूनी जोखिम से बच सकें। इससे अभिव्यक्ति की स्वतंत्रता पर भी प्रभाव पड़ सकता है।
सिंथेटिक जनरेटेड इंफॉर्मेशन (SGI) की स्पष्ट परिभाषा
संशोधित नियमों में SGI यानी सिंथेटिक जनरेटेड इंफॉर्मेशन की परिभाषा को स्पष्ट किया गया है। इसमें एआई द्वारा पूरी तरह से तैयार या महत्वपूर्ण रूप से परिवर्तित सामग्री शामिल होगी।
हालांकि, सामान्य और सद्भावना में किया गया संपादन—जैसे वीडियो की रोशनी सुधारना, बैकग्राउंड म्यूजिक जोड़ना या मामूली एडिटिंग—SGI की श्रेणी में नहीं आएगा। यानी हर तरह का तकनीकी संपादन एआई-जनित सामग्री नहीं माना जाएगा।
लेकिन यदि किसी प्लेटफॉर्म को यह पता चलता है कि उसकी सेवाओं का उपयोग अवैध SGI तैयार करने में किया जा रहा है, तो उसे तुरंत कार्रवाई करनी होगी। इसमें सामग्री हटाना, एक्सेस ब्लॉक करना या संबंधित उपयोगकर्ता का अकाउंट निलंबित करना शामिल हो सकता है।
तकनीकी उपाय और उपयोगकर्ता की जिम्मेदारी
नए नियमों के तहत मध्यस्थों (intermediaries) को ऐसे तकनीकी उपाय अपनाने होंगे, जो अवैध SGI की पहचान और रोकथाम में मदद करें। उपयोगकर्ताओं को भी यह घोषित करना होगा कि उनका कंटेंट एआई-जनित है। प्लेटफॉर्म्स को इस घोषणा की पुष्टि कर उस पर प्रमुख लेबल लगाना होगा।
इसके अलावा, ऐसी एआई-जनित सामग्री को रोकना अनिवार्य होगा जो वास्तविक घटनाओं या किसी व्यक्ति की पहचान को गलत तरीके से प्रस्तुत करती हो। यह प्रावधान डीपफेक के खिलाफ विशेष रूप से महत्वपूर्ण माना जा रहा है।
बढ़ती वैश्विक चिंता के बीच भारत का कदम
दुनियाभर में डीपफेक, एआई-निर्मित फर्जी वीडियो और भ्रामक सूचनाओं के मामलों में तेजी आई है। चुनावी प्रक्रियाओं से लेकर व्यक्तिगत प्रतिष्ठा तक, एआई के दुरुपयोग ने कई गंभीर सवाल खड़े किए हैं। इसी पृष्ठभूमि में भारत के संशोधित आईटी नियम 2021 को डिजिटल इकोसिस्टम में अधिक पारदर्शिता, जवाबदेही और त्वरित कार्रवाई सुनिश्चित करने की दिशा में एक अहम कदम माना जा रहा है।
आने वाले समय में यह देखना दिलचस्प होगा कि सोशल मीडिया प्लेटफॉर्म्स इन नियमों को कैसे लागू करते हैं और क्या ये बदलाव वास्तव में डीपफेक व भ्रामक सामग्री पर प्रभावी नियंत्रण स्थापित कर पाते हैं।

