भारत अब कृत्रिम बुद्धिमत्ता (Artificial Intelligence – AI) के नियमन और जिम्मेदार उपयोग के क्षेत्र में एक नई ऐतिहासिक दिशा तय कर रहा है। केंद्र सरकार जल्द ही सूचना प्रौद्योगिकी अधिनियम, 2000 (Information Technology Act, 2000) में संशोधन करने जा रही है, ताकि AI प्रणालियों को औपचारिक रूप से परिभाषित किया जा सके। इसके साथ ही, देश में AI जोखिम मूल्यांकन ढाँचा (AI Risk Assessment Framework) और राष्ट्रीय AI घटनाक्रम डेटाबेस (National AI Incident Database) भी तैयार किए जा रहे हैं।
ये सभी पहलें भारत की नई “AI शासन दिशानिर्देशों (AI Governance Guidelines)” का हिस्सा हैं, जो अगले वर्ष फरवरी 2025 में होने वाले IndiaAI Impact Summit से पहले देश की राष्ट्रीय AI दृष्टि (National AI Vision) की नींव रखती हैं।
IT अधिनियम में संशोधन क्यों आवश्यक है?
भारत का मौजूदा Information Technology Act, 2000 उस समय लागू किया गया था जब कृत्रिम बुद्धिमत्ता जैसी तकनीकें अभी कल्पना तक सीमित थीं। यह कानून “इंटरमीडियरी (Intermediary)” शब्द को व्यापक रूप में परिभाषित करता है, जिसमें टेलीकॉम सेवा प्रदाता, सर्च इंजन और साइबर कैफे जैसे संस्थान शामिल हैं।
लेकिन आज की एआई प्रणालियाँ केवल “मध्यस्थ” नहीं हैं — वे खुद डेटा उत्पन्न, विश्लेषित और संशोधित करने में सक्षम हैं। ऐसे में, पारंपरिक डिजिटल कानूनों के तहत इन्हें विनियमित करना चुनौतीपूर्ण हो गया है।
इसलिए, प्रस्तावित संशोधनों का उद्देश्य है —
-
AI डेवलपर्स, प्लेटफ़ॉर्म ऑपरेटरों और उपयोगकर्ताओं की जवाबदेही स्पष्ट करना,
-
और यह तय करना कि यदि कोई AI प्रणाली हानि पहुँचाती है, तो कानूनी जिम्मेदारी किसकी होगी।
इलेक्ट्रॉनिक्स और सूचना प्रौद्योगिकी मंत्रालय (MeitY) के सचिव एस. कृष्णन ने कहा है कि सरकार डिजिटल कानूनों को मज़बूत बनाने और समयानुसार संशोधित करने की दिशा में कार्य कर रही है।
AI शासन दिशानिर्देशों की प्रमुख विशेषताएँ
नवीन दिशानिर्देशों में कई संस्थागत और तकनीकी सुधार प्रस्तावित किए गए हैं, जिनका लक्ष्य एआई के जिम्मेदार उपयोग को सुनिश्चित करना है।
1. AI जोखिम मूल्यांकन ढांचा
भारत-केंद्रित यह मॉडल एआई प्रणालियों से उत्पन्न संभावित सामाजिक, आर्थिक और नैतिक जोखिमों का मूल्यांकन करेगा।
यह विशेष रूप से संवेदनशील समूहों, सार्वजनिक सुरक्षा, और महत्वपूर्ण निर्णय प्रणालियों पर एआई के प्रभाव का विश्लेषण करेगा।
2. राष्ट्रीय एआई घटना डेटाबेस (National AI Incident Database)
यह एक केंद्रीय डिजिटल प्लेटफ़ॉर्म होगा, जहाँ देशभर में हुई एआई-संबंधी घटनाओं (AI-related incidents) — जैसे एल्गोरिदमिक पूर्वाग्रह, सुरक्षा उल्लंघन या डीपफेक दुरुपयोग — को दर्ज और विश्लेषित किया जाएगा।
इससे नीति निर्माण, निगरानी, और जोखिम प्रबंधन को एक डेटा-संचालित आधार मिलेगा।
3. एआई गवर्नेंस समूह (AI Governance Group)
यह एक अंतर-मंत्रालयी निकाय होगा जो सभी सरकारी एजेंसियों और राज्यों के बीच नीति समन्वय सुनिश्चित करेगा, ताकि एआई नीति में एकरूपता और पारदर्शिता बनी रहे।
4. एआई सुरक्षा संस्थान (AI Safety Institute)
हाल ही में स्थापित यह संस्थान भारत में सुरक्षित और भरोसेमंद एआई इकोसिस्टम विकसित करने का कार्य करेगा।
यह संस्थान एआई सिस्टम के परीक्षण, प्रमाणीकरण और सुरक्षा मानकों को तैयार करेगा।
5. रेगुलेटरी सैंडबॉक्स और शिकायत निवारण
सरकार “Regulatory Sandbox” व्यवस्था को भी प्रोत्साहित कर रही है — एक नियंत्रित वातावरण जिसमें नवोन्मेषी एआई समाधान सीमित कानूनी प्रतिरक्षा के तहत परीक्षण किए जा सकते हैं।
साथ ही, एआई सेवाओं का उपयोग करने वाले संगठनों के लिए शिकायत अपीलीय समिति के तहत सुलभ निवारण प्रक्रिया अनिवार्य की जाएगी।
डीपफेक्स और कॉपीराइट: भारत की सख्त नीति
डीपफेक्स और एआई-जनित सामग्री के दुरुपयोग पर रोक लगाने के लिए MeitY ने IT नियमों में संशोधन का प्रस्ताव दिया है।
इसके तहत —
-
उपयोगकर्ताओं को यह स्पष्ट करना होगा कि उनकी सामग्री एआई द्वारा निर्मित या संशोधित है,
-
और सोशल मीडिया प्लेटफ़ॉर्म को ऐसे दावों की तकनीकी सत्यापन प्रणाली लागू करनी होगी।
कॉपीराइट कानूनों को भी अपडेट करने की सिफारिश की गई है, ताकि एआई मॉडल के प्रशिक्षण में उपयोग किए जाने वाले डेटा का कानूनी और नैतिक उपयोग सुनिश्चित हो सके।
इसके अतिरिक्त, सरकार नई AI-driven डिजिटल प्लेटफ़ॉर्म श्रेणियाँ बनाने पर भी विचार कर रही है, जिससे कानून एआई आधारित अनुप्रयोगों को स्पष्ट रूप से कवर कर सके।
वैश्विक संदर्भ में भारत की स्थिति
भारत ने अपने एआई गवर्नेंस ढाँचे को तैयार करने से पहले अमेरिका, यूरोपीय संघ और चीन की नीतियों का अध्ययन किया।
सरकार का उद्देश्य है कि यह मॉडल “Global South” देशों के लिए एक प्रेरक ढाँचा बने — विशेषकर उन राष्ट्रों के लिए जिनके पास व्यापक नियामक संसाधन नहीं हैं।
2023 में गठित उच्चस्तरीय सलाहकार समूह (Advisory Group) की अध्यक्षता डॉ. अजय सूद, भारत के प्रमुख वैज्ञानिक सलाहकार, कर रहे हैं।
आईआईटी मद्रास के प्रोफेसर बालारमन रविंद्रन के नेतृत्व में बनी उपसमिति ने इन दिशानिर्देशों का मसौदा तैयार किया, जिसमें 2,500 से अधिक सुझाव सरकारी एजेंसियों, विश्वविद्यालयों, थिंक टैंकों और उद्योग विशेषज्ञों से प्राप्त हुए।
सरकार की योजना है कि इस फ्रेमवर्क को IndiaAI Impact Summit 2025 में अंतरराष्ट्रीय स्तर पर प्रस्तुत किया जाए।
भारत के एआई भविष्य के लिए इसका महत्व
ये दिशानिर्देश भारत के एआई परिदृश्य में नवाचार (Innovation) और जवाबदेही (Accountability) के बीच संतुलन स्थापित करने का पहला व्यापक प्रयास हैं।
सरकार का लक्ष्य है —
-
कानूनी सुधारों के माध्यम से स्पष्ट जिम्मेदारी तय करना,
-
संस्थागत निगरानी के जरिए पारदर्शिता बढ़ाना,
-
और तकनीकी सुरक्षा उपायों से जनता का विश्वास मजबूत करना।
यदि ये दिशानिर्देश कानूनी रूप ले लेते हैं, तो भारत न केवल एआई शासन (AI Governance) में अग्रणी देश बन सकता है, बल्कि वह वैश्विक दक्षिण (Global South) के लिए एक नैतिक और व्यावहारिक मॉडल भी प्रस्तुत करेगा — जहाँ एआई की शक्ति का उपयोग विकास के लिए किया जा सके, सुरक्षा या गोपनीयता की कीमत पर नहीं।

