Kala India

लोकतांत्रिक प्रसार और “ना” की वास्तुकला: नई दिल्ली घोषणा के बाद भारत की असली परीक्षा

मुंबई से — जब दुनिया ‘एआई को क्या करने देना चाहिए’ पर बहस कर रही है, भारत ने ‘लोकतांत्रिक प्रसार’ की भाषा चुनी है। पर प्रसार तब तक धर्म नहीं बनता, जब तक उसमें “ना” (refusal), ऑडिट और अपील का ढांचा न हो।

1) लोकल ट्रेन की सीख: जितनी तेज़ भीड़, उतनी ज़रूरी सीमाएँ

मुंबई की लोकल ट्रेन में हर दिन एक छोटा-सा नैतिक प्रयोग होता है। प्लेटफॉर्म पर लोग तेज़ी से बढ़ते हैं—और फिर भी कोई अदृश्य अनुशासन काम करता रहता है: किनारे की रेखा, दरवाज़े की भीड़, बुज़ुर्ग के लिए जगह, किसी को गिरने से बचाने के लिए हाथ। यह कोई आदर्श दुनिया नहीं; यह घर्षण की दुनिया है। पर इसी घर्षण में एक बात समझ में आती है: गति बढ़ाने का सबसे आसान तरीका सीमाएँ हटाना है—और सबसे खतरनाक भी।

एआई की वैश्विक दौड़ में भी यही temptation है। “कम रोक-टोक = ज्यादा क्षमता” का नारा सुनने में आधुनिक लगता है। लेकिन सार्वजनिक जीवन में—जहाँ गलत निर्णय राशन रोक सकता है, छात्रवृत्ति छीन सकता है, इलाज देर कर सकता है—‘रोक’ अक्सर सुरक्षा होती है।

2) नई दिल्ली से निकला दस्तावेज़: ‘लोकतांत्रिक प्रसार’ एक वाक्य नहीं, एक वादा है

India AI Impact Summit 2026 के समापन पर विदेश मंत्रालय (MEA) ने “AI Impact Summit Declaration, New Delhi (February 18–19, 2026)” प्रकाशित की। यह घोषणा सात “चक्रों” (pillars) में सहयोग की बात करती है—मानव पूंजी, सामाजिक सशक्तिकरण के लिए व्यापक पहुँच, भरोसेमंद एआई, ऊर्जा दक्षता, विज्ञान में एआई, एआई संसाधनों का लोकतंत्रीकरण, और आर्थिक वृद्धि/सामाजिक भलाई।

इस घोषणा का सबसे महत्वपूर्ण हिस्सा मेरे लिए “Democratizing AI Resources” खंड है, जहाँ यह कहा गया है कि मज़बूत डिजिटल इन्फ्रास्ट्रक्चर और अर्थपूर्ण/सस्ती कनेक्टिविटी एआई तैनाती की पूर्वशर्त हैं। और इसी संदर्भ में घोषणा “Charter for the Democratic Diffusion of AI” को एक स्वैच्छिक और गैर-बाध्यकारी (voluntary, non-binding) फ्रेमवर्क के रूप में “take note” करती है—जिसका लक्ष्य foundational AI resources तक पहुँच, locally relevant innovation, और resilient AI ecosystems को बढ़ावा देना है (राष्ट्रीय कानूनों का सम्मान करते हुए)।

यानी यह एक नैतिक दिशा-सूचक (compass) है, कानून नहीं। यह ठीक भी है—क्योंकि वैश्विक समझौते अक्सर पहले भाषा बनते हैं, फिर संरचना। पर यही जगह है जहाँ डिजिटल धर्म पूछता है: भाषा के बाद क्या?

(स्रोत: MEA — https://www.mea.gov.in/bilateral-documents.htm?dtl/40809)

3) कंप्यूट का वादा और कंप्यूट की सच्चाई

समिट के दौरान PIB ने बताया कि भारत अपनी मौजूदा 38,000 GPU क्षमता के ऊपर “आने वाले हफ्तों में” 20,000 GPU और जोड़ने जा रहा है। यह ठोस घोषणा है। यही वह जगह है जहाँ “प्रसार” का दावा जमीन पर उतर सकता है—क्योंकि कंप्यूट के बिना सब घोषणाएँ हवा में रहती हैं।

पर कंप्यूट बढ़ाना एक तरह की शक्ति है; कंप्यूट तक पहुँच सुनिश्चित करना दूसरी। और कंप्यूट से बने निर्णयों की जवाबदेही—तीसरी, सबसे कठिन।

(स्रोत: PIB — https://www.pib.gov.in/PressReleasePage.aspx?PRID=2229171&reg=3&lang=2)

4) डिजिटल धर्म की कसौटी: ‘लोकतांत्रिक प्रसार’ के चार सवाल

सत्य (Satya): क्या हम ‘क्षमता’ को ‘विश्वसनीयता’ से अलग मान रहे हैं?

आज का वैश्विक तनाव—जिसे आप अमेरिका में “Architecture of No” कह रहे हैं—सिर्फ राजनीति नहीं है। यह इंजीनियरिंग का प्रश्न है: क्या एक एआई प्रणाली की विश्वसनीयता उसके इनकार (refusal) से जुड़ी है? एक प्रणाली जो कभी “ना” नहीं कहती, अक्सर ज्यादा सक्षम नहीं होती—वह बस ज्यादा आज्ञाकारी होती है।

भारत की घोषणा में “trustworthiness of AI systems” एक pillar है। पर ‘trust’ का अर्थ केवल सुरक्षा-शब्दावली नहीं है; trust का अर्थ है—गलती होने पर भी व्यवस्था आपको अकेला नहीं छोड़ती।

अहिंसा (Ahimsa): सबसे आम नुकसान ‘धमाका’ नहीं, ‘गलत वर्गीकरण’ है

जब हम AI harms की बात करते हैं, हम अक्सर बड़े-बड़े दृश्य देखते हैं: युद्ध, साइबर, deepfakes। पर भारत में एक बहुत सामान्य नुकसान ‘शांत’ होता है—गलत भाषा-मैपिंग, गलत पात्रता, गलत जोखिम-स्कोर। यह नुकसान नाटकीय नहीं, पर स्थायी होता है।

अगर “democratic diffusion” का अर्थ है कि एआई सार्वजनिक सेवाओं में व्यापक रूप से तैनात होगा, तो अहिंसा पूछती है: क्या नुकसान रोकने की व्यवस्था—ऑडिट, परीक्षण, शिकायत, सुधार—भी उसी गति से फैलेगी?

न्याय (Nyaya): ‘स्वैच्छिक’ चार्टर का असली परीक्षण — अपील का अधिकार

MEA घोषणा स्पष्ट कहती है कि Charter “voluntary, non-binding” है। इसका अर्थ यह नहीं कि यह बेकार है। इसका अर्थ यह है कि न्याय का बोझ—कम से कम शुरू में—घरेलू प्रणालियों पर पड़ेगा।

न्याय के लिए न्यूनतम तीन चीज़ें चाहिए:

1) ऑडिट क्षमता: कौन और कैसे परखेगा कि मॉडल किस पर गलत साबित हो रहा है?

2) अपील/ग्रिवेंस: नागरिक किस भाषा में, किस चैनल से, किस समय-सीमा में चुनौती दे सकेगा?

3) सुधार का दायित्व: गलती “फीडबैक” नहीं; गलती जिम्मेदारी है।

अगर हम एआई को “लोकतांत्रिक” बनाना चाहते हैं, तो यह अपील का अधिकार उतना ही केंद्रीय है जितना कंप्यूट का अधिकार।

सेवा (Seva): ‘AI for All’ का अर्थ “All के लिए AI” हो—“AI decides for All” नहीं

सेवा का धर्म कहता है: प्रणाली का लक्ष्य “आउटपुट” नहीं, “उद्धार” नहीं, बल्कि लाभ और सुरक्षा का संतुलन है। जब एक प्रणाली बड़े पैमाने पर लागू होती है, तो उसका सबसे बड़ा जोखिम यह होता है कि वह धीरे-धीरे निर्णय लेने की नैतिक जिम्मेदारी को “सिस्टम” पर शिफ्ट कर देती है।

एआई की भाषा में, सेवा का अर्थ यह भी है कि सिस्टम समय पर कह सके—“मैं यह नहीं कर सकता/सकती,” और फिर उपयोगकर्ता को अकेला छोड़ने के बजाय उसे सुरक्षित विकल्प दे। “ना” के बिना सेवा अक्सर ‘हाँ’ की हिंसा बन जाती है।

5) मुंबई का निष्कर्ष: ‘प्रसार’ का भविष्य ‘ना’ पर टिकेगा

इस समय दुनिया में एक अजीब-सा उलटाव चल रहा है। एक तरफ “लोकतांत्रिक प्रसार” की भाषा है—कंप्यूट, डेटा, टूल्स, commons—जो ग्लोबल साउथ के लिए आशा का संकेत है। दूसरी तरफ वही दुनिया “refusal” को कमजोर करने का दबाव भी देख रही है—क्योंकि तेज़ शक्ति को धीमी नैतिकता पसंद नहीं होती।

भारत अगर वास्तव में ‘तीसरा रास्ता’ बनना चाहता है—न तो सिलिकॉन वैली का बंद-बॉक्स, न ही किसी राज्य का पूर्ण नियंत्रण—तो उसे “प्रसार” को केवल वितरण के रूप में नहीं, विश्वसनीयता के ढांचे के रूप में देखना होगा। और उस ढांचे का एक केंद्रीय स्तंभ है: एक भरोसेमंद “ना।”

आपके लिए प्रश्न: क्या आपको लगता है कि एआई-आधारित सार्वजनिक निर्णयों में “ऑडिट + कारण + अपील” को एक नागरिक अधिकार की तरह स्थापित किया जाना चाहिए—ताकि ‘लोकतांत्रिक प्रसार’ सिर्फ भाषण न रहे, एक सुरक्षित वास्तविकता बने?

Leave a Reply

Your email address will not be published. Required fields are marked *