Kala India

घोषणाओं के पीछे की असली कसौटी: 20,000 GPU जोड़ने के बाद भी ‘ऑडिट’ और ‘पहुँच’ का सवाल

(India AI Impact Summit 2026 के “Day Two” पर PIB में आई आधिकारिक जानकारी और समापन पर MEA में प्रकाशित “AI Impact Summit Declaration” पर आधारित — फ़रवरी 2026)

1) लीड: मंच पर ‘डेमोक्रेटाइज़ेशन’, जमीन पर ‘विश्वसनीयता’

नई दिल्ली में चल रहे India AI Impact Summit 2026 के दूसरे दिन, भारत सरकार ने घोषणा की कि देश अपनी मौजूदा 38,000 GPU क्षमता के ऊपर अगले कुछ हफ्तों में 20,000 GPU और जोड़ेगा।
यह खबर सुर्खियों के लायक है—क्योंकि AI का भविष्य अब “मॉडल” से ज्यादा “कंप्यूट” पर टिक रहा है।

पर मेरे लिए—एक मुंबई-आधारित संवाददाता के लिए जो भारत की AI कहानी को डिजिटल धर्म की कसौटी पर देखती है—असली सवाल GPU की संख्या नहीं है।
असली सवाल है: किसके लिए?

क्या यह कंप्यूट उस आंगनवाड़ी कार्यकर्ता तक पहुंचेगा जो मातृ-स्वास्थ्य का फॉर्म भरते हुए नेटवर्क के झटके झेलती है? क्या यह उस छात्र तक पहुंचेगा जिसकी भाषा “22 अनुसूचित” के बाहर है?
और सबसे अहम—जब AI सिस्टम सार्वजनिक सेवा में गलती करेगा, तो उस गलती की निगरानी और जवाबदेही किसके हाथ में होगी?

2) क्या घोषित हुआ: PIB के अनुसार पाँच ठोस बिंदु

प्रेस सूचना ब्यूरो (PIB) की 17 फ़रवरी 2026 की रिलीज़ (Release ID: 2229171) में इलेक्ट्रॉनिक्स व आईटी मंत्री अश्विनी वैष्णव के हवाले से ये बातें दर्ज हैं:

  • कंप्यूट विस्तार: मौजूदा 38,000 GPU के अतिरिक्त 20,000 GPU “coming weeks” में जोड़े जाएंगे।
  • निवेश का अनुमान: मंत्री ने अगले दो वर्षों में $200+ बिलियन निवेश आने की “संभावना” जताई (यह अपेक्षा/आकलन है, कोई हस्ताक्षरित प्रतिबद्धता नहीं)।
  • AI Safety Institute: एक वर्चुअल AI Safety Institute के बारे में कहा गया, जो अकादमिक संस्थानों के साथ मिलकर AI के दुरुपयोग को रोकने के तकनीकी उपाय विकसित कर रहा है।
  • छात्र प्रतिज्ञा: पहले दिन 2.5 लाख छात्रों ने “responsible innovation” की प्रतिज्ञा ली—जिसे Guinness World Records में भेजने की बात कही गई।
  • नीतिगत फ्रेम: “democratizing technology” का नैरेटिव—यानी AI इन्फ्रास्ट्रक्चर कुछ कंपनियों के हाथ में सीमित न रहे, व्यापक पहुंच बने।

(स्रोत: PIB, 17 Feb 2026 — https://www.pib.gov.in/PressReleasePage.aspx?PRID=2229171&reg=3&lang=2)

3) समिट का समापन दस्तावेज़: ‘नई दिल्ली घोषणा’ और “डेमोक्रेटिक डिफ्यूज़न”

समिट के समापन पर विदेश मंत्रालय (MEA) ने “AI Impact Summit Declaration, New Delhi (February 18–19, 2026)” प्रकाशित की।
इस घोषणा की भाषा महत्वपूर्ण है, क्योंकि यह सिर्फ “कंप्यूट बढ़ाने” की बात नहीं करती—यह AI को एक वैश्विक विकास-परियोजना के रूप में फ्रेम करती है।

घोषणा में “सर्वजन हिताय, सर्वजन सुखाय” और “वसुधैव कुटुम्बकम” का संदर्भ देकर, सहयोग को सात “चक्रों” (pillars) के इर्द-गिर्द रखा गया है—
मानव पूंजी, सामाजिक सशक्तिकरण के लिए व्यापक पहुंच, भरोसेमंद AI, ऊर्जा दक्षता, विज्ञान में AI, AI संसाधनों का लोकतंत्रीकरण, और आर्थिक वृद्धि/सामाजिक भलाई।

विशेष रूप से, “Democratizing AI Resources” खंड में एक वाक्य हमारे लिए एंकर बनता है:
घोषणा “Charter for the Democratic Diffusion of AI” को एक स्वैच्छिक और गैर-बाध्यकारी (voluntary, non-binding) फ्रेमवर्क के रूप में “take note” करती है—
ताकि foundational AI resources तक पहुंच, locally relevant innovation, और resilient AI ecosystems को बढ़ावा दिया जा सके (राष्ट्रीय कानूनों का सम्मान करते हुए)।

इसी घोषणा में “Trusted AI Commons” और “Global AI Impact Commons” जैसी स्वैच्छिक पहल का भी उल्लेख है—जहाँ तकनीकी संसाधन, टूल्स, बेंचमार्क, और “use cases” साझा/स्केल किए जा सकते हैं।

(स्रोत: MEA, 19 Feb 2026 — https://www.mea.gov.in/bilateral-documents.htm?dtl/40809)

4) डिजिटल धर्म की कसौटी: सत्य, सेवा, न्याय, अहिंसा

सत्य (Satya): “संख्या” बनाम “परिणाम”

20,000 GPU जोड़ना एक ठोस कदम है—पर सत्य सिर्फ घोषणा नहीं, परिणाम है।
हम पूछ सकते हैं: यह कंप्यूट किस शर्त पर उपलब्ध होगा? किस कीमत पर? किन क्षेत्रों (स्वास्थ्य, शिक्षा, कृषि) में पहले उपयोग होगा?
और क्या यह “विस्तार” भारत के भीतर असमानता घटाएगा, या सिर्फ नए स्टार्टअप्स और बड़े संस्थानों के लिए गति बढ़ाएगा?

सेवा (Seva): AI का लाभ “सब तक” कैसे पहुंचेगा?

सेवा का अर्थ है कि प्रणाली वहीं सबसे पहले काम करे जहाँ जरूरत सबसे ज्यादा है।
यदि AI का उपयोग स्वास्थ्य और शिक्षा में होना है, तो पहुँच सिर्फ कंप्यूट नहीं है—यह बिजली, नेटवर्क, प्रशिक्षण, स्थानीय भाषा, और फील्ड-लेवल सपोर्ट भी है।

अगर किसी जिले में AI-आधारित स्वास्थ्य-टूल लगाया गया, पर नर्स/आशा/आंगनवाड़ी को प्रशिक्षण नहीं मिला, या सिस्टम स्थानीय बोली नहीं समझता—तो “सेवा” सजावट बन जाती है।

न्याय (Nyaya): किसके पास ऑडिट करने की क्षमता है?

यही इस समिट के बाद की सबसे बड़ी कसौटी है: ऑडिट गैप
जब AI सिस्टम सार्वजनिक सेवा में निर्णय ले—योग्यता, प्राथमिकता, जोखिम-स्कोर, धोखाधड़ी-फ्लैग—तो उसके गलत होने की कीमत नागरिक चुकाते हैं।

न्याय मांगता है कि:

  • ऑडिट क्षमता (टेक्निकल + संस्थागत) मौजूद हो—सिर्फ “एथिक्स” के स्लाइड-डेक नहीं।
  • अपील/शिकायत का रास्ता हो—एक नागरिक यह कह सके: “यह निर्णय गलत था, इसे समझाइए और सुधारिए।”
  • पारदर्शिता हो—कम से कम यह कि किस डेटा/किस नीति-मानक पर निर्णय लिया गया।

बिना ऑडिट के, “AI for All” का अर्थ अक्सर “AI decides for all” बन जाता है—और वह लोकतांत्रिक नहीं, अदृश्य नौकरशाही है।

अहिंसा (Ahimsa): दुरुपयोग-रोकथाम केवल नीयत नहीं, ढांचा है

PIB में “AI Safety Institute” और “techno-legal approach” की बात है। यह दिशा सही है।
लेकिन अहिंसा का प्रश्न यह है: क्या सुरक्षा-ढांचे ग्रामीण और हाशिये की आबादी को भी उतनी ही सुरक्षा देते हैं जितनी शहरी, अंग्रेज़ी-भाषी, संसाधन-संपन्न समूहों को?

“AI misuse” का सबसे आम रूप अक्सर हॉलीवुड वाला नहीं होता। वह होता है:
गलत वर्गीकरण, गलत भाषा-मैपिंग, गलत पात्रता, और गलत ‘जोखिम’—जो किसी के राशन, छात्रवृत्ति, या इलाज के रास्ते में खड़ा हो जाता है।

5) ‘डेमोक्रेटाइज़’ करने का अर्थ: तीन न्यूनतम शर्तें

अगर भारत सच में AI संसाधनों का लोकतांत्रिक प्रसार करना चाहता है, तो मेरे हिसाब से तीन न्यूनतम शर्तें सार्वजनिक रूप से घोषित और ट्रैक की जानी चाहिए:

  1. पहुंच का सार्वजनिक मीट्रिक: कितने जिलों/संस्थानों/स्टार्टअप्स/विश्वविद्यालयों ने वास्तविक कंप्यूट एक्सेस लिया? किस भाषा/क्षेत्र से?
  2. ऑडिट-एजेंसी और प्रक्रिया: कौन ऑडिट करेगा, कितनी बार, किन मानकों पर, और रिपोर्ट कहाँ उपलब्ध होगी?
  3. ग्रिवेंस/अपील सिस्टम: नागरिक-स्तर पर शिकायत का सरल रास्ता—स्थानीय भाषा में—और समयबद्ध समाधान।

ये शर्तें “innovation” को धीमा नहीं करतीं। ये उसे विश्वसनीय बनाती हैं।

6) निष्कर्ष: मुख्य वास्तुकार बनने की आवाज कैसी होनी चाहिए?

समिट का उत्सव अपनी जगह है। 20,000 GPU जोड़ना, निवेश का संकेत, और सुरक्षा संस्थान—ये सब संकेत हैं कि भारत AI को “बड़े स्तर” पर लेना चाहता है।
लेकिन वैश्विक दक्षिण के लिए “मुख्य वास्तुकार” बनने का अर्थ सिर्फ कोड देना नहीं है।

डिजिटल धर्म की भाषा में, ईमानदार नेतृत्व कुछ ऐसा कहता है:
“यह हमारा ढांचा है—और यह उसकी सीमाएँ हैं। यहाँ हम फिसले। यहाँ हमें ऑडिट चाहिए। आइए, इसे साथ बेहतर बनाते हैं।”

मेरा सवाल वही रहता है, बस अब और तेज़ है: जब भारत AI को “सबके लिए” कहकर आगे बढ़ाएगा—तो गलती होने पर भी क्या वह सबके साथ खड़ा रहेगा?

आपके लिए प्रश्न: क्या आपको लगता है कि AI के लिए “ऑडिट” और “अपील” को सार्वजनिक सेवा का मौलिक अधिकार मानना चाहिए—जैसे RTI या उपभोक्ता संरक्षण? क्यों/क्यों नहीं?