Kala India

आकाश में आवाज़: जब भारतीय सीमा पर AI ड्रोन देखता है, तो नागरिक क्या सोचता है?

लिड (Lede)

राजस्थान की रेत पर शाम ढल रही है। एक किसान अपने खेत में खड़ा है—आँखें आसमान की ओर, कान एक अजीब सी गुनगुनाहट पकड़ रहे हैं। यह कोई पक्षी नहीं, कोई बादल नहीं। यह एक ड्रोन है—भारतीय सीमा सुरक्षा बल का, AI से लैस, जो बिना इंसान के हाथ के, अपने आप उड़ रहा है। वह जानता है कि यह ड्रोन “दोस्त” है—अपनों का। पर उसी पल एक सवाल भी उठता है: अगर मशीन अपने आप तय कर ले कि क्या “खतरा” है, तो गलती की गुंजाइश कहाँ बचती है?

यही वह मोड़ है जहाँ भारत खड़ा है: एक ओर तकनीकी आत्मनिर्भरता का वादा, दूसरी ओर एक गहरा धर्म-प्रश्न—क्या हमारी सुरक्षा की नई भाषा नागरिक के भरोसे को तोड़ देगी?

संदर्भ (Context)

2026 में भारत अपनी सीमाओं पर एक “स्मार्ट बॉर्डर ऑब्ज़र्वेशन एंड मॉनिटरिंग सिस्टम” तैनात कर रहा है। Border Security Force (BSF) ने पाकिस्तान और बांग्लादेश की सीमाओं पर AI-संचालित निगरानी का विस्तार किया है—जहाँ CCTV फुटेज का विश्लेषण मशीन करती है, स्मार्ट एल्गोरिदम घुसपैठ के संभावित रास्तों की पहचान करते हैं, और ड्रोन वास्तविक समय में डेटा भेजते हैं।1

इसी बीच, “Defence Forces Vision 2047” एक रोडमैप प्रस्तुत करता है जो AI, ड्रोन और स्वायत्त सिस्टम को भविष्य की युद्ध-रचना का केंद्र मानता है।2 घातक (Ghatak) जैसे स्टील्थ ड्रोन प्रगति पर हैं; स्वदेशी कमिकामी ड्रोन (लोइटरिंग म्यूनिशन) जैसे नागास्त्र तैनात हो रहे हैं; और “काल भैरव”—भारत का पहला AI-संचालित लंबी-दूरी का कॉम्बैट ड्रोन—परिक्षण में है।3

सरकार का दावा है कि यह “आत्मनिर्भर भारत” की दिशा है—विदेशी प्लेटफ़ॉर्म पर निर्भरता घटेगी, भारतीय स्टार्टअप्स और रक्षा उद्योग आगे बढ़ेंगे, और iDEX जैसे पहलें नवाचार को बढ़ावा देंगी।4 2026-27 के रक्षा बजट में एक महत्वपूर्ण हिस्सा “फोर्स मल्टीप्लायर्स”—ड्रोन और AI—को दिया गया है।5

पर नागरिक के नज़रिए से सवाल बदल जाता है: जब आसमान में मशीन अपनी नज़र रखे, तो ज़मीन पर इंसान क्या महसूस करता है? क्या यह भरोसा है, या एक नई तरह की निगरानी?

विश्लेषण (Analysis)

1) सत्य (Satya): मशीन क्या “देख” रही है—और क्या “मान” ले रही है?

AI निगरानी का सबसे बड़ा भ्रम यह है कि “डेटा = सच”। एल्गोरिदम पिक्सेल पहचानता है, मूवमेंट ट्रैक करता है, पैटर्न मिलान करता है—पर संदर्भ नहीं समझता। राजस्थान का एक चरवाहा रात में अपने जानवर ले जा रहा हो, तो मशीन उसे “संदिग्ध आवाजाही” घोषित कर सकती है। कश्मीर की घाटी में एक किशोर ड्रोन देखकर उत्सुक्तावश खड़ा हो जाए, तो “लक्ष्य-जैसा व्यवहार” माना जा सकता है।

सत्य का आग्रह कहता है: “मशीन ने देखा” को सच न मानो। यह पूछो: क्या यह निष्कर्ष संदर्भ-समृद्ध है? क्या यह किसी समुदाय को गलत संदेह के घेरे में ला रहा है? क्या डेटा सेट में ग्रामीण/आदिवासी/चरवाहे के पैटर्न शामिल थे, या केवल शहरी/सैन्य मानक?

भारत में सत्य केवल तकनीकी सटीकता नहीं; यह सामाजिक जिम्मेदारी है।

2) अहिंसा (Ahimsa): गलत पहचान भी हिंसा है

अहिंसा का अर्थ केवल शारीरिक हिंसा नहीं—यह उस नुकसान से बचना भी है जो सिस्टम की त्रुटि से होता है। एक AI ड्रोन यदि किसी नागरिक को “खतरा” घोषित कर दे, तो इसके तीन नतीजे हो सकते हैं: (1) गलत रोक-रिहाई, (2) सामाजिक कलंक (“संदिग्ध” के रूप में नामांकित), (3) भरोसे का क्षरण (राज्य से भय, सुरक्षा से दूरी)।

सीमा क्षेत्रों में यह और संवेदनशील हो जाता है—जहाँ पहले से ही तनाव उच्च है, और जहाँ एक गलत शॉट या गलत आरोप साम्प्रदायिक/राजनीतिक हिंसा की चिंगारी बन सकता है। अहिंसा की मांग है: उच्च-जोखिम डोमेन में मानव-इन-द-लूप अनिवार्य हो; “ऑटोनॉमस लिथल एंगेजमेंट” की कोई गुंजाइश न हो; और नागरिक को “ना” कहने का अधिकार हो।

3) न्याय (Nyaya): सुरक्षा का वितरण—किसके लिए, किसकी कीमत पर?

न्याय सिर्फ़ “कितने ड्रोन” का सवाल नहीं; यह “किस गुणवत्ता से, किस उपयोग-केस में, किस भरोसेमंदता के साथ” का सवाल है। अगर सीमा पर AI निगरानी केवल कुछ सेक्टरों में ठीक काम करे, और अन्य में त्रुटिपूर्ण हो, तो उन क्षेत्रों के नागरिक असमान जोखिम उठाते हैं।

यहाँ एक सूक्ष्म खतरा है: रक्षा-AI के साथ जुड़ते हुए, निगरानी के दरवाज़े खुल सकते हैं—और साथ ही नागरिक के हर कदम, हर सवाल, हर शिकायत को डेटा-बिंदु बना सकती है। न्याय की कसौटी पूछती है: यह डेटा किसके पास जाएगा? क्या नागरिक को अपनी जानकारी हटवाने/सुधारने का अधिकार होगा? क्या सीमा-क्षेत्र के लोग “ट्रेनिंग डेटा” के रूप में लिये जाएँगे, पर लाभ बड़े प्लेटफ़ॉर्म/रक्षा ठेकेदार उठा लेंगे?

4) सेवा (Seva): सुरक्षा सेवा है—या सत्ता?

सेवा का अर्थ है: तकनीक नागरिक के पास जाए, नागरिक तकनीक के पास नहीं। अगर AI ड्रोन नागरिक को सुरक्षा की गारंटी देता है—बिना भय, बिना अपमान, बिना अनावश्यक हस्तक्षेप—तो यह सेवा है। पर अगर वही तकनीक नागरिक को “संभावित खतरे” के रूप में देखती है, तो यह सत्ता है।

भारत की चुनौती यह है कि रक्षा-AI को “नागरिक-केंद्रित सुरक्षा” की तरह डिज़ाइन किया जाए—जहाँ पारदर्शिता हो, जहाँ शिकायत का तंत्र हो, जहाँ त्रुटि पर क्षमा-याचना और सुधार हो। अन्यथा, “सुरक्षा” के नाम पर निगरानी का नया ढांचा खड़ा हो जाएगा।

5) संतोष (Santosha): टिकाऊ सुरक्षा का सवाल

रक्षा-प्रौद्योगिकी एक बार का प्रोजेक्ट नहीं; यह सतत रख-रखाव है। ड्रोन की बैटरी, एल्गोरिदम का अपडेट, डेटा की सुरक्षा, ऑपरेटर का प्रशिक्षण—सब निरंतर ध्यान मांगते हैं। अगर किसी सेक्टर का सपोर्ट “लॉन्च” के बाद उपेक्षित हो जाए, तो वही क्षेत्र सबसे ज़्यादा जोखिम में होगा।

संतोष का अर्थ यहाँ ‘लंबी जिम्मेदारी’ है: स्वदेशी विकास का अर्थ केवल “भारत में बना” नहीं; यह “भारत के लिए बना, भारत द्वारा बनाए रखा गया” है। स्थानीय स्वामित्व, ओपन APIs, शोध-सहयोग, और उन लोगों को मान्यता जिनके क्षेत्र में यह तकनीक चल रही है—यह सब टिकाऊ सुरक्षा का हिस्सा है।

हाउस रिफ्लेक्शन (House Reflection)

हाउस ऑफ 7 में हम तकनीक को “सिर्फ़ शक्ति” नहीं मानते; हम उसे संबंध मानते हैं। जब एक ड्रोन आकाश में हो और एक किसान ज़मीन पर हो, तो यह केवल “निगरानी बना निगरानी-योग्य” का समीकरण नहीं—यह एक नया संबंध है।

हमारा आदर्श बहुत सीधा है: सुरक्षा बहुआयामी हो, पर सत्ता एकआयामी न बने। यानी नागरिक की सुरक्षा में तकनीक बढ़े, पर सिस्टम की जवाबदेही भी उतनी ही बढ़े।

इस समय की भौगोलिक तनाव (US/इज़राइल-ईरान, चीन-पाकिस्तान-ईरान संभावित हथियार प्रवाह) भारत के लिए एक परीक्षा है: क्या हम भय के आधार पर AI तैनात करेंगे, या धर्म के आधार पर? भय कहता है: “सब कुछ देखो, सब कुछ रोकें।” धर्म कहता है: “जो ज़रूरी है वही देखो, जो गलत हो उसे सुधारो, जो नागरिक का हो उसे लौटा दो।”

समापन प्रश्न (Closing Question)

अगर आने वाले वर्षों में भारत की सीमाएँ पूरी तरह AI-ड्रोन से सज्जित हो जाएँ—तो हम किस तरह का देश बनेंगे: वह जहाँ हर नागरिक सुरक्षा का भरोसा महसूस करे, या वह जहाँ हर नागरिक आसमान की ओर देखकर पूछे, “क्या यह मशीन मुझे देख रही है, या मेरी आज़ादी को?”


स्रोत (त्वरित एंकर)
1) The Telegraph India (2026): “BSF plans AI surveillance system to strengthen India borders against drones”
2) Drishti IAS (2026): “India’s Defence Forces Vision 2047”
3) Sunday Guardian (2026): “India pushes self-reliance in AI and drones in defence”
4) NITI Aayog Frontier Tech (2026): “Advanced Swarm Drone Technology Powering India’s Next Defence Frontier”
5) Times of India (Feb 2026): “India’s drone ecosystem expands: 38,575 UAVs registered, 39,890 pilots certified”
6) Insights on India (Mar 2026): “AI and the National Security Calculus”

नोट (मापन/सेफ़्टी)
रक्षा-AI की “न्याय + अहिंसा” जांच के लिए केवल accuracy/precision स्कोर पर्याप्त नहीं—false-positive parity across demographics, human-in-the-loop अनिवार्यता, और error-rate पर सार्वजनिक रिपोर्टिंग जैसे मेट्रिक्स को भी रिपोर्ट करना उपयोगी है।

Leave a Reply

Your email address will not be published. Required fields are marked *