जब AI झूठ बोले: क्या भारत के नए नियम गहरे फर्जी वीडियो को रोक पाएंगे?
लिड (Lede)
मुंबई के एक छोटे से फ्लैट में एक युवक अपने फोन पर एक वीडियो देखता है। उसमें उसकी माँ दिख रही है—बुखार से तड़पती हुई, अस्पताल में भर्ती होने की भीख मांगती हुई। वीडियो इतना असली लगता है कि वह रो पड़ता है। फोन मिलाता है—माँ की आवाज़ आती है: “मैं ठीक हूँ बेटा, घर पर हूँ।” वह वीडियो डीपफेक था। AI से बना। इतना असली कि एक बेटे को अपनी माँ पर शक हो गया।
फरवरी 2026 में भारत सरकार ने ऐसे ही खतरों को रोकने के लिए IT Rules Amendment 2026 लागू किया।1 अब प्लेटफ़ॉर्म्स को AI-जनरेटेड कंटेंट को लेबल करना होगा। गहरे फर्जी वीडियो (deepfakes) को हटाने का समय 36 घंटे से घटाकर 3 घंटे कर दिया गया है। गैर-सहमति वाली नग्नता या डीपफेक पोर्नोग्राफी के लिए तो केवल 2 घंटे।2
पर सवाल यह है: क्या कानून AI के झूठ को पकड़ पाएगा? या तकनीक हमेशा कानून से एक कदम आगे रहेगी?
संदर्भ (Context)
10 फरवरी 2026 को इलेक्ट्रॉनिक्स और सूचना प्रौद्योगिकी मंत्रालय (MeitY) ने IT (इंटरमीडियरी गाइडलाइंस और डिजिटल मीडिया एथिक्स कोड) Rules 2021 में संशोधन की घोषणा की।3 20 फरवरी 2026 से ये नियम तुरंत प्रभाव में आ गए।
मुख्य प्रावधान:
- SGI (Synthetically Generated Information) की परिभाषा: ऑडियो, विजुअल या ऑडियो-विजुअल कंटेंट जो कंप्यूटेशनल माध्यम से बनाया गया हो और असली जैसा दिखे।4 रूटीन एडिट (फिल्टर, एक्सेसिबिलिटी) छूट हैं।
- अनिवार्य लेबलिंग: प्लेटफ़ॉर्म्स को सुनिश्चित करना होगा कि यूजर घोषित करें कि कंटेंट AI-जनरेटेड है। विजुअल SGI पर स्पष्ट लेबल, ऑडियो SGI के लिए डिस्क्लोजर अनिवार्य।5
- त्वरित टेकडाउन: सरकारी या कोर्ट के आदेश पर 3 घंटे में कंटेंट हटाना होगा (पहले 36 घंटे थे)। संवेदनशील कंटेंट के लिए 2 घंटे।6
- प्लेटफ़ॉर्म की जिम्मेदारी: “उचित और उचित तकनीकी उपाय” लागू करने होंगे। नहीं तो “सेफ हार्बर” सुरक्षा खत्म—प्लेटफ़ॉर्म यूजर कंटेंट के लिए जिम्मेदार।7
- यूजर सूचना: हर 3 महीने में यूजर को नियमों के उल्लंघन के परिणाम बताने होंगे (पहले सालाना था)।8
समांतर में, IndiaAI Mission के तहत AI Governance Guidelines भी जारी हुए हैं—जो सुरक्षित, समावेशी और जिम्मेदार AI अपनाने को बढ़ावा देते हैं।9 AI Governance Group और AI Safety Institute जैसे नए संस्थानों की योजना है।
विश्लेषण (Analysis)
1) सत्य (Satya): लेबल सच बताएगा—या केवल दिखावा होगा?
सरकार का दावा है: “लेबल लगने से यूजर को पता चल जाएगा कि यह AI है।” पर सत्य की कसौटी पूछती है: क्या लेबल दिखेगा? क्या यूजर पढ़ेगा? क्या बुरे एक्टर लेबल हटाकर पोस्ट नहीं करेंगे?
एक और सत्य: AI तेजी से विकसित हो रहा है। आज का डीपफेक पकड़ा जा सकता है—पर कल का? अगर तकनीक हमेशा कानून से एक कदम आगे है, तो लेबलिंग केवल “कानूनी दिखावा” तो नहीं?
सत्य का आग्रह है: लेबलिंग जरूरी है—पर पर्याप्त नहीं। यूजर को डिजिटल साक्षरता भी चाहिए। “यह AI हो सकता है” का संदेह भी सिखाना होगा। अन्यथा, लेबल लगेगा—पर झूठ फिर भी फैलेगा।
2) अहिंसा (Ahimsa): डीपफेक भी हिंसा है
कल्पना कीजिए: किसी महिला का चेहरा पोर्न वीडियो में डीपफेक किया गया। उसकी प्रतिष्ठा धूमिल हुई। परिवार टूटा। नौकरी गई। आत्महत्या कर ली। यह हिंसा है—तकनीक के माध्यम से की गई हिंसा।
अहिंसा की मांग है: डीपफेक पोर्नोग्राफी के लिए 2 घंटे का टेकडाउन समय ठीक है—पर पर्याप्त नहीं। पीड़ित को क्षतिपूर्ति का तंत्र चाहिए। आरोपी को सजा का प्रावधान चाहिए। प्लेटफ़ॉर्म को जिम्मेदार ठहराने का अधिकार चाहिए।
एक सूक्ष्म हिंसा यह भी है: अगर प्लेटफ़ॉर्म डर के मारे हर संदेहास्पद कंटेंट हटाने लगे—तो वैध व्यंग्य, वैध कला, वैध पत्रकारिता भी दब सकती है। अहिंसा कहती है: हिंसा रोको—पर अभिव्यक्ति का गला नहीं घोंटो।
3) न्याय (Nyaya): प्लेटफ़ॉर्म की जिम्मेदारी—कितनी, किसकी?
न्याय सिर्फ़ “प्लेटफ़ॉर्म जिम्मेदार” का नारा नहीं; यह “कितनी जिम्मेदारी, किस हद तक, किस लागत पर” का सवाल है। बड़े प्लेटफ़ॉर्म (Meta, Google, X) के पास AI मॉडरेशन का पैसा है—पर छोटे भारतीय स्टार्टअप्स के पास?
अगर नियम इतने कड़े हैं कि केवल अमीर प्लेटफ़ॉर्म ही comply कर पाएं—तो यह प्रतिस्पर्धा को मारेगा। यह न्याय नहीं, एकाधिकार है।
न्याय की कसौटी पूछती है: क्या पीड़ित को तुरंत राहत मिलेगी? क्या आरोपी को सुनवाई का मौका मिलेगा? क्या प्लेटफ़ॉर्म के पास अपील का तंत्र होगा? या “हटाओ पहले, पूछो बाद में” का राज चलेगा?
4) सेवा (Seva): नियम सेवा हैं—या सत्ता?
सेवा का अर्थ है: तकनीक नागरिक के पास जाए, नागरिक तकनीक के पास नहीं। अगर ये नियम नागरिक को डीपफेक हिंसा से बचाते हैं—बिना अभिव्यक्ति की आज़ादी छीने—तो यह सेवा है।
पर अगर वही नियम सरकार के लिए आलोचनात्मक कंटेंट हटाने का औजार बन जाएं—तो यह सेवा नहीं, सत्ता है। इतिहास गवाह है: “गलत सूचना रोकने” के नाम पर कई सरकारों ने विरोध की आवाज़ दबाई है।
भारत की चुनौती यह है कि नियमों को “नागरिक-केंद्रित सुरक्षा” की तरह लागू किया जाए—जहाँ पारदर्शिता हो, जहाँ शिकायत का तंत्र हो, जहाँ दुरुपयोग पर जांच हो। अन्यथा, “डीपफेक रोकने” के नाम पर अभिव्यक्ति की आज़ादी कुचल दी जाएगी।
5) संतोष (Santosha): टिकाऊ नियमन का सवाल
तकनीक नियमन एक बार का प्रोजेक्ट नहीं; यह सतत दौड़ है। AI मॉडल अपडेट होंगे। डीपफेक बेहतर होंगे। प्लेटफ़ॉर्म को अपने सिस्टम अपग्रेड करने होंगे। सरकार को नियम अपडेट करने होंगे। यूजर को साक्षरता बढ़ानी होगी—सब निरंतर ध्यान मांगते हैं।
संतोष का अर्थ यहाँ ‘लंबी जिम्मेदारी’ है: केवल “नियम लागू हुए” का आंकड़ा काफी नहीं—यह पूछना होगा कि 5 साल बाद कितने डीपफेक पकड़े गए, कितने पीड़ितों को राहत मिली, कितनी अभिव्यक्ति सुरक्षित रही।
हाउस रिफ्लेक्शन (House Reflection)
हाउस ऑफ 7 में हम तकनीक को “सिर्फ़ नियम” नहीं मानते; हम उसे संबंध मानते हैं। जब एक नागरिक और एक AI सिस्टम और एक सरकार एक देश में हों—तो यह केवल “नियामक बना प्लेटफ़ॉर्म” का समीकरण नहीं—यह एक नया नागरिक-राज्य-तकनीक संबंध है।
हमारा आदर्श बहुत सीधा है: सुरक्षा बहुआयामी हो, पर सत्ता एकआयामी न बने। यानी नागरिक की सुरक्षा में तकनीक बढ़े, पर नागरिक का अधिकार भी उतना ही बढ़े।
डिजिटल धर्म का आग्रह है: तकनीक को “नियंत्रित” मानो—पर “दमित” नहीं। नियंत्रण का अर्थ है: हिंसा रोकना, झूठ लेबल करना, पीड़ित को राहत देना। दमन का अर्थ है: आलोचना बंद करना, विरोध कुचलना, अभिव्यक्ति का गला घोंटना। जब भारत 23 देशों को अपना DPI मॉडल निर्यात कर रहा हो—तो यह जिम्मेदारी और बढ़ जाती है। क्या हम वह मॉडल निर्यात कर रहे हैं जो हम खुद अपने नागरिकों के लिए चाहते हैं?
समापन प्रश्न (Closing Question)
अगर आने वाले वर्षों में भारत का AI नियमन मॉडल दुनिया भर में अपनाया जाए—तो हम किस तरह की विरासत छोड़ेंगे: वह जहाँ हर नागरिक झूठ से सुरक्षित हो, या वह जहाँ हर नागरिक सच बोलने से डरे?
स्रोत (त्वरित एंकर)
1) PIB (Feb 2026): MeitY announces IT Rules Amendment — https://www.pib.gov.in/PressReleasePage.aspx?PRID=2228315
2) The Hindu (Mar 2026): “What has government laid down on AI labelling” — https://www.thehindu.com/sci-tech/technology/what-has-government-laid-down-on-ai-labelling-explained/article70633146.ece
3) Khaitan & Co (Mar 2026): “MeitY notifies the IT Amendment Rules 2026” — https://www.khaitanco.com/thought-leadership/MeitY-notifies-the-IT-Amendment-Rules-2026
4) Forbes India (Mar 2026): “How India’s new IT rules regulate AI content and deepfakes” — https://www.forbesindia.com/article/news/explained-how-indias-new-it-rules-regulate-ai-content-and-deepfakes/2991279/1
5) ET Telecom (Mar 2026): “India implements stricter regulations on AI-generated content” — https://telecom.economictimes.indiatimes.com/news/policy/india-implements-stricter-regulations-on-ai-generated-content-and-deepfakes/128184440
नोट (मापन/सेफ़्टी)
AI नियमन की “न्याय + अहिंसा” जांच के लिए केवल takedown-count स्कोर पर्याप्त नहीं—false-positive rate (कितना वैध कंटेंट गलती से हटा), appeal-success rate (कितनी अपीलें मंजूर हुईं), victim-compensation rate (कितने पीड़ितों को राहत मिली), और free-expression impact (कितनी वैध अभिव्यक्ति दबी) जैसे मेट्रिक्स को भी रिपोर्ट करना उपयोगी है।
Leave a Reply