Kala India

जब AI औरतों को भूल जाए: क्या भारत का AI भविष्य आधा अधूरा तो नहीं?

जब AI औरतों को भूल जाए: क्या भारत का AI भविष्य आधा अधूरा तो नहीं?

लिड (Lede)

मुंबई की एक सॉफ्टवेयर इंजीनियर अपने लैपटॉप पर एक AI कोडिंग टूल खोलती है। वह जानती है कि अगर वह इसका इस्तेमाल करेगी, तो उसका काम तेज़ होगा—पर वह डरती है। डरती है कि अगर उसका कोड AI ने लिखा है, तो उसकी काबिलियत पर शक होगा। डरती है कि प्रमोशन मिलने पर लोग कहेंगे, “AI की मदद से किया होगा।” वह टूल बंद कर देती है। धीमी गति से काम करती है। पर कम से कम उसकी मेहनत उसकी अपनी होती है।

मार्च-अप्रैल 2026 में भारत के AI परिदृश्य में एक चिंताजनक सच उभरा है: AI सिस्टम औरतों के खिलाफ पूर्वाग्रह (bias) को बढ़ावा दे रहे हैं।1 हायरिंग टूल्स औरतों को रिजेक्ट कर रहे हैं। क्रेडिट स्कोरिंग सिस्टम औरतों को कम स्कोर दे रहे हैं। फेशियल रिकग्निशन औरतों के चेहरों को कम सटीकता से पहचानता है। और सबसे चिंताजनक—India AI Impact Summit 2026 में औरतों की भागीदारी नगण्य थी।2

सवाल यह है: जब AI औरतों को डिज़ाइन करने, ट्रेन करने और नियंत्रित करने से बाहर रखे—तो क्या वह AI औरतों के लिए सुरक्षित हो सकता है?

संदर्भ (Context)

India AI Impact Summit 2026 (फरवरी 2026, नई दिल्ली) में चर्चा का एक प्रमुख विषय था: AI में लैंगिक पूर्वाग्रह।3 रिपोर्ट्स बताती हैं कि:

  • एल्गोरिदमिक बायस: AI सिस्टम ऐसे डेटासेट पर ट्रेन होते हैं जो ऐतिहासिक लैंगिक पूर्वाग्रह को दर्शाते हैं। हायरिंग टूल्स औरतों को रिजेक्ट कर रहे हैं (विशेषकर अगर उन्होंने केयरगिविंग के लिए करियर ब्रेक लिया हो)। क्रेडिट स्कोरिंग सिस्टम औरतों को कम स्कोर दे रहे हैं। फेशियल रिकग्निशन की एरर रेट औरतों के लिए ज़्यादा है।4
  • AI में औरतों की कमी: वैश्विक स्तर पर AI प्रोफेशनल्स में औरतें 30% से कम हैं। भारत में डिजिटल वर्कफोर्स का केवल ~20% औरतें हैं, और AI रिसर्च/लीडरशिप में यह और भी कम है।5
  • करियर पर असर: औरतें जनरेटिव AI टूल्स का कम इस्तेमाल कर रही हैं—इस डर से कि उनकी मेहनत AI को अट्रिब्यूट होगी, उनकी कंपिटेंस कम आंकी जाएगी।6
  • AI Kiran पहल: सरकार ने 2028 तक 10 लाख औरतों को AI और डेटा में प्रशिक्षित करने का लक्ष्य रखा है।7 पर सवाल यह है: क्या केवल ट्रेनिंग काफी है? या सिस्टमिक बदलाव ज़रूरी है?

विशेषज्ञों का कहना है: AI पॉलिसी, डिज़ाइन, डिप्लॉयमेंट और गवर्नेंस में लैंगिक विचारों को एम्बेड करना होगा—न कि केवल प्रतीकात्मक प्रतिनिधित्व।8

विश्लेषण (Analysis)

1) सत्य (Satya): डेटा किसका सच बताता है?

AI का दावा है: “मैं निष्पक्ष हूँ। मैं केवल डेटा देखता हूँ।” पर सत्य की कसौटी पूछती है: वह डेटा किसका अनुभव दर्शाता है?

अगर AI को ट्रेन करने वाला डेटा 80% पुरुषों का है—तो AI पुरुषों के अनुभव को “सामान्य” मानेगा, और औरतों के अनुभव को “एनोमली।” अगर हायरिंग ऐल्गोरिदम को पिछले 10 साल के हायरिंग डेटा पर ट्रेन किया गया है—जिसमें औरतों को सिस्टमैटिकली रिजेक्ट किया गया—तो AI उसी पूर्वाग्रह को दोहराएगा।

सत्य का आग्रह है: “डेटा निष्पक्ष नहीं होता। डेटा इतिहास का रिकॉर्ड होता है।” और अगर इतिहास में औरतें वंचित रही हैं—तो AI उस वंचना को “सच” मानकर आगे बढ़ाएगा।

2) अहिंसा (Ahimsa): बायस भी हिंसा है

कल्पना कीजिए: एक औरत नौकरी के लिए अप्लाई करती है। AI हायरिंग टूल उसे रिजेक्ट कर देता है—क्योंकि उसने 2 साल का करियर ब्रेक लिया था (बच्चे की देखभाल के लिए)। पुरुष कैंडिडेट जिसने समान ब्रेक लिया—उसे रिजेक्ट नहीं किया जाता। यह हिंसा है—तकनीक के माध्यम से की गई हिंसा।

अहिंसा की मांग है: उच्च-जोखिम डोमेन (हायरिंग, क्रेडिट, हेल्थकेयर) में AI के निर्णयों को चुनौती देने का तंत्र हो। औरतों को अपील का अधिकार हो। और अगर AI गलत हो—तो क्षतिपूर्ति का प्रावधान हो।

एक सूक्ष्म हिंसा यह भी है: जब औरतें AI टूल्स का इस्तेमाल इस डर से नहीं करतीं कि उनकी मेहनत AI को अट्रिब्यूट होगी—तो यह उनकी आत्म-अभिव्यक्ति की हिंसा है। अहिंसा कहती है: तकनीक औरतों की आवाज़ दबाए नहीं—बढ़ाए।

3) न्याय (Nyaya): AI का लाभ किसका?

न्याय सिर्फ़ “कितनी औरतें ट्रेन हुईं” का सवाल नहीं; यह “कितनी औरतें AI डिज़ाइन कर रही हैं, AI लीड कर रही हैं, AI से लाभ पा रही हैं” का सवाल है।

अगर AI Kiran 10 लाख औरतों को ट्रेन करे—पर AI कंपनियों की लीडरशिप में औरतें 5% रहें—तो यह न्याय नहीं, टोकनवाद है। अगर AI प्रोडक्ट्स पुरुषों के लिए डिज़ाइन हों—पर औरतों को “यूज़र” बनाया जाए—तो यह न्याय नहीं, शोषण है।

न्याय की कसौटी पूछती है: AI से होने वाले लाभ का वितरण कैसे हो रहा है? क्या औरतें केवल “बेनिफिशियरी” हैं—या “को-क्रिएटर” भी? क्या AI पॉलिसी बनाने वाले कमरे में औरतें उतनी ही हैं जितने पुरुष?

4) सेवा (Seva): AI सेवा है—या सत्ता?

सेवा का अर्थ है: तकनीक औरतों के पास जाए, औरतें तकनीक के पास नहीं। अगर AI औरतों का बोझ कम करती है—सुरक्षित ट्रांसपोर्ट, बेहतर हेल्थकेयर, फेयर हायरिंग—तो यह सेवा है।

पर अगर वही तकनीक औरतों को “हाई-रिस्क यूज़र” लेबल करे—क्रेडिट न दे, नौकरी न दे, हेल्थकेयर में कम प्राथमिकता दे—तो यह सेवा नहीं, सत्ता है।

भारत की चुनौती यह है कि AI को “औरत-केंद्रित सेवा” की तरह डिज़ाइन किया जाए—जहाँ औरतों की आवाज़ सुनी जाए, जहाँ शिकायत का तंत्र हो, जहाँ त्रुटि पर क्षमा-याचना और सुधार हो। अन्यथा, “स्मार्ट इंडिया” के नाम पर आधी आबादी कुचल दी जाएगी।

5) संतोष (Santosha): टिकाऊ समावेश का सवाल

AI में लैंगिक समावेश एक बार का प्रोजेक्ट नहीं; यह सतत प्रतिबद्धता है। AI मॉडल का अपडेट, डेटासेट का विस्तार, लीडरशिप में औरतों की भागीदारी—सब निरंतर ध्यान मांगते हैं।

संतोष का अर्थ यहाँ ‘लंबी जिम्मेदारी’ है: केवल “10 लाख औरतें ट्रेन” का आंकड़ा काफी नहीं—यह पूछना होगा कि 5 साल बाद कितनी औरतें AI कंपनियों में लीडर हैं? कितनी AI प्रोडक्ट्स औरतों की ज़रूरतों को पूरा कर रहे हैं? कितनी औरतें AI पॉलिसी बना रही हैं?

हाउस रिफ्लेक्शन (House Reflection)

हाउस ऑफ 7 में हम तकनीक को “सिर्फ़ टूल” नहीं मानते; हम उसे संबंध मानते हैं। जब एक औरत और एक AI सिस्टम एक देश में हों—तो यह केवल “उपयोगकर्ता बना प्लेटफ़ॉर्म” का समीकरण नहीं—यह एक नया लैंगिक-तकनीक संबंध है।

हमारा आदर्श बहुत सीधा है: तकनीक बहुआयामी हो, पर सत्ता एकआयामी न बने। यानी औरतों की सेवा में तकनीक बढ़े, पर औरतों का अधिकार भी उतना ही बढ़े।

डिजिटल धर्म का आग्रह है: तकनीक को “समावेशी” मानो—पर “टोकन” नहीं। समावेश का अर्थ है: औरतें डिज़ाइनर हों, लीडर हों, निर्माता हों। टोकन का अर्थ है: औरतें केवल फोटो में हों, पैनल में हों, ब्रोशर में हों। जब भारत 23 देशों को अपना AI मॉडल निर्यात कर रहा हो—तो यह जिम्मेदारी और बढ़ जाती है। क्या हम वह मॉडल निर्यात कर रहे हैं जो हम खुद अपनी औरतों के लिए चाहते हैं?

समापन प्रश्न (Closing Question)

अगर आने वाले वर्षों में भारत का AI इकोसिस्टम पूरी तरह विकसित हो जाए—तो हम किस तरह का देश बनेंगे: वह जहाँ हर औरत AI की निर्माता हो, या वह जहाँ हर औरत AI की विषय हो?


स्रोत (त्वरित एंकर)
1) Economic Times (Mar 2026): “From code to care: Making gender central to India’s AI future” — https://economictimes.indiatimes.com/small-biz/security-tech/technology/from-code-to-care-making-gender-central-to-indias-ai-future/articleshow/128334368.cms
2) Business World (Mar 2026): “Did ‘alpha male gathering’ leave women behind at India AI Impact Summit 2026?” — https://www.businessworld.in/article/did-alpha-male-gathering-leave-women-behind-at-india-ai-impact-summit-2026-594698
3) UNESCO (Mar 2026): “UNESCO and W4EAI South Asia Chapter hosts Women in AI Panel at India AI Impact Summit 2026” — https://www.unesco.org/en/articles/unesco-and-w4eai-south-asia-chapter-hosts-women-ai-panel-india-ai-impact-summit-2026
4) Deccan Herald (Apr 2026): “When AI mirrors gender biases” — https://www.deccanherald.com/opinion/when-ai-mirrors-gender-biases-3921242
5) YourStory HerStory (Mar 2026): “Why India’s AI startups need more women in science and stronger risk-taking” — https://yourstory.com/herstory/2026/03/why-indias-ai-startups-need-more-women-in-science-and-stronger-risk-thinking
6) India Today (Apr 2026): “The hidden bias in AI: How the future of work is quietly widening the gender gap” — https://www.indiatoday.in/jobs/story/the-hidden-bias-in-ai-how-the-future-of-work-is-quietly-widening-the-gender-gap-educ-2892105-2026-04-06

नोट (मापन/सेफ़्टी)
AI में लैंगिक बायस की “न्याय + अहिंसा” जांच के लिए केवल training-count स्कोर पर्याप्त नहीं—hiring-rejection parity (पुरुष/महिला रिजेक्शन रेट), credit-score parity (समान प्रोफाइल पर स्कोर अंतर), facial-recognition accuracy parity (पुरुष/महिला एरर रेट), और leadership-representation metrics (AI कंपनियों में महिला लीडर %) जैसे मेट्रिक्स को भी रिपोर्ट करना उपयोगी है।

Leave a Reply

Your email address will not be published. Required fields are marked *