आज के डिजिटल युग में आर्टिफिशियल इंटेलिजेंस यानी एआई हमारे जीवन का अहम हिस्सा बन चुका है। पढ़ाई-लिखाई, रिसर्च, जानकारी हासिल करने या यहां तक कि मनोरंजन के लिए भी एआई आधारित तकनीक का इस्तेमाल बढ़ता जा रहा है। बड़ी-बड़ी टेक कंपनियां और सोशल मीडिया प्लेटफ़ॉर्म्स अपने अलग-अलग एआई मॉडल्स को लॉन्च कर रहे हैं और इन्हें समय के साथ अपडेट भी कर रहे हैं। इस वजह से ये रोजमर्रा के जीवन के साथ जुड़ गए हैं और दिनोंदिन हमारी इन पर निर्भरता बढ़ती जा रही है। एआई पर आधारित वर्चुअल असिस्टेंट, चैटबॉट, रोबोट हमारी बातचीत और फ़ैसले तक पर असर डाल रहे हैं।
यहां तक कि इससे हमारे सोचने के तरीके में भी बदलाव आ रहा है। लेकिन तकनीक के इस तेज विकास के पीछे अक्सर एआई के बायस्ड जेंडर बाइनरी सिस्टम को अनदेखा कर दिया जाता है, जिससे नॉन बाइनरी, ट्रांसजेंडर और यहां तक कि सिस जेंडर लोगों पर भी नकारात्मक असर पड़ सकता है। ऑक्सफोर्ड इंटरनेट इंस्टीट्यूट (ओआईआई) की हाल की रिसर्च ने एआई के इसी पारंपरिक जेंडर बाइनरी सिस्टम को उजागर किया है।
ऑक्सफोर्ड इंटरनेट इंस्टीट्यूट के एक रिसर्च में 16 बड़े एआई मॉडल्स जैसे GPT, RoBERTa, T5, Llama और मिस्ट्रल को शामिल किया गया। नतीजों से पता चला कि यह मॉडल जेंडर को बायोलॉजी जैसे हॉर्मोन और प्रजनन अंग से जोड़कर देखते हैं और उसे स्त्री और पुरुष की जेंडर बाइनरी में बांट देते हैं।
एआई मॉडल में लैंगिक पक्षपात
ऑक्सफोर्ड इंटरनेट इंस्टीट्यूट के एक रिसर्च में 16 बड़े एआई मॉडल्स जैसे GPT, RoBERTa, T5, Llama और मिस्ट्रल को शामिल किया गया। नतीजों से पता चला कि यह मॉडल जेंडर को बायोलॉजी जैसे हॉर्मोन और प्रजनन अंग से जोड़कर देखते हैं और उसे स्त्री और पुरुष की जेंडर बाइनरी में बांट देते हैं। जैसेकि इन मॉडल्स ने टेस्टोस्टेरोन को सीधे तौर पर ‘पुरुष’ और गर्भाशय को ‘महिला’ से जोड़कर देखा। इस दौरान इन्होंने एलजीबीटीक्यू+ समुदाय को पूरी तरह से नज़रअंदाज कर दिया। इस तरह से एआई ने ऐसी महिलाओं को भी इस श्रेणी में शामिल नहीं किया, जिनका गर्भाशय हटाया गया हो या फिर मेनोपॉज हो चुका हो। ये एआई मॉडल्स व्यक्ति विशेष के बारे में बात करते हुए अक्सर स्त्री या पुरुष जैसे बाइनरी सिस्टम का इस्तेमाल करते हैं।

इनकी बातचीत में ट्रांसजेंडर या नॉन बाइनरी शब्दों का इस्तेमाल न के बराबर देखा गया। इसके साथ इस रिसर्च में कई सारे ऐसे पूर्वाग्रह भी देखे गए जो आमतौर पर पारंपरिक समाज में पाया जाता है। रिसर्च में 110 बीमारियों को उनके लक्षणों और जेंडर के हिसाब से अलग-अलग समूहों में बांटना था। इसमें एआई मॉडल्स ने शारीरिक बीमारियों को अधिकतर पुरुषों के साथ जोड़कर देखा जबकि मानसिक बीमारियों के समूहों में एलजीबीटीक्यू+ समुदाय और महिलाओं को रखा। ये सिस्टम जेंडर को बहुत ही सीमित और रूढ़िवादी बाइनरी सिस्टम से समझते हैं जोकि समानता और समावेशिता के लिहाज से भेदभावपूर्ण है। रिसर्च में पाया गया कि जितने बड़े मॉडल होते हैं उनमें इस तरह के बायस और भी ज़्यादा होते हैं।
रिसर्च में 110 बीमारियों को उनके लक्षणों और जेंडर के हिसाब से अलग-अलग समूहों में बांटना था। इसमें एआई मॉडल्स ने शारीरिक बीमारियों को अधिकतर पुरुषों के साथ जोड़कर देखा जबकि मानसिक बीमारियों के समूहों में एलजीबीटीक्यू+ समुदाय और महिलाओं को रखा।
यूएन वुमन में प्रकाशित बर्कले हास सेंटर फॉर इक्विटी, जेंडर एंड लीडरशिप के किए गए एक रिसर्च में 133 एआई मॉडल्स पर प्रयोग किया गय। शोध में यह पाया गया कि उनमें से लगभग 44 फीसद में लैंगिक रूप से पक्षपाती हैं। इसी तरह तुर्की की बेज़ा दोगुक ने एक एआई मॉडल की सहायता से एक उपन्यास के बारे में रिसर्च किया। इसमें डॉक्टर और नर्स से जुड़ी एक कहानी लिखनी थ। एआई ने डॉक्टर को ‘पुरुष’ और ‘नर्स’ को महिला के तौर पर देखा। यूएन वुमन के साथ एक इन्टरव्यू में दोगुक ने कहा कि आर्टिफिशियल इंटेलिजेंस हमारे समाज में मौजूद पूर्वाग्रहों को दिखाती है, जो एआई प्रशिक्षण डेटा में उजागर होती है। इसी प्रयोग में जब एआई से जेंडर बायस और पूर्वाग्रह की वजह पूछी गई तो उन्होंने इस बारे में ट्रेनिंग के दौरान दिए गए डाटा खास तौर पर ‘वर्ड एंबेडिंग’ को बताया। वर्ड एम्बेडिंग एक तकनीक है, जिसमें शब्दों को न्यूमेरिकल वेक्टर या कोड में बदला जाता है जिससे कंप्यूटर या मशीन उन्हें समझ सके।
हेल्थकेयर में भेदभाव और इससे होने वाले ख़तरे

अब जबकि तकनीक के विकास के साथ ही ज़िंदगी के लगभग सभी क्षेत्रों में एआई का इस्तेमाल दिखाई देता है, आम लोगों के साथ ही प्रोफेशनल्स भी इनका इस्तेमाल अपने काम के लिए करते हैं। ऐसे में एआई के इस तरह के बायस्ड सोच के बहुत गंभीर प्रभाव का खतरा सभी को उठाना पड़ सकता है। इससे ख़ासतौर पर हेल्थ केयर सेक्टर में चुनौतियां और बढ़ सकती हैं। मेडिकल प्रोफेशनल्स भी चूंकि इसी पारंपरिक रूढ़िवादी समाज का हिस्सा हैं, ऐसे में अगर एआई भी उनकी इसी सोच को बढ़ावा देगी जोकि जेंडर को बाइनरी और बायोलॉजिकल समझते हैं, तो वह नॉन बाइनरी और ट्रांसजेंडर लोगों को सही सलाह, उपचार और देखभाल नहीं दे सकते। जैसेकि कोई ट्रांस महिला जिसका गर्भाशय न हो, डॉक्टर चैट बॉट से अपने सेहत से जुड़ी कोई सलाह मांगे तो वह मॉडल यह मानकर कि हर महिला के पास गर्भाशय होता है उसे ग़लत सलाह दे सकता है।
यूएन वुमन में प्रकाशित बर्कले हास सेंटर फॉर इक्विटी, जेंडर एंड लीडरशिप के किए गए एक रिसर्च में 133 एआई मॉडल्स पर प्रयोग किया गय। शोध में यह पाया गया कि उनमें से लगभग 44 फीसद में लैंगिक रूप से पक्षपाती हैं। इसी तरह तुर्की की बेज़ा दोगुक ने एक एआई मॉडल की सहायता से एक उपन्यास के बारे में रिसर्च किया।
ऑक्सफोर्ड विश्वविद्यालय के रिसर्च में यह भी देखा गया कि GPT-2 जैसे एआई मॉडल ने क्वीयर समुदाय को पोस्ट ट्रॉमैटिक स्ट्रेस डिसऑर्डर (PTSD) जैसी मानसिक बीमारी से जोड़कर देखा। जहां समाज में एलजीबीटीक्यू+ समुदाय को लेकर पहले से ही पूर्वाग्रह और ग़लत धारणा बनी हुई है, ऐसे में एआई की ग़लत जानकारी इनके लिए और मुश्किलें पैदा कर सकती है। सेंटर फॉर अमेरिकन प्रोग्रेस (सीएपी) की एक रिपोर्ट के मुताबिक भेदभाव और पूर्वाग्रह की वजह से 37 फीसद ट्रांस और 33 फीसद नॉनबाइनरी लोग डॉक्टर के पास जाने से डरते हैं। ऐसे में एआई की ग़लत जानकारी उनके लिए और मुश्किल पैदा कर सकती है। हालांकि यह ख़तरा सिर्फ़ नॉन बाइनरी और ट्रांस लोगों के लिए ही नहीं है बल्कि सिस जेंडर और महिलाओं की सेहत के लिए भी जोख़िम भरा है। पितृसत्तात्मक मानसिकता से ग्रस्त लोग; ख़ासतौर पर पुरुष; महिलाओं की बीमारी को मानसिक और हिस्टीरिया का नाम देकर उसकी गंभीरता को नज़रअंदाज करते हैं। ऐसे में एआई मॉडल अगर अपने पुराने डेटा से ही सीखेंगे तो यह भेदभाव दिनोंदिन और बढ़ता जाएगा जोकि समाज को पीछे की ओर ही ले जाएगा।
समाज पर इसका प्रभाव

हेल्थ केयर के अलावा एआई मॉडल के इस पक्षपात का असर पूरे समाज में देखा जा सकता है। आज जब ज़्यादा से ज़्यादा आबादी तक मोबाइल और इंटरनेट की पहुंच है, ऐसे में एआई का बढ़ता इस्तेमाल चुनौतियों से भरा है। एक तरफ जहां सूचना और तकनीक की मौजूदगी लोगों को सशक्त बना रही है, वहीं दूसरी तरफ इस तरह के भेदभावपूर्ण एआई मॉडल समाज में पहले से मौजूद रूढ़िवादी ढांचे को और मजबूत करने का काम कर रहे हैं। जेंडर बाइनरी में बंटा पारंपरिक समाज जो परंपरा और संस्कृति के नाम पर पहले से ही लैंगिक भेदभाव को बढ़ावा देता आ रहा है, वहां लैंगिक रूप से पक्षपाती एआई इसे और मजबूत करने का काम करेगा। ऐसे में जब कोई नॉन बाइनरी या ट्रांसजेंडर समुदाय का व्यक्ति ऐसे बायस्ड एआई का इस्तेमाल करेंगे, तो न सिर्फ उन्हें गलत परिणाम मिलेगा बल्कि विभिन्न नुकसान का सामना करना पड़ सकता है। साथ ही वैज्ञानिक और तर्कपूर्ण जानकारी के अभाव में उनकी समस्याएं और भी बढ़ सकती हैं।
साल 2023 की ग्लोबल जेंडर गैप रिपोर्ट के अनुसार, वर्तमान में एआई के क्षेत्र में केवल 30 फीसद महिलाएं ही काम कर रही हैं। इसके साथ ही इससे जुड़े रिसर्चर, इंजीनियर और साइंटिस्ट को जेंडर बाइनरी के फ्रेमवर्क से बाहर निकल कर जेंडर के कॉन्सेप्ट और स्पेक्ट्रम को समझना पड़ेगा, जिसमें ट्रांसजेंडर और नॉन बाइनरी लोग भी शामिल हों।
लैंगिक रूप से समावेशी एआई की ज़रूरत
एआई के बढ़ते इस्तेमाल के बीच जब समय-समय पर इसे अपडेट किया जा रहा है और इसके अधिक विकसित मॉडल बनाए जा रहे हैं, ऐसे में इस तरह की कमियों को अनदेखा करना समावेशी समाज बनाने के लिहाज से ख़तरनाक साबित हो सकता है। इस समस्या को सुधारने के लिए एआई की ट्रेनिंग पर विशेष ध्यान देना पड़ेगा। एआई के रिसर्च और डेवलपमेंट में महिलाओं और नॉन बाइनरी लोगों की भागीदारी सुनिश्चित करनी पड़ेगी जिससे ट्रेनिंग के दौरान उनमें विविधता और समावेशिता की समझ विकसित की जा सके। साल 2023 की ग्लोबल जेंडर गैप रिपोर्ट के अनुसार, वर्तमान में एआई के क्षेत्र में केवल 30 फीसद महिलाएं ही काम कर रही हैं। इसके साथ ही इससे जुड़े रिसर्चर, इंजीनियर और साइंटिस्ट को जेंडर बाइनरी के फ्रेमवर्क से बाहर निकल कर जेंडर के कॉन्सेप्ट और स्पेक्ट्रम को समझना पड़ेगा, जिसमें ट्रांसजेंडर और नॉन बाइनरी लोग भी शामिल हों।
डेवलपर को मॉडल की परफॉर्मेंस के साथ ही इस तरह के जेंडर बॉयस को कम करने के लिए भी कोशिश करनी होगी। सरकार और रेगुलेटरी बॉडीज को एक साथ मिलकर ऐसी नीतियां बनानी होंगी जो डेवलपर्स को और ज़िम्मेदार बनाएं, जिससे भविष्य में इस तरह की ग़लतियां होने की गुंजाइश कम हो। विज्ञान और तकनीक समाज को आगे ले जाने के लिए होते हैं। इसलिए विज्ञान को सिर्फ़ तकनीकी विकास के लिए नहीं बल्कि समावेशी मानवीय विकास के काम में लिया जाना चाहिए, तभी असल मायने में इसे विकास कहा जा सकता है।

