नियुक्ति के लिए एआई का उपयोग करने का वादा और खतरे: डेटा पूर्वाग्रह से सावधान रहें
Latest Technology, (लेटेस्ट टेक न्यूज़) Gadget (गैजेट्स) …

एआई ट्रेंड्स स्टाफ द्वारा
जबकि भर्ती में एआई का उपयोग अब नौकरी विवरण लिखने, उम्मीदवारों की स्क्रीनिंग और साक्षात्कार को स्वचालित करने के लिए व्यापक रूप से किया जाता है, अगर इसे सावधानीपूर्वक लागू नहीं किया गया तो यह व्यापक भेदभाव का खतरा पैदा करता है।

यह अमेरिकी समान अवसर आयोग के आयुक्त कीथ सोंडरलिंग का संदेश था, जो उन्होंने सम्मेलन में बोलते हुए कहा था। एआई विश्व सरकार कार्यक्रम पिछले सप्ताह अलेक्जेंड्रिया, वर्जीनिया में लाइव और वर्चुअली आयोजित किया गया। सोंडरलिंग संघीय कानूनों को लागू करने के लिए जिम्मेदार है जो जाति, रंग, धर्म, लिंग, राष्ट्रीय मूल, उम्र या विकलांगता के कारण नौकरी आवेदकों के खिलाफ भेदभाव पर रोक लगाता है।
उन्होंने कहा, “मानव संसाधन विभागों में एआई मुख्यधारा बन जाएगा, यह विचार दो साल पहले विज्ञान कथा के करीब था, लेकिन महामारी ने नियोक्ताओं द्वारा एआई का उपयोग करने की दर को तेज कर दिया है।” “आभासी भर्ती अब यहाँ रहने के लिए है।”
यह मानव संसाधन पेशेवरों के लिए व्यस्त समय है। सोंडरलिंग ने कहा, “महान इस्तीफा महान पुनर्नियुक्ति की ओर ले जा रहा है और एआई इसमें ऐसी भूमिका निभाएगा जैसा हमने पहले नहीं देखा है।”
एआई को नियुक्ति में वर्षों से नियोजित किया गया है – “यह रातोरात नहीं हुआ।” – अनुप्रयोगों के साथ चैट करने, यह भविष्यवाणी करने कि क्या कोई उम्मीदवार नौकरी लेगा, यह अनुमान लगाना कि वे किस प्रकार के कर्मचारी होंगे और अपस्किलिंग और रीस्किलिंग अवसरों की मैपिंग सहित कार्यों के लिए। “संक्षेप में, एआई अब एचआर कर्मियों द्वारा लिए गए सभी निर्णय ले रहा है,” जिसे उन्होंने अच्छा या बुरा नहीं बताया।
सोंडरलिंग ने कहा, “सावधानीपूर्वक डिजाइन और उचित तरीके से उपयोग किए जाने पर, एआई में कार्यस्थल को अधिक निष्पक्ष बनाने की क्षमता है।” “लेकिन लापरवाही से लागू किए जाने पर, एआई उस पैमाने पर भेदभाव कर सकता है जो हमने पहले कभी किसी एचआर पेशेवर द्वारा नहीं देखा है।”
भर्ती के लिए उपयोग किए जाने वाले एआई मॉडल के लिए प्रशिक्षण डेटासेट में विविधता को प्रतिबिंबित करने की आवश्यकता है
ऐसा इसलिए है क्योंकि AI मॉडल प्रशिक्षण डेटा पर निर्भर करते हैं। यदि कंपनी के वर्तमान कार्यबल को प्रशिक्षण के आधार के रूप में उपयोग किया जाता है, तो “यह यथास्थिति को दोहराएगा। यदि यह मुख्य रूप से एक लिंग या एक जाति है, तो यह उसे दोहराएगा,” उन्होंने कहा। इसके विपरीत, एआई नस्ल, जातीय पृष्ठभूमि या विकलांगता स्थिति के आधार पर भर्ती में पूर्वाग्रह के जोखिम को कम करने में मदद कर सकता है। उन्होंने कहा, “मैं एआई को कार्यस्थल भेदभाव में सुधार देखना चाहता हूं।”
अमेज़ॅन ने 2014 में एक भर्ती एप्लिकेशन का निर्माण शुरू किया, और समय के साथ पाया कि उसने अपनी सिफारिशों में महिलाओं के साथ भेदभाव किया है, क्योंकि एआई मॉडल को कंपनी के पिछले 10 वर्षों के अपने भर्ती रिकॉर्ड के डेटासेट पर प्रशिक्षित किया गया था, जो मुख्य रूप से पुरुषों का था। अमेज़ॅन डेवलपर्स ने इसे ठीक करने की कोशिश की लेकिन अंततः 2017 में सिस्टम को ख़त्म कर दिया।
फेसबुक ने हाल ही में अमेरिकी सरकार के नागरिक दावों को निपटाने के लिए $14.25 मिलियन का भुगतान करने पर सहमति व्यक्त की है कि सोशल मीडिया कंपनी ने अमेरिकी श्रमिकों के साथ भेदभाव किया और संघीय भर्ती नियमों का उल्लंघन किया, एक अकाउंट के अनुसार रॉयटर्स. यह मामला फेसबुक द्वारा श्रम प्रमाणन के लिए अपने PERM कार्यक्रम के उपयोग पर केंद्रित था। सरकार ने पाया कि फेसबुक ने अमेरिकी श्रमिकों को उन नौकरियों के लिए नियुक्त करने से इनकार कर दिया जो PERM कार्यक्रम के तहत अस्थायी वीजा धारकों के लिए आरक्षित थीं।
सोंडरलिंग ने कहा, “भर्ती पूल से लोगों को बाहर करना एक उल्लंघन है।” यदि एआई कार्यक्रम “उस वर्ग के लिए नौकरी के अवसर के अस्तित्व को रोकता है, तो वे अपने अधिकारों का प्रयोग नहीं कर सकते हैं, या यदि यह संरक्षित वर्ग को डाउनग्रेड करता है, तो यह हमारे डोमेन के भीतर है,” उन्होंने कहा।
रोजगार मूल्यांकन, जो द्वितीय विश्व युद्ध के बाद अधिक सामान्य हो गया, ने मानव संसाधन प्रबंधकों को उच्च मूल्य प्रदान किया है और एआई की मदद से उनमें नियुक्ति में पूर्वाग्रह को कम करने की क्षमता है। सोंडरलिंग ने कहा, “साथ ही, वे भेदभाव के दावों के प्रति संवेदनशील हैं, इसलिए नियोक्ताओं को सावधान रहने की जरूरत है और वे लापरवाही वाला रुख नहीं अपना सकते।” “गलत डेटा निर्णय लेने में पूर्वाग्रह को बढ़ाएगा। नियोक्ताओं को भेदभावपूर्ण परिणामों के प्रति सतर्क रहना चाहिए।”
उन्होंने उन विक्रेताओं से समाधानों पर शोध करने की सिफारिश की जो नस्ल, लिंग और अन्य कारकों के आधार पर पूर्वाग्रह के जोखिमों के लिए डेटा की जांच करते हैं।
एक उदाहरण से है HireVue दक्षिण जॉर्डन, यूटा में, जिसने अमेरिकी समान अवसर आयोग के समान दिशानिर्देशों पर आधारित एक भर्ती मंच बनाया है, जिसे विशेष रूप से अनुचित भर्ती प्रथाओं को कम करने के लिए डिज़ाइन किया गया है, एक लेख के अनुसार सभी काम.
अपनी वेबसाइट पर एआई नैतिक सिद्धांतों पर एक पोस्ट में आंशिक रूप से कहा गया है, “चूंकि हायरव्यू हमारे उत्पादों में एआई तकनीक का उपयोग करता है, इसलिए हम किसी भी समूह या व्यक्ति के खिलाफ पूर्वाग्रह के परिचय या प्रसार को रोकने के लिए सक्रिय रूप से काम करते हैं। हम अपने काम में उपयोग किए जाने वाले डेटासेट की सावधानीपूर्वक समीक्षा करना जारी रखेंगे और सुनिश्चित करेंगे कि वे यथासंभव सटीक और विविध हैं। हम पूर्वाग्रह की निगरानी, पता लगाने और कम करने के लिए अपनी क्षमताओं को आगे बढ़ाना जारी रखते हैं। हम अपने सिस्टम के लोगों का सर्वोत्तम प्रतिनिधित्व करने के लिए विविध ज्ञान, अनुभव और दृष्टिकोण के साथ विविध पृष्ठभूमि से टीमों का निर्माण करने का प्रयास करते हैं। सेवा करो।”
साथ ही, “हमारे डेटा वैज्ञानिक और आईओ मनोवैज्ञानिक हायरव्यू असेसमेंट एल्गोरिदम का निर्माण इस तरह से करते हैं कि एल्गोरिदम द्वारा डेटा को विचार से हटा दिया जाता है जो मूल्यांकन की पूर्वानुमान सटीकता को महत्वपूर्ण रूप से प्रभावित किए बिना प्रतिकूल प्रभाव में योगदान देता है। परिणाम एक अत्यधिक वैध, पूर्वाग्रह-कम करने वाला मूल्यांकन है जो लिंग, जातीयता, आयु या विकलांगता की स्थिति की परवाह किए बिना सक्रिय रूप से विविधता और समान अवसर को बढ़ावा देते हुए मानव निर्णय लेने में मदद करता है।”

एआई मॉडल को प्रशिक्षित करने के लिए उपयोग किए जाने वाले डेटासेट में पूर्वाग्रह का मुद्दा केवल नियुक्ति तक ही सीमित नहीं है। जीवन विज्ञान उद्योग में काम करने वाली एआई एनालिटिक्स कंपनी, एआईक्योर के सीईओ डॉ. एड इकेगुची ने हाल ही में एक लेख में कहा हेल्थकेयरआईटीन्यूज़“एआई केवल उतना ही मजबूत है जितना डेटा इसे खिलाया जाता है, और हाल ही में उस डेटा बैकबोन की विश्वसनीयता पर तेजी से सवाल उठाए जा रहे हैं। आज के एआई डेवलपर्स के पास बड़े, विविध डेटा सेट तक पहुंच नहीं है, जिस पर नए टूल को प्रशिक्षित और मान्य किया जा सके।
उन्होंने आगे कहा, “उन्हें अक्सर ओपन-सोर्स डेटासेट का लाभ उठाने की आवश्यकता होती है, लेकिन इनमें से कई को कंप्यूटर प्रोग्रामर स्वयंसेवकों का उपयोग करके प्रशिक्षित किया गया था, जो मुख्य रूप से श्वेत आबादी है। क्योंकि एल्गोरिदम को अक्सर सीमित विविधता वाले एकल-मूल डेटा नमूनों पर प्रशिक्षित किया जाता है, जब वास्तविक दुनिया के परिदृश्यों में विभिन्न नस्लों, लिंगों, उम्र और अधिक की व्यापक आबादी के लिए लागू किया जाता है, तो अनुसंधान में अत्यधिक सटीक दिखाई देने वाली तकनीक अविश्वसनीय साबित हो सकती है।”
साथ ही, “सभी एल्गोरिदम के लिए शासन और सहकर्मी समीक्षा का एक तत्व होना चाहिए, क्योंकि सबसे ठोस और परीक्षण किए गए एल्गोरिदम में भी अप्रत्याशित परिणाम आने तय हैं। एक एल्गोरिदम कभी भी सीखा नहीं जाता है—इसे लगातार विकसित किया जाना चाहिए और इसमें सुधार के लिए अधिक डेटा डाला जाना चाहिए।
और, “एक उद्योग के रूप में, हमें एआई के निष्कर्षों पर अधिक संदेह करने और उद्योग में पारदर्शिता को प्रोत्साहित करने की आवश्यकता है। कंपनियों को बुनियादी सवालों का आसानी से जवाब देना चाहिए, जैसे ‘एल्गोरिदम को कैसे प्रशिक्षित किया गया था? किस आधार पर उसने यह निष्कर्ष निकाला?”
स्रोत लेख और जानकारी यहां पढ़ें एआई विश्व सरकारएफROM रॉयटर्स और से हेल्थकेयरआईटीन्यूज़.
(टैग्सटूट्रांसलेट)रखरखाव मोड
Latest Technology, (लेटेस्ट टेक न्यूज़) Gadget (गैजेट्स) …
Source link
