नियुक्ति के लिए एआई का उपयोग करने का वादा और खतरे: डेटा पूर्वाग्रह से सावधान रहें

Latest Technology, (लेटेस्ट टेक न्यूज़) Gadget (गैजेट्स) …

10 29EEOCLogo 1

एआई ट्रेंड्स स्टाफ द्वारा

जबकि भर्ती में एआई का उपयोग अब नौकरी विवरण लिखने, उम्मीदवारों की स्क्रीनिंग और साक्षात्कार को स्वचालित करने के लिए व्यापक रूप से किया जाता है, अगर इसे सावधानीपूर्वक लागू नहीं किया गया तो यह व्यापक भेदभाव का खतरा पैदा करता है।

10 29KeithSonderling 1
कीथ सोंडरलिंग, आयुक्त, अमेरिकी समान अवसर आयोग

यह अमेरिकी समान अवसर आयोग के आयुक्त कीथ सोंडरलिंग का संदेश था, जो उन्होंने सम्मेलन में बोलते हुए कहा था। एआई विश्व सरकार कार्यक्रम पिछले सप्ताह अलेक्जेंड्रिया, वर्जीनिया में लाइव और वर्चुअली आयोजित किया गया। सोंडरलिंग संघीय कानूनों को लागू करने के लिए जिम्मेदार है जो जाति, रंग, धर्म, लिंग, राष्ट्रीय मूल, उम्र या विकलांगता के कारण नौकरी आवेदकों के खिलाफ भेदभाव पर रोक लगाता है।

उन्होंने कहा, “मानव संसाधन विभागों में एआई मुख्यधारा बन जाएगा, यह विचार दो साल पहले विज्ञान कथा के करीब था, लेकिन महामारी ने नियोक्ताओं द्वारा एआई का उपयोग करने की दर को तेज कर दिया है।” “आभासी भर्ती अब यहाँ रहने के लिए है।”

यह मानव संसाधन पेशेवरों के लिए व्यस्त समय है। सोंडरलिंग ने कहा, “महान इस्तीफा महान पुनर्नियुक्ति की ओर ले जा रहा है और एआई इसमें ऐसी भूमिका निभाएगा जैसा हमने पहले नहीं देखा है।”

एआई को नियुक्ति में वर्षों से नियोजित किया गया है – “यह रातोरात नहीं हुआ।” – अनुप्रयोगों के साथ चैट करने, यह भविष्यवाणी करने कि क्या कोई उम्मीदवार नौकरी लेगा, यह अनुमान लगाना कि वे किस प्रकार के कर्मचारी होंगे और अपस्किलिंग और रीस्किलिंग अवसरों की मैपिंग सहित कार्यों के लिए। “संक्षेप में, एआई अब एचआर कर्मियों द्वारा लिए गए सभी निर्णय ले रहा है,” जिसे उन्होंने अच्छा या बुरा नहीं बताया।

सोंडरलिंग ने कहा, “सावधानीपूर्वक डिजाइन और उचित तरीके से उपयोग किए जाने पर, एआई में कार्यस्थल को अधिक निष्पक्ष बनाने की क्षमता है।” “लेकिन लापरवाही से लागू किए जाने पर, एआई उस पैमाने पर भेदभाव कर सकता है जो हमने पहले कभी किसी एचआर पेशेवर द्वारा नहीं देखा है।”

भर्ती के लिए उपयोग किए जाने वाले एआई मॉडल के लिए प्रशिक्षण डेटासेट में विविधता को प्रतिबिंबित करने की आवश्यकता है

ऐसा इसलिए है क्योंकि AI मॉडल प्रशिक्षण डेटा पर निर्भर करते हैं। यदि कंपनी के वर्तमान कार्यबल को प्रशिक्षण के आधार के रूप में उपयोग किया जाता है, तो “यह यथास्थिति को दोहराएगा। यदि यह मुख्य रूप से एक लिंग या एक जाति है, तो यह उसे दोहराएगा,” उन्होंने कहा। इसके विपरीत, एआई नस्ल, जातीय पृष्ठभूमि या विकलांगता स्थिति के आधार पर भर्ती में पूर्वाग्रह के जोखिम को कम करने में मदद कर सकता है। उन्होंने कहा, “मैं एआई को कार्यस्थल भेदभाव में सुधार देखना चाहता हूं।”

अमेज़ॅन ने 2014 में एक भर्ती एप्लिकेशन का निर्माण शुरू किया, और समय के साथ पाया कि उसने अपनी सिफारिशों में महिलाओं के साथ भेदभाव किया है, क्योंकि एआई मॉडल को कंपनी के पिछले 10 वर्षों के अपने भर्ती रिकॉर्ड के डेटासेट पर प्रशिक्षित किया गया था, जो मुख्य रूप से पुरुषों का था। अमेज़ॅन डेवलपर्स ने इसे ठीक करने की कोशिश की लेकिन अंततः 2017 में सिस्टम को ख़त्म कर दिया।

फेसबुक ने हाल ही में अमेरिकी सरकार के नागरिक दावों को निपटाने के लिए $14.25 मिलियन का भुगतान करने पर सहमति व्यक्त की है कि सोशल मीडिया कंपनी ने अमेरिकी श्रमिकों के साथ भेदभाव किया और संघीय भर्ती नियमों का उल्लंघन किया, एक अकाउंट के अनुसार रॉयटर्स. यह मामला फेसबुक द्वारा श्रम प्रमाणन के लिए अपने PERM कार्यक्रम के उपयोग पर केंद्रित था। सरकार ने पाया कि फेसबुक ने अमेरिकी श्रमिकों को उन नौकरियों के लिए नियुक्त करने से इनकार कर दिया जो PERM कार्यक्रम के तहत अस्थायी वीजा धारकों के लिए आरक्षित थीं।

सोंडरलिंग ने कहा, “भर्ती पूल से लोगों को बाहर करना एक उल्लंघन है।” यदि एआई कार्यक्रम “उस वर्ग के लिए नौकरी के अवसर के अस्तित्व को रोकता है, तो वे अपने अधिकारों का प्रयोग नहीं कर सकते हैं, या यदि यह संरक्षित वर्ग को डाउनग्रेड करता है, तो यह हमारे डोमेन के भीतर है,” उन्होंने कहा।

रोजगार मूल्यांकन, जो द्वितीय विश्व युद्ध के बाद अधिक सामान्य हो गया, ने मानव संसाधन प्रबंधकों को उच्च मूल्य प्रदान किया है और एआई की मदद से उनमें नियुक्ति में पूर्वाग्रह को कम करने की क्षमता है। सोंडरलिंग ने कहा, “साथ ही, वे भेदभाव के दावों के प्रति संवेदनशील हैं, इसलिए नियोक्ताओं को सावधान रहने की जरूरत है और वे लापरवाही वाला रुख नहीं अपना सकते।” “गलत डेटा निर्णय लेने में पूर्वाग्रह को बढ़ाएगा। नियोक्ताओं को भेदभावपूर्ण परिणामों के प्रति सतर्क रहना चाहिए।”

उन्होंने उन विक्रेताओं से समाधानों पर शोध करने की सिफारिश की जो नस्ल, लिंग और अन्य कारकों के आधार पर पूर्वाग्रह के जोखिमों के लिए डेटा की जांच करते हैं।

एक उदाहरण से है HireVue दक्षिण जॉर्डन, यूटा में, जिसने अमेरिकी समान अवसर आयोग के समान दिशानिर्देशों पर आधारित एक भर्ती मंच बनाया है, जिसे विशेष रूप से अनुचित भर्ती प्रथाओं को कम करने के लिए डिज़ाइन किया गया है, एक लेख के अनुसार सभी काम.

अपनी वेबसाइट पर एआई नैतिक सिद्धांतों पर एक पोस्ट में आंशिक रूप से कहा गया है, “चूंकि हायरव्यू हमारे उत्पादों में एआई तकनीक का उपयोग करता है, इसलिए हम किसी भी समूह या व्यक्ति के खिलाफ पूर्वाग्रह के परिचय या प्रसार को रोकने के लिए सक्रिय रूप से काम करते हैं। हम अपने काम में उपयोग किए जाने वाले डेटासेट की सावधानीपूर्वक समीक्षा करना जारी रखेंगे और सुनिश्चित करेंगे कि वे यथासंभव सटीक और विविध हैं। हम पूर्वाग्रह की निगरानी, ​​पता लगाने और कम करने के लिए अपनी क्षमताओं को आगे बढ़ाना जारी रखते हैं। हम अपने सिस्टम के लोगों का सर्वोत्तम प्रतिनिधित्व करने के लिए विविध ज्ञान, अनुभव और दृष्टिकोण के साथ विविध पृष्ठभूमि से टीमों का निर्माण करने का प्रयास करते हैं। सेवा करो।”

साथ ही, “हमारे डेटा वैज्ञानिक और आईओ मनोवैज्ञानिक हायरव्यू असेसमेंट एल्गोरिदम का निर्माण इस तरह से करते हैं कि एल्गोरिदम द्वारा डेटा को विचार से हटा दिया जाता है जो मूल्यांकन की पूर्वानुमान सटीकता को महत्वपूर्ण रूप से प्रभावित किए बिना प्रतिकूल प्रभाव में योगदान देता है। परिणाम एक अत्यधिक वैध, पूर्वाग्रह-कम करने वाला मूल्यांकन है जो लिंग, जातीयता, आयु या विकलांगता की स्थिति की परवाह किए बिना सक्रिय रूप से विविधता और समान अवसर को बढ़ावा देते हुए मानव निर्णय लेने में मदद करता है।”

10 29EdIkeguchi 1
डॉ. एड इकेगुची, सीईओ, एआईक्योर

एआई मॉडल को प्रशिक्षित करने के लिए उपयोग किए जाने वाले डेटासेट में पूर्वाग्रह का मुद्दा केवल नियुक्ति तक ही सीमित नहीं है। जीवन विज्ञान उद्योग में काम करने वाली एआई एनालिटिक्स कंपनी, एआईक्योर के सीईओ डॉ. एड इकेगुची ने हाल ही में एक लेख में कहा हेल्थकेयरआईटीन्यूज़एआई केवल उतना ही मजबूत है जितना डेटा इसे खिलाया जाता है, और हाल ही में उस डेटा बैकबोन की विश्वसनीयता पर तेजी से सवाल उठाए जा रहे हैं। आज के एआई डेवलपर्स के पास बड़े, विविध डेटा सेट तक पहुंच नहीं है, जिस पर नए टूल को प्रशिक्षित और मान्य किया जा सके।

उन्होंने आगे कहा, “उन्हें अक्सर ओपन-सोर्स डेटासेट का लाभ उठाने की आवश्यकता होती है, लेकिन इनमें से कई को कंप्यूटर प्रोग्रामर स्वयंसेवकों का उपयोग करके प्रशिक्षित किया गया था, जो मुख्य रूप से श्वेत आबादी है। क्योंकि एल्गोरिदम को अक्सर सीमित विविधता वाले एकल-मूल डेटा नमूनों पर प्रशिक्षित किया जाता है, जब वास्तविक दुनिया के परिदृश्यों में विभिन्न नस्लों, लिंगों, उम्र और अधिक की व्यापक आबादी के लिए लागू किया जाता है, तो अनुसंधान में अत्यधिक सटीक दिखाई देने वाली तकनीक अविश्वसनीय साबित हो सकती है।”

साथ ही, “सभी एल्गोरिदम के लिए शासन और सहकर्मी समीक्षा का एक तत्व होना चाहिए, क्योंकि सबसे ठोस और परीक्षण किए गए एल्गोरिदम में भी अप्रत्याशित परिणाम आने तय हैं। एक एल्गोरिदम कभी भी सीखा नहीं जाता हैइसे लगातार विकसित किया जाना चाहिए और इसमें सुधार के लिए अधिक डेटा डाला जाना चाहिए।

और, “एक उद्योग के रूप में, हमें एआई के निष्कर्षों पर अधिक संदेह करने और उद्योग में पारदर्शिता को प्रोत्साहित करने की आवश्यकता है। कंपनियों को बुनियादी सवालों का आसानी से जवाब देना चाहिए, जैसे ‘एल्गोरिदम को कैसे प्रशिक्षित किया गया था? किस आधार पर उसने यह निष्कर्ष निकाला?”

स्रोत लेख और जानकारी यहां पढ़ें एआई विश्व सरकारएफROM रॉयटर्स और से हेल्थकेयरआईटीन्यूज़.

(टैग्सटूट्रांसलेट)रखरखाव मोड
Latest Technology, (लेटेस्ट टेक न्यूज़) Gadget (गैजेट्स) …

Source link

Leave a Reply

Your email address will not be published. Required fields are marked *