मशीन लर्निंग “आगमन कैलेंडर” दिन 5: एक्सेल में जीएमएम
Latest Technology, (लेटेस्ट टेक न्यूज़) Gadget (गैजेट्स) …
पिछले लेख में, हमने K-मीन्स के साथ दूरी-आधारित क्लस्टरिंग का पता लगाया था।
आगे: दूरी को मापने के तरीके को बेहतर बनाने के लिए हम महालनोबिस दूरी प्राप्त करने के लिए भिन्नता जोड़ते हैं।
तो, यदि के-मीन्स इसका अप्रशिक्षित संस्करण है निकटतम सेंट्रोइड क्लासिफायरियरतो स्वाभाविक प्रश्न यह है:
QDA का अप्रशिक्षित संस्करण क्या है?
इसका मतलब यह है कि QDA की तरह, अब प्रत्येक क्लस्टर को न केवल उसके द्वारा वर्णित किया जाना चाहिए अर्थलेकिन इसके द्वारा भी झगड़ा (और यदि सुविधाओं की संख्या 2 से अधिक है तो हमें सहप्रसरण भी जोड़ना होगा)। लेकिन यहां सब कुछ सीखा जाता है बिना लेबल के.
तो आप विचार समझ गए, है ना?
और खैर, इस मॉडल का नाम है गाऊसी मिश्रण मॉडल (जीएमएम)…
GMM और इन मॉडलों के नाम…
जैसा कि अक्सर होता है, मॉडलों के नाम ऐतिहासिक कारणों से आते हैं। यदि वे एक साथ नहीं पाए जाते हैं तो वे हमेशा मॉडलों के बीच संबंधों को उजागर करने के लिए डिज़ाइन नहीं किए जाते हैं।
अलग-अलग शोधकर्ता, अलग-अलग अवधि, अलग-अलग उपयोग के मामले… और अंत में हमें ऐसे नाम मिलते हैं जो कभी-कभी विचारों के पीछे की वास्तविक संरचना को छिपा देते हैं।
यहां, “गॉसियन मिक्सचर मॉडल” नाम का सीधा सा अर्थ है कि डेटा को एक के रूप में दर्शाया गया है कई गाऊसी वितरणों का मिश्रण.
यदि हम उसी नामकरण तर्क का पालन करें k-साधनइसे कुछ इस तरह कहना अधिक स्पष्ट होता के-गाऊसी मिश्रण
क्योंकि, व्यवहार में, हम केवल साधनों का उपयोग करने के बजाय, भिन्नता जोड़ते हैं। और हम केवल महालनोबिस दूरी, या साधन और विचरण दोनों का उपयोग करके किसी अन्य भारित दूरी का उपयोग कर सकते हैं। लेकिन गाऊसी वितरण हमें ऐसी संभावनाएँ देता है जिनकी व्याख्या करना आसान है।
तो हम एक संख्या चुनते हैं के गाऊसी घटकों का.
और वैसे, जीएमएम अकेला नहीं है।
दरअसल, संपूर्ण मशीन लर्निंग ढांचा वास्तव में इसमें शामिल कई मॉडलों की तुलना में यह बहुत अधिक नवीनतम है। इनमें से अधिकांश तकनीकें मूल रूप से सांख्यिकी, सिग्नल प्रोसेसिंग, अर्थमिति या पैटर्न पहचान में विकसित की गई थीं।
फिर, बहुत बाद में, वह क्षेत्र जिसे अब हम “मशीन लर्निंग” कहते हैं, उभरा और इन सभी मॉडलों को एक छतरी के नीचे पुनः एकत्रित किया। लेकिन नाम नहीं बदले.
इसलिए आज हम अलग-अलग युगों, अलग-अलग समुदायों और अलग-अलग इरादों से आने वाली शब्दावली के मिश्रण का उपयोग करते हैं।
यही कारण है कि जब आप केवल नामों को देखते हैं तो मॉडलों के बीच संबंध हमेशा स्पष्ट नहीं होते हैं।
अगर हमें हर चीज का नाम आधुनिक, एकीकृत के साथ बदलना होता मशीन-लर्निंग शैलीपरिदृश्य वास्तव में अधिक स्पष्ट होगा:
- जीएमएम बन जायेगा के-गॉसियन क्लस्टरिंग
- क्यू.डी.ए बन जायेगा निकटतम गॉसियन क्लासिफायरियर
- एलडीए, ठीक है, निकटतम गॉसियन क्लासिफायरियर सभी वर्गों में समान भिन्नता के साथ।
और अचानक, सभी लिंक प्रकट हो जाते हैं:
- k-मीन्स ↔ निकटतम केन्द्रक
- जीएमएम ↔ निकटतम गाऊसी (क्यूडीए)
यही कारण है कि K-मीन्स के बाद GMM इतना स्वाभाविक है। यदि K-मीन्स समूह उनके निकटतम केन्द्रक द्वारा इंगित करता है, तो GMM उन्हें उनके निकटतम केन्द्रक के आधार पर समूहित करता है गाऊसी आकार.
नामों पर चर्चा के लिए यह पूरा अनुभाग क्यों?
खैर, सच्चाई यह है कि, चूंकि हमने पहले ही के-मीन्स एल्गोरिदम को कवर कर लिया है, और हमने पहले ही निकटतम सेंट्रॉइड्स क्लासिफायर से क्यूडीए में संक्रमण कर लिया है, हम पहले से ही इस एल्गोरिदम के बारे में सब कुछ जानते हैं, और प्रशिक्षण एल्गोरिदम नहीं बदलेगा…
और इस प्रशिक्षण एल्गोरिदम का नाम क्या है?
ओह, लॉयड का एल्गोरिदम।
दरअसल, k-मीन्स को ऐसा कहे जाने से पहले, इसे केवल लॉयड के एल्गोरिदम के रूप में जाना जाता था, जिसे प्रकाशित किया गया था स्टुअर्ट लॉयड में 1957. बाद में, मशीन लर्निंग समुदाय ने इसे “k-मीन्स” में बदल दिया।
और यह एल्गोरिदम केवल साधनों में हेरफेर करता है, इसलिए हमें दूसरे नाम की आवश्यकता है, है ना?
आप देखें कि यह कहां जा रहा है: एक्सपेक्टेशन-मैक्सिमाइजिंग एल्गोरिदम!
ईएम लॉयड के विचार का सामान्य रूप है। लॉयड साधन अद्यतन करता है, ईएम अद्यतन करता है सब कुछ: साधन, भिन्नताएं, भार और संभावनाएं।
तो, आप GMM के बारे में पहले से ही सब कुछ जानते हैं!
लेकिन चूंकि मेरे लेख को “एक्सेल में जीएमएम” कहा जाता है, इसलिए मैं अपना लेख यहां समाप्त नहीं कर सकता…
1 आयाम में जीएमएम
आइए इस सरल डेटासेट से शुरुआत करें, जिसे हमने k-मीन्स के लिए उपयोग किया है: 1, 2, 3, 11, 12, 13
हम्म, दोनों गाऊसी में समान भिन्नताएँ होंगी। तो एक्सेल में अन्य नंबरों के साथ खेलने के बारे में सोचें!
और हम स्वाभाविक रूप से चाहते हैं 2 क्लस्टर.
यहां विभिन्न चरण दिए गए हैं.
प्रारंभ
हम साधन, भिन्नता और भार के अनुमान से शुरुआत करते हैं।

अपेक्षा चरण (ई-चरण)
प्रत्येक बिंदु के लिए, हम गणना करते हैं कि प्रत्येक गाऊसी से संबंधित होने की कितनी संभावना है।

अधिकतमीकरण चरण (एम-चरण)
इन संभावनाओं का उपयोग करके, हम माध्य, भिन्नता और भार को अद्यतन करते हैं।

यात्रा
पैरामीटर स्थिर होने तक हम ई-स्टेप और एम-स्टेप दोहराते हैं।

एक बार सूत्र दिखाई देने पर प्रत्येक चरण अत्यंत सरल हो जाता है।
आप देखेंगे कि ईएम औसत, भिन्नता और संभावनाओं को अद्यतन करने से ज्यादा कुछ नहीं है।
हम यह देखने के लिए कुछ विज़ुअलाइज़ेशन भी कर सकते हैं कि पुनरावृत्तियों के दौरान गॉसियन वक्र कैसे चलते हैं।
शुरुआत में, दो गॉसियन वक्र भारी रूप से ओवरलैप होते हैं क्योंकि प्रारंभिक साधन और भिन्नताएं केवल अनुमान हैं।
वक्र धीरे-धीरे अलग होते हैं, अपनी चौड़ाई समायोजित करते हैं, और अंत में बिंदुओं के दो समूहों पर बिल्कुल स्थिर हो जाते हैं।
प्रत्येक पुनरावृत्ति पर गॉसियन वक्रों को आलेखित करके, आप सचमुच ऐसा कर सकते हैं घड़ी मॉडल सीखें:
- साधन डेटा के केंद्रों की ओर खिसकते हैं
- भिन्नताएँ प्रत्येक समूह के प्रसार से मेल खाने के लिए सिकुड़ती हैं
- ओवरलैप गायब हो जाता है
- अंतिम आकृतियाँ डेटासेट की संरचना से मेल खाती हैं
यह दृश्य विकास अंतर्ज्ञान के लिए अत्यंत सहायक है। एक बार जब आप वक्रों को चलते हुए देखते हैं, तो EM अब एक अमूर्त एल्गोरिदम नहीं रह जाता है। यह एक गतिशील प्रक्रिया बन जाती है जिसका आप चरण दर चरण अनुसरण कर सकते हैं।

2 आयामों में जीएमएम
तर्क बिल्कुल 1D जैसा ही है। वैचारिक रूप से कुछ भी नया नहीं. हम बस सूत्रों का विस्तार करते हैं…
प्रति बिंदु एक सुविधा होने के बजाय, अब हमारे पास है दो.
प्रत्येक गाऊसी को अब सीखना होगा:
- X1 के लिए एक माध्य
- x2 के लिए एक माध्य
- X1 के लिए एक भिन्नता
- x2 के लिए एक भिन्नता
- और दो विशेषताओं के बीच एक सहप्रसरण शब्द।
एक बार जब आप एक्सेल में सूत्र लिख लेते हैं, तो आप देखेंगे कि प्रक्रिया बिल्कुल वैसी ही रहती है:
ख़ैर, सच तो यह है कि यदि आप स्क्रीनशॉट देखेंगे, तो आप सोचेंगे: “वाह, सूत्र तो बहुत लंबा है!” और यह सब कुछ नहीं है।

लेकिन मूर्ख मत बनो. सूत्र केवल इसलिए लंबा है क्योंकि हम लिखते हैं 2-आयामी गाऊसी घनत्व स्पष्ट रूप से:
- X1 में दूरी के लिए एक भाग
- x2 में दूरी के लिए एक भाग
- सहप्रसरण शब्द
- सामान्यीकरण स्थिरांक
और अधिक कुछ नहीं।
यह बस कोशिका दर कोशिका विस्तारित घनत्व सूत्र है।
टाइप करने में लंबा है, लेकिन संरचना देखने के बाद यह पूरी तरह से समझ में आता है: एक भारित दूरी, एक घातांक के अंदर, निर्धारक द्वारा विभाजित।
तो हां, फॉर्मूला बड़ा दिखता है… लेकिन इसके पीछे का विचार बेहद सरल है।
निष्कर्ष
के-मीन्स कठिन सीमाएँ देता है।
जीएमएम संभावनाएं देता है.
एक बार जब ईएम सूत्र एक्सेल में लिखे जाते हैं, तो मॉडल का पालन करना आसान हो जाता है: साधन चलते हैं, भिन्नताएं समायोजित होती हैं, और गॉसियन स्वाभाविक रूप से डेटा के आसपास बस जाते हैं।
के-मीन्स के बाद जीएमएम अगला तार्किक कदम है, जो समूहों और उनके आकारों का प्रतिनिधित्व करने के लिए अधिक लचीला तरीका प्रदान करता है।
(टैग्सटूट्रांसलेट)आर्टिफिशियल इंटेलिजेंस(टी)डेटा साइंस(टी)डेटा विज़ुअलाइज़ेशन(टी)गॉसियन मिक्सचर मॉडल(टी)मशीन लर्निंग
Latest Technology, (लेटेस्ट टेक न्यूज़) Gadget (गैजेट्स) …
Source link
