मशीन लर्निंग “आगमन कैलेंडर” दिन 5: एक्सेल में जीएमएम

Latest Technology, (लेटेस्ट टेक न्यूज़) Gadget (गैजेट्स) …

पिछले लेख में, हमने K-मीन्स के साथ दूरी-आधारित क्लस्टरिंग का पता लगाया था।

आगे: दूरी को मापने के तरीके को बेहतर बनाने के लिए हम महालनोबिस दूरी प्राप्त करने के लिए भिन्नता जोड़ते हैं।

तो, यदि के-मीन्स इसका अप्रशिक्षित संस्करण है निकटतम सेंट्रोइड क्लासिफायरियरतो स्वाभाविक प्रश्न यह है:

QDA का अप्रशिक्षित संस्करण क्या है?

इसका मतलब यह है कि QDA की तरह, अब प्रत्येक क्लस्टर को न केवल उसके द्वारा वर्णित किया जाना चाहिए अर्थलेकिन इसके द्वारा भी झगड़ा (और यदि सुविधाओं की संख्या 2 से अधिक है तो हमें सहप्रसरण भी जोड़ना होगा)। लेकिन यहां सब कुछ सीखा जाता है बिना लेबल के.

तो आप विचार समझ गए, है ना?

और खैर, इस मॉडल का नाम है गाऊसी मिश्रण मॉडल (जीएमएम)

GMM और इन मॉडलों के नाम…

जैसा कि अक्सर होता है, मॉडलों के नाम ऐतिहासिक कारणों से आते हैं। यदि वे एक साथ नहीं पाए जाते हैं तो वे हमेशा मॉडलों के बीच संबंधों को उजागर करने के लिए डिज़ाइन नहीं किए जाते हैं।

अलग-अलग शोधकर्ता, अलग-अलग अवधि, अलग-अलग उपयोग के मामले… और अंत में हमें ऐसे नाम मिलते हैं जो कभी-कभी विचारों के पीछे की वास्तविक संरचना को छिपा देते हैं।

यहां, “गॉसियन मिक्सचर मॉडल” नाम का सीधा सा अर्थ है कि डेटा को एक के रूप में दर्शाया गया है कई गाऊसी वितरणों का मिश्रण.

यदि हम उसी नामकरण तर्क का पालन करें k-साधनइसे कुछ इस तरह कहना अधिक स्पष्ट होता के-गाऊसी मिश्रण

क्योंकि, व्यवहार में, हम केवल साधनों का उपयोग करने के बजाय, भिन्नता जोड़ते हैं। और हम केवल महालनोबिस दूरी, या साधन और विचरण दोनों का उपयोग करके किसी अन्य भारित दूरी का उपयोग कर सकते हैं। लेकिन गाऊसी वितरण हमें ऐसी संभावनाएँ देता है जिनकी व्याख्या करना आसान है।

तो हम एक संख्या चुनते हैं के गाऊसी घटकों का.

और वैसे, जीएमएम अकेला नहीं है।

दरअसल, संपूर्ण मशीन लर्निंग ढांचा वास्तव में इसमें शामिल कई मॉडलों की तुलना में यह बहुत अधिक नवीनतम है। इनमें से अधिकांश तकनीकें मूल रूप से सांख्यिकी, सिग्नल प्रोसेसिंग, अर्थमिति या पैटर्न पहचान में विकसित की गई थीं।

फिर, बहुत बाद में, वह क्षेत्र जिसे अब हम “मशीन लर्निंग” कहते हैं, उभरा और इन सभी मॉडलों को एक छतरी के नीचे पुनः एकत्रित किया। लेकिन नाम नहीं बदले.

इसलिए आज हम अलग-अलग युगों, अलग-अलग समुदायों और अलग-अलग इरादों से आने वाली शब्दावली के मिश्रण का उपयोग करते हैं।

यही कारण है कि जब आप केवल नामों को देखते हैं तो मॉडलों के बीच संबंध हमेशा स्पष्ट नहीं होते हैं।

अगर हमें हर चीज का नाम आधुनिक, एकीकृत के साथ बदलना होता मशीन-लर्निंग शैलीपरिदृश्य वास्तव में अधिक स्पष्ट होगा:

  • जीएमएम बन जायेगा के-गॉसियन क्लस्टरिंग
  • क्यू.डी.ए बन जायेगा निकटतम गॉसियन क्लासिफायरियर
  • एलडीए, ठीक है, निकटतम गॉसियन क्लासिफायरियर सभी वर्गों में समान भिन्नता के साथ।

और अचानक, सभी लिंक प्रकट हो जाते हैं:

  • k-मीन्स ↔ निकटतम केन्द्रक
  • जीएमएम ↔ निकटतम गाऊसी (क्यूडीए)

यही कारण है कि K-मीन्स के बाद GMM इतना स्वाभाविक है। यदि K-मीन्स समूह उनके निकटतम केन्द्रक द्वारा इंगित करता है, तो GMM उन्हें उनके निकटतम केन्द्रक के आधार पर समूहित करता है गाऊसी आकार.

नामों पर चर्चा के लिए यह पूरा अनुभाग क्यों?

खैर, सच्चाई यह है कि, चूंकि हमने पहले ही के-मीन्स एल्गोरिदम को कवर कर लिया है, और हमने पहले ही निकटतम सेंट्रॉइड्स क्लासिफायर से क्यूडीए में संक्रमण कर लिया है, हम पहले से ही इस एल्गोरिदम के बारे में सब कुछ जानते हैं, और प्रशिक्षण एल्गोरिदम नहीं बदलेगा…

और इस प्रशिक्षण एल्गोरिदम का नाम क्या है?

ओह, लॉयड का एल्गोरिदम।

दरअसल, k-मीन्स को ऐसा कहे जाने से पहले, इसे केवल लॉयड के एल्गोरिदम के रूप में जाना जाता था, जिसे प्रकाशित किया गया था स्टुअर्ट लॉयड में 1957. बाद में, मशीन लर्निंग समुदाय ने इसे “k-मीन्स” में बदल दिया।

और यह एल्गोरिदम केवल साधनों में हेरफेर करता है, इसलिए हमें दूसरे नाम की आवश्यकता है, है ना?

आप देखें कि यह कहां जा रहा है: एक्सपेक्टेशन-मैक्सिमाइजिंग एल्गोरिदम!

ईएम लॉयड के विचार का सामान्य रूप है। लॉयड साधन अद्यतन करता है, ईएम अद्यतन करता है सब कुछ: साधन, भिन्नताएं, भार और संभावनाएं।

तो, आप GMM के बारे में पहले से ही सब कुछ जानते हैं!

लेकिन चूंकि मेरे लेख को “एक्सेल में जीएमएम” कहा जाता है, इसलिए मैं अपना लेख यहां समाप्त नहीं कर सकता…

1 आयाम में जीएमएम

आइए इस सरल डेटासेट से शुरुआत करें, जिसे हमने k-मीन्स के लिए उपयोग किया है: 1, 2, 3, 11, 12, 13

हम्म, दोनों गाऊसी में समान भिन्नताएँ होंगी। तो एक्सेल में अन्य नंबरों के साथ खेलने के बारे में सोचें!

और हम स्वाभाविक रूप से चाहते हैं 2 क्लस्टर.

यहां विभिन्न चरण दिए गए हैं.

प्रारंभ

हम साधन, भिन्नता और भार के अनुमान से शुरुआत करते हैं।

image 50
एक्सेल में जीएमएम – आरंभीकरण चरण- लेखक द्वारा छवि

अपेक्षा चरण (ई-चरण)

प्रत्येक बिंदु के लिए, हम गणना करते हैं कि प्रत्येक गाऊसी से संबंधित होने की कितनी संभावना है।

image 51
एक्सेल में जीएमएम – अपेक्षा चरण – लेखक द्वारा छवि

अधिकतमीकरण चरण (एम-चरण)

इन संभावनाओं का उपयोग करके, हम माध्य, भिन्नता और भार को अद्यतन करते हैं।

image 52
एक्सेल में जीएमएम – अधिकतमीकरण चरण – लेखक द्वारा छवि

यात्रा

पैरामीटर स्थिर होने तक हम ई-स्टेप और एम-स्टेप दोहराते हैं।

image 53
एक्सेल में जीएमएम -पुनरावृत्तियां – लेखक द्वारा छवि

एक बार सूत्र दिखाई देने पर प्रत्येक चरण अत्यंत सरल हो जाता है।
आप देखेंगे कि ईएम औसत, भिन्नता और संभावनाओं को अद्यतन करने से ज्यादा कुछ नहीं है।

हम यह देखने के लिए कुछ विज़ुअलाइज़ेशन भी कर सकते हैं कि पुनरावृत्तियों के दौरान गॉसियन वक्र कैसे चलते हैं।

शुरुआत में, दो गॉसियन वक्र भारी रूप से ओवरलैप होते हैं क्योंकि प्रारंभिक साधन और भिन्नताएं केवल अनुमान हैं।

वक्र धीरे-धीरे अलग होते हैं, अपनी चौड़ाई समायोजित करते हैं, और अंत में बिंदुओं के दो समूहों पर बिल्कुल स्थिर हो जाते हैं।

प्रत्येक पुनरावृत्ति पर गॉसियन वक्रों को आलेखित करके, आप सचमुच ऐसा कर सकते हैं घड़ी मॉडल सीखें:

  • साधन डेटा के केंद्रों की ओर खिसकते हैं
  • भिन्नताएँ प्रत्येक समूह के प्रसार से मेल खाने के लिए सिकुड़ती हैं
  • ओवरलैप गायब हो जाता है
  • अंतिम आकृतियाँ डेटासेट की संरचना से मेल खाती हैं

यह दृश्य विकास अंतर्ज्ञान के लिए अत्यंत सहायक है। एक बार जब आप वक्रों को चलते हुए देखते हैं, तो EM अब एक अमूर्त एल्गोरिदम नहीं रह जाता है। यह एक गतिशील प्रक्रिया बन जाती है जिसका आप चरण दर चरण अनुसरण कर सकते हैं।

image 54
एक्सेल में जीएमएम – लेखक द्वारा छवि

2 आयामों में जीएमएम

तर्क बिल्कुल 1D जैसा ही है। वैचारिक रूप से कुछ भी नया नहीं. हम बस सूत्रों का विस्तार करते हैं…

प्रति बिंदु एक सुविधा होने के बजाय, अब हमारे पास है दो.

प्रत्येक गाऊसी को अब सीखना होगा:

  • X1 के लिए एक माध्य
  • x2 के लिए एक माध्य
  • X1 के लिए एक भिन्नता
  • x2 के लिए एक भिन्नता
  • और दो विशेषताओं के बीच एक सहप्रसरण शब्द।

एक बार जब आप एक्सेल में सूत्र लिख लेते हैं, तो आप देखेंगे कि प्रक्रिया बिल्कुल वैसी ही रहती है:

ख़ैर, सच तो यह है कि यदि आप स्क्रीनशॉट देखेंगे, तो आप सोचेंगे: “वाह, सूत्र तो बहुत लंबा है!” और यह सब कुछ नहीं है।

image 55
एक्सेल में 2डी जीएमएम – लेखक द्वारा छवि

लेकिन मूर्ख मत बनो. सूत्र केवल इसलिए लंबा है क्योंकि हम लिखते हैं 2-आयामी गाऊसी घनत्व स्पष्ट रूप से:

  • X1 में दूरी के लिए एक भाग
  • x2 में दूरी के लिए एक भाग
  • सहप्रसरण शब्द
  • सामान्यीकरण स्थिरांक

और अधिक कुछ नहीं।

यह बस कोशिका दर कोशिका विस्तारित घनत्व सूत्र है।
टाइप करने में लंबा है, लेकिन संरचना देखने के बाद यह पूरी तरह से समझ में आता है: एक भारित दूरी, एक घातांक के अंदर, निर्धारक द्वारा विभाजित।

तो हां, फॉर्मूला बड़ा दिखता है… लेकिन इसके पीछे का विचार बेहद सरल है।

निष्कर्ष

के-मीन्स कठिन सीमाएँ देता है।

जीएमएम संभावनाएं देता है.

एक बार जब ईएम सूत्र एक्सेल में लिखे जाते हैं, तो मॉडल का पालन करना आसान हो जाता है: साधन चलते हैं, भिन्नताएं समायोजित होती हैं, और गॉसियन स्वाभाविक रूप से डेटा के आसपास बस जाते हैं।

के-मीन्स के बाद जीएमएम अगला तार्किक कदम है, जो समूहों और उनके आकारों का प्रतिनिधित्व करने के लिए अधिक लचीला तरीका प्रदान करता है।

(टैग्सटूट्रांसलेट)आर्टिफिशियल इंटेलिजेंस(टी)डेटा साइंस(टी)डेटा विज़ुअलाइज़ेशन(टी)गॉसियन मिक्सचर मॉडल(टी)मशीन लर्निंग
Latest Technology, (लेटेस्ट टेक न्यूज़) Gadget (गैजेट्स) …

Source link

Leave a Reply

Your email address will not be published. Required fields are marked *