Homoskedastic

व्यवसाय प्रधान : Homoskedastic
होमोसैकेस्टिक का विचलन

Homoskedastic (जिसे "होमोसिडैस्टिक" भी कहा जाता है) एक ऐसी स्थिति को संदर्भित करता है जिसमें प्रतिगमन मॉडल में अवशिष्ट या त्रुटि शब्द का विचरण निरंतर होता है। यही है, त्रुटि शब्द भविष्यवाचक परिवर्तनशील चर के मूल्य के रूप में बहुत भिन्न नहीं होता है। Homoskedasticity रैखिक प्रतिगमन मॉडलिंग की एक धारणा है। यदि प्रतिगमन रेखा के चारों ओर त्रुटियों का विचरण बहुत भिन्न होता है, तो प्रतिगमन मॉडल खराब रूप से परिभाषित हो सकता है। होमोसकेडसिटी की कमी यह सुझाव दे सकती है कि प्रतिगमन मॉडल को आश्रित चर के प्रदर्शन को समझाने के लिए अतिरिक्त भविष्यवक्ता चर शामिल करने की आवश्यकता हो सकती है।

समरूपता के विपरीत विषमलैंगिकता है "होमोजीनस" के विपरीत "विषम" है। Heteroskedasticity एक ऐसी स्थिति को संदर्भित करता है जिसमें प्रतिगमन समीकरण में त्रुटि शब्द का विचरण स्थिर नहीं होता है।

ब्रेकिंग डाउन होमोसकेस्टिक

एक साधारण प्रतिगमन मॉडल, या समीकरण में चार पद होते हैं। बाईं ओर निर्भर चर है। यह उस घटना का प्रतिनिधित्व करता है जिसे मॉडल "समझाना" चाहता है। दाईं ओर एक स्थिरांक, एक भविष्यवक्ता चर और एक अवशिष्ट, या त्रुटि, शब्द हैं। त्रुटि शब्द आश्रित चर में परिवर्तनशीलता की मात्रा को दर्शाता है जो कि भविष्यवक्ता चर द्वारा नहीं समझाया गया है।

Homoskedasticity का उदाहरण

उदाहरण के लिए, मान लें कि आप प्रत्येक छात्र द्वारा अध्ययन में बिताए समय की मात्रा का उपयोग करके छात्र परीक्षा स्कोर की व्याख्या करना चाहते थे। इस स्थिति में, परीक्षण स्कोर आश्रित चर होगा और अध्ययन में लगने वाला समय पूर्वसूचक चर होगा। त्रुटि अवधि परीक्षण के अंकों में विचरण की मात्रा को दर्शाती है जो कि अध्ययन के समय की मात्रा द्वारा नहीं बताई गई थी। यदि वह विचरण एकरूप है, या होमोसैकेस्टिक है, तो यह सुझाव देगा कि मॉडल परीक्षण प्रदर्शन के लिए पर्याप्त स्पष्टीकरण हो सकता है - यह अध्ययन किए गए समय के संदर्भ में व्याख्या करना।

लेकिन विचरण विषमलैंगिक हो सकता है। त्रुटि शब्द डेटा का एक प्लॉट उच्च परीक्षण स्कोर के साथ बहुत निकटता से अध्ययन किए गए समय की एक बड़ी मात्रा को प्रदर्शित कर सकता है, लेकिन उस कम अध्ययन समय का परीक्षण स्कोर व्यापक रूप से भिन्न होता है और यहां तक ​​कि कुछ बहुत ही उच्च स्कोर भी शामिल होते हैं। इस प्रकार, अंकों के विचरण को केवल एक पूर्वानुमेय चर द्वारा अच्छी तरह से समझाया नहीं जाएगा - अध्ययन की मात्रा। इस मामले में, कुछ अन्य कारक शायद काम पर हैं, और मॉडल को बढ़ाने की आवश्यकता हो सकती है। आगे की जांच से पता चल सकता है कि कुछ छात्रों ने समय से पहले परीक्षा के उत्तर देखे थे और इसलिए उन्हें अध्ययन करने की आवश्यकता नहीं थी।

प्रतिगमन मॉडल को बेहतर बनाने के लिए, शोधकर्ता, इसलिए, एक अन्य व्याख्यात्मक चर जोड़ते हैं जो यह दर्शाता है कि एक छात्र ने परीक्षा से पहले उत्तर देखे थे या नहीं। प्रतिगमन मॉडल के बाद दो व्याख्यात्मक चर होंगे - समय अध्ययन और क्या छात्र को उत्तरों का पूर्व ज्ञान था। इन दो चर के साथ, परीक्षण के अंकों के अधिक विचरण को समझाया जाएगा और त्रुटि शब्द का विचरण तब समरूप हो सकता है, यह सुझाव देते हुए कि मॉडल अच्छी तरह से परिभाषित किया गया था।

इनवेस्टमेंट अकाउंट्स प्रोवाइडर नाम की तुलना करें। विज्ञापनदाता का विवरण × इस तालिका में दिखाई देने वाले प्रस्ताव उन साझेदारियों से हैं जिनसे इन्वेस्टोपेडिया को मुआवजा मिलता है।

संबंधित शर्तें

विषमलैंगिकता सांख्यिकी में, विषमलैंगिकता तब होती है जब एक चर की मानक विचलन, समय की एक विशिष्ट राशि पर नजर रखी जाती है, गैर-अस्थिर होती है। अधिक एक त्रुटि अवधि क्या है? एक त्रुटि शब्द को एक सांख्यिकीय मॉडल में एक चर के रूप में परिभाषित किया गया है, जो तब बनाया जाता है जब मॉडल स्वतंत्र और निर्भर चर के बीच वास्तविक संबंध का पूरी तरह से प्रतिनिधित्व नहीं करता है। अधिक Heteroskedastic Heteroskedastic एक ऐसी स्थिति को संदर्भित करता है जिसमें प्रतिगमन मॉडल में अवशिष्ट शब्द, या त्रुटि शब्द का विचरण व्यापक रूप से भिन्न होता है। अधिक कैसे एकाधिक रैखिक प्रतिगमन काम करता है कई रैखिक प्रतिगमन (एमएलआर) एक सांख्यिकीय तकनीक है जो प्रतिक्रिया चर के परिणाम की भविष्यवाणी करने के लिए कई व्याख्यात्मक चर का उपयोग करती है। अधिक आर-स्क्वेर्ड आर-स्क्वेर्ड एक सांख्यिकीय उपाय है जो एक स्वतंत्र चर द्वारा समझाया गया है जो एक आश्रित चर के लिए विचरण के अनुपात का प्रतिनिधित्व करता है। अधिक कैसे कम से कम वर्ग विधि काम करता है कम से कम वर्ग विधि एक मॉडल के लिए सबसे अच्छा फिट की रेखा निर्धारित करने के लिए एक सांख्यिकीय तकनीक है, जिसमें कुछ मापदंडों के साथ निर्दिष्ट डेटा द्वारा निर्दिष्ट है। अधिक साथी लिंक
अनुशंसित
अपनी टिप्पणी छोड़ दो