حداقل مربعات خطی
در محاسبات عددی، اگر یک مجموعه از نقاط را بخواهید با یک خط درونیابی کنید و شیب خط () و عرض از مبدأ () را بدست آورید، کافی است که خطای تعریف شده () در زیر را کمینه (مینیمم) کنید:
که میانگین ها و تعداد نقاط میباشد. و بدست آمده، بهینه خط عبوری از این نقاط را میدهد.
از این روش میتوانید برای درونیابی چندجملهایهای مرتبه بالاتر نیز استفاده کنید، کافی است که تعریف خطا () را مطابق با چندجملهای که میخواهید عوض کرده بقیه محاسبات را همانطور ادامه داده و ضرایب را بدست آورید.
هندسه روش حداقل مربعات معمولی
[ویرایش]فرمول کلی یک برآورد خطی با معادله به صورت است. حال میخواهیم این رابطه و خصوصیات آن را بهطور هندسی مورد بررسی قرار داده و ببینیم چه نتایجی برای ما در بردارند. این بررسی نه تنها از دیدگاه تئوری دارای ارزش میباشد بلکه بسیاری از روابطی که از حل معادلههای پیچیده جبری بدست میآیند را بااستفاده از اثباتهای هندسی ساده کرده و فهم ارتباط این روابط را برای ما آسان میکند. فرض کنید مجموعه متغیرهای توضیح دهنده ما به صورت باشند میدانیم از هم مستقل هستند و بنابراین میتوانند پایههایی برای زیر فضای از به وجود آورند در حقیقت اگر دلخواهی را در نظر بگیریم یک عضو دلخواه از زیر فضای ما خواهد بود و داریم:
در حقیقت میتوانیم هر عضو را به صورت بنویسیم و حتی را حت تر به صورت مختصاتبیان کنیم و به همین دلیل برآورد گر OLS(روش حداقل مربعات معمولی) در فضای قرار دارد یعنی میدانیم که از معادله اساسی زیر محاسبه میشود:
با دقت در معادله بالا متوجه میشویم که این معادله دارای تفسیر بسیار سادهای میباشد. را در نظر بگیرید میدانیم که همان ماتریس متغیرهای توضیح دهندهاست و هر ستون آن مربوط به یک متغیر توضیح دهنده میباشد که میتوان معادله بالا را به صورت زیر نوشت
که همان ضرب داخلی متغیر توضیح دهنده ام در بردارهای خطا میباشد نکتهای که در اینجا وجود دارد این است که با توجه به معادله اساسی برای محاسبه برآوردگر در روش OLS متغیرهای بردار متغیرهای توضیح دهنده نسبت به متغیرهای خطای تخمین زده شده عمود می با شند یعنی وها نسبت به هم عمودند و به این شرط اصطلاحاً شرط عمود بودن (orthogonality conditions) میگویند.
همانطور که در بالا گفتیم همان متغیرهای خطای ما میباشند که با توجه به برآورد گر ما و روش برآورد به متغیرهای خطای تخمین زده شده (residuals) تبدیل میشوند در حقیقت اگر خطا را با نمایش دهیم میتوان آن را به صورت تابعی از نمایش داد یعنی به صوت اختصاری . آنچه ما در اینجا بدان علاقهمندیم بررسی عناصر خطا در زمانی میباشند که متغیر با روش OLS تخمین زده شدهاست. ومی توانیم آن را به اختصار به صورت بنویسیم. ملاحظه کردید که این نسبت به همه متغیرهای توضیح دهنده عمود است و چون به تک تک پایههای فضای برداری ما عمود میباشد پس بر کل فضا عمود است و میتوان آن را به صورت نوشت؛ و از آن نتیجه گرفت که هر عضو در این فضا عمود بر است یعنی:
پس میتوان از بحث بالا نتیجه گرفت که که به آن اصطلاحاً بردار مقادیر برازانده شده (fitted values) میگویند در فضای قرار دارد و بر عمود است، یعنی شرط عمود بودن برای آن بر قرار است و از شرط عمود بودن میتوان نتیجه گرفت که زاویهای که این دو بردار با هم میسازند همانطور که شکل ۱ نشان میدهد قائمهاست.
برای اینکه تا حدودی مفهوم عمود بودن (orthogonality) را تشریح کرده باشیم. فرض میکنیم دو متغیر توضیح دهنده داشته باشیم و به ترتیب آنهارا با نمایش میدهیم با توجه به شکل ۲ میبینیم که این دومتغیر فضایی را پدید میآورند که میتوانیم آن را با نمایش دهیم و همانطور که در شکل نشان میدهد این دو متغیر میتوانند دارای طولهای یکسان و زاویههای یکسان در بین آنه میباشند. همانطور که میبینید بردار متغیرهای برازانده شده (fitted values) در داخل فضای قرار گرفته و متغیر نسبت به صفحهَ A(شکل۳)عمود است (شکل۴)و متغیرهای وابسته که از مجموع متغیرهای مستقل و متغیرهای خطا تشکیل میشوند در بیرون و قدری بالاتر ز صفحهA قرار میگیرند.
با توجه به توضیحاتی که در بالا داده شد میتوان فهمید که چرا به روش برآورد مذکور حداقل مربعات گفته میشود در واقع با توجه به شکلهای ۱ و۴ میتوان فهمید که متغیرهای خطای تخمین زده شده دارای حداقل فاصله از متغیرهای برازانده شده (fitted values) تا فضای متغیرهای توضیح دهنده میباشد. یعنی اندازه تابع را کمینه میکند. اگر کمی دقت کنیم متوجه میشویم که همان مجموع مربعات خطاست و میدانیم که برآورد گر که را کمینه میکند را نیز کمینه میکند.
همانطور که در شکل۳ مشاهده میکنید شکل به ما صفحه را از بال نشان میدهد که دو بعدی است نقطه A در این صفحه بهطور عمودی در زیر قرار گرفتهاست و با توجه به معادله و اینکه برآورد از روش OLS انجام شدهاست. میتوان نتیجه گرفت که بردار OA در صفحه همان بردار مقادیر برازانده شده (fitted values) میباشد یعنی بدار OA بهطور هندسی نمایش دهنده میباشد. والبته چون ستونهای ماتریس همان پایههای فضای ما میباشند میتوان OA را با مختصات نمایش داد. از آنجا که بحث مختصات پیش کشیده شد میتوان تفسیر جالبی را ارائه داد اینکه در حقیقت میزان مشارکت متغیر پایه در تشکیل است.
حال به شکل۴ نگاهی بیندازید همانطور که میبینید در شکل ۴ زاویه بین متغیرهای برازانده شده (fitted values) و خطای تخمین زده شده (residuals) قائمهاست، که با استفاده از آن میتوانیم اساسیترین معادله مربوط به OLS را بدست آوریم. یعنی:
میدانیم همان مجموع مربعات کل و همانطور که پیش تر گفتیم مجموع مربعات متغیرهای توضیح دهنده و مجموع مربعات خطای تخمین زده شده میباشد؛ و فرمول معروف اثبات میشود، میتوان رابطههای فوق را نیز با استفاده از رابطه زیر به صورتی دیگر نمایش داد:
که نکته مهمی را بیان میکند تغییرات کل برابر است با تغییرات متغیرهای توضیح دهنده به علاوه تغییرات خطای تخمین زده شده.
تحلیل جبری مسئله
[ویرایش]اگر فرض کنیم متغیر ما بُعد دارد، یعنی ، مسئله رگرسیون به یک مسئله بهینهسازی برای پیدا کردن پارامتر تبدیل میشود.[۱] به این معنی که ما یک پارامتر چند متغیره به اسم داریم و سعی میکنیم که متغیر وابسته که همان است را با ترکیبی خطی از بردارد ورودیِ ، تخمین بزنیم یعنی . حال اگر یک بعد دیگر به متغیر اضافه کنیم و مقدارش را همیشه عدد ثابت در نظر بگیریم () و را به صورتِ تغییر دهیم، تخمینی که از داریم در واقع ضرب نقطه ای بردار ورودی و بردار پارامترهای ماست یعنی . حال فرض کنیم که تعداد مثالهایی که قرار است برای تخمین پارامترها استفاده کنیم است و این مثالها را به این شکل نمایش دهیم . پارامتر بهینه پارامتری است که یک تابع هزینه را به حداقل برساند و تخمینهایی ما را به متغیر وابسته بسیار نزدیک کند. تابع هزینه را با جمع مربع تفاضل تخمینها با متغیر وابسته تعریف میکنیم، به این شکل که ، با این حساب پارامتر بهینه میشود:
برای بدست آوردن یا همان پارامتر بهینه، از تابع هزینه که هم نسبت به گرادیان میگیریم و گرادیان را برابر صفر قرار میدهیم و پارامتر بهینه را بدست میآوریم.[۲] از آنجا که تابع نسبت به تابعی کاملاً محدب است، در نقطه مینیمم گرادیان ما صفر خواهد بود و این روش پارامتر بهینه را بدست میدهد.[۳] برای تسهیل کار شکل تابع را با بکارگیری چند ماتریس ساده میکنیم. دو ماتریس برای این کار نیاز داردیم ماتریس و ماتریس . ماتریس ماتریس ورودهای چندمتغیره ماست. هر سطر معادل یک نمونه از داده ماست، سطر ام برابر است با امین نمونه ورودی ما یعنی بردار ، از اینرو یک ماتریس خواهد بود. ماتریس از طرف دیگر برابر است با مجموعه متغیرهای وابسته داده ما. سطر ام این ماتریس برابر است با متغیر وابسته برای امین نمونه داده ما یا همان . ماتریس یک ماتریس است. با کمک این دو ماتریس میتوان تابع هزینه را به شکل ذیل تعریف کرد:
حال گرادیان این تابع را نسبت به پیدا میکنیم که میشود:
با برابر قرار دادن گرادیان با صفر پارامتر بهینه بدست میآید:
پس پارامتر بهینه ما برابر است با:
جستارهای وابسته
[ویرایش]- کمترین مربعات
- ماتریس وندرماند (Vandermonde matrix)
منابع
[ویرایش]- ↑ Rencher, Alvin C.; Christensen, William F. (2012-08-15). Methods of Multivariate Analysis (به انگلیسی). John Wiley & Sons. p. 19.
- ↑ Yan, Xin (2009). Linear Regression Analysis: Theory and Computing (به انگلیسی). World Scientific.
- ↑ Rencher, Alvin C.; Christensen, William F. (2012-08-15). Methods of Multivariate Analysis (به انگلیسی). John Wiley & Sons. p. 155.
- مشارکتکنندگان ویکیپدیا. «Linear least squares». در دانشنامهٔ ویکیپدیای انگلیسی، بازبینیشده در ۳۰ سپتامبر ۲۰۰۸.
- conometric theory and methods،By Russell Davidson، James G. MacKinnon - Oxford University Press (۲۰۰۴) - Hardback - 750 pages - ISBN 0-19-512372-7
- Introductory econometrics: a modern approach،By Jeffrey M. Wooldridge - South-Western Cengage Learning (۲۰۰۹) - Hardback - 865 pages - ISBN 0-324-66054-5
- http://elsa.berkeley.edu/GMTheorem/node2.html
- http://faculty.udesa.edu.ar/WalterSosa/EconometriaAvanzada/OLSGeometry.pdf[پیوند مرده]