پرش به محتوا

فرایند گاوسی

از ویکی‌پدیا، دانشنامهٔ آزاد
فرایند گاوسی یک توزیع قبلی با هسته های مختلف

در نظریه احتمال و آمار یک فرایند گاوسی یک مدل آماری است که در آن مشاهدات در دامنه پیوسته رخ می‌دهد، به عنوان مثال زمان یا فضا. در یک فرایند گاوسی هر نقطه از فضای ورودی یک متغیر تصادفی با توزیع نرمال است. علاوه بر این هر مجموعه متناهی از این متغیرهای تصادفی دارای توزیع گاوسی چند متغیره است. توزیع فرایند گاوسی توزیع مشترک از تمام این متغیرهای تصادفی (شمارا و نامحدود) است.

از دید یک الگوریتم یادگیری ماشین، یک فرایند گاوسی از lazy learning و اندازه‌گیری شباهت بین نقاط (همان تابع کرنل) برای پیش‌بینی نقاط جدید از داده‌های آموزشی است.

فرایند گاوسی به افتخار کارل فریدریش گاوس به نام وی نام‌گذاری شده‌است زیرا از او نماد گذاری توزیع گاوسی (توزیع نرمال) را پایه‌گذاری کرد. فرایندهای گاوسی را می‌توان به عنوان یک توزیع بی‌نهایت بعدی از گاوسی چند متغیره دید.

فرایند گاوسی برای مدل کردن‌های اماری مفید است، زیرا این فرایند از مزایای ذاتی توزیع نرمال استفاده می‌کند.

تعریف

[ویرایش]

یک فرایند گاوسی توزیع آماری Xt با tT است که برای هر تعداد متناهی ترکیب خطی از نمونه‌ها دارای یک توزیع مشترک گاوسی است. به‌طور دقیق تر، هر تابع خطی اعمال شده بر روی Xt یک توزیع شده گاوسی نتیجه می‌دهد. می‌توانیم بنویسیم (X ~ GP(m,K به معنی اینکه تابع تصادفی X دارای توزیع فرایند گاوسی با تابع میانگین m و تابع کوواریانس K است.[۱]

برخی از نویسندگان[۲] فرض می‌کنند که متغیرهای تصادفی Xt میانگین صفر را دارد؛ این کار باعث ساده‌سازی محاسبات بدون از دست دادن کلیت می‌شود.[۳]

تعاریف دیگر

[ویرایش]

به عنوان تعریفی دیگر یک فرایند پیوسته در زمان گاوسی است اگر و تنها اگر برای هر مجموعه متناهی از شاخص‌های در مجموعهٔ شاخص یک متغیر تصادفی گاوسی چند متغیره است.[۴] با استفاده از تابع مشخصه ی متغیرهای تصادفی ویژگی گاوسی می‌تواند به شرح زیر بیان شود: گاوسی است اگر و تنها اگر برای هر مجموعه متناهی از شاخص‌های مقادیر حقیقی که () وجود داشته باشد به طوری که معادله زیر برای همهٔ برقرار باشد:

که عدد موهومی را نشان می‌دهد و به ترتیب بیانگر کوواریانس و میانگین متغیرهای تصادفی در فرایند است.[۵]

توابع کوواریانس

[ویرایش]

یک ویژگی کلیدی در فرایندهای گاوسی این است که آن‌ها را می‌توان به صورت کامل با ممان مرتبه دومشان تعریف کرد.[۶] بنابراین اگر فرض شود میانگین صفر است، با تعریف تابع کوواریانس به صورت کامل رفتار فرایند مشخص می‌شود.[۷][۸]

اگر فرایند ایستا باشد آن فقط به اختلاف، x' x بستگی دارد ،در حالی که اگر غیر ایستا باشد آن بستگی به موقعیت واقعی نقاط x و 'x دارد. برای مثال حالت خاص فرایند Ornstein–Uhlenbeck، یعنی حرکت براونی ایستا است.

اگر فرایند تنها به |x'x| بستگی داشته باشد، یعنی فاصله اقلیدسی بین x و 'x (بدون اهمیت جهت) ، فرایند همسانگرد محسوب می‌شود. یک فرایند است که هم ایستا و هم همسانگرد است همگن نامیده می‌شود؛[۹]

توابع معمول که به عنوان کوواریانس استفاده می‌شود:

  • ثابت:

  • خطی:

رگرسیون فرایند گاوسی

[ویرایش]

یکی از کاربردهای فرایندهای گاوسی در یادگیری ماشین مدل فرایند گاوسی است. فرایند گاوسی یک چارچوب یادگیری نظارت‌شده است که از آن برای رگرسیون و طبقه‌بندی استفاده می‌شود. این مدل به‌طور خلاصه با استفاده از دانش اولیه‌ی خود راجع مسئله که در یک تابع کوواریانس یا کرنل خلاصه می‌شود، پیش‌بینی‌اش را انجام می‌دهد و نهایتا علاوه بر پیش‌بینی انجام شده معیاری از عدم قطعیت پیش‌بینی را نیز ارائه می‌دهد. قابل اندازه‌گیری بودن عدم قطعیت پیش‌بینی‌های این مدل، آن را از بسیاری از مدل‌های دیگر یادگیری نظارت‌شده متمایز می‌کند.

در یک مسئله‌ی عام رگرسیون سعی بر این است تا با کمک تعدادی نقطه‌ی از قبل مشاهده شده، تابعی را پیدا کنیم که به بهترین شکل این نقاط را توصیف می‌کند سپس از این تابع جهت پیش‌بینی نقطه‌های دیده نشده استفاده شود. هرچند برای مجموعه‌ای متناهی از نقاط داده شده در یک فضای پیوسته، بیشمار تابع وجود دارد که از این نقاط می‌گذرد. رگرسیون فرایند گاوسی سعی دارد تا توزیع احتمالی روی این بی‌نهایت تابع ممکن بدست آورده و با کمک این توزیع به پیش‌بینی مقادیر نقاط دیده نشده بپردازد. توزیع احتمال ذکر شده روی توابع در واقع یک فرایند گاوسی است که با یک تابع میانگین و کوواریانس اولیه آغاز شده و در هر مرحله با اضافه شدن یک نقطه‌ی مشاهده‌شده‌ی جدید بروزرسانی می‌شوند. از آنجایی که خروجی این مدل توزیعی روی تمام توابع ممکن است می‌توان میانگین این توابع را به عنوان پیش‌بینی مدل و واریانس آن‌ها را به عنوان معیاری از اطمینان پیش‌بینی انجام شده در نظر گرفت.[۱۰] اغلب در کار با داده‌های نرمالیزه‌شده یا داده‌هایی که اطلاعات اولیه‌ای راجع آن‌ نداریم میانگین صفر در نظر گرفته می‌شود و تابع کوواریانس با یک تابع کرنل مقداردهی اولیه می‌شود.

رگرسیون فرایند گاوسی یک مدل غیرپارامتریک است به این معنا که مدل صورت از پیش تعیین‌شده‌ای ندارد بلکه فرم آن از روی تمام داده‌های مشاهده‌شده تعیین می‌شود (یا به عبارت دیگر سایز پارامترهای مدل با سایز داده‌های مشاهده‌شده رشد می‌کند).

صورت‌بندی ریاضی

[ویرایش]

فرض کنید تعدادی نمونه‌ی نویزی در نقاط وجود دارد به طوری که برای هر ،با شروع از یک مقدار اولیه توزیع احتمال پسین بدست آمده از روی این داده‌ها (یعنی میانگین جدید و کوواریانس جدید ) و همچنین واریانس توزیع جدید به صورت زیر می‌باشند:

که در آن ماتریس همانی، و ماتریس کرنل مثبت معین است یعنی . نهایتا می‌توان پیش‌بینی‌های جدید را با کمک تابع و واریانس در این نقاط را با کمک تابع بدست آورد.[۱۱]

یادداشت

[ویرایش]
  1. Rasmussen, C. E. (2004). "Gaussian Processes in Machine Learning". Advanced Lectures on Machine Learning. Lecture Notes in Computer Science. Vol. 3176. pp. 63–71. doi:10.1007/978-3-540-28650-9_4. ISBN 978-3-540-23122-6.
  2. Simon, Barry (1979). Functional Integration and Quantum Physics. Academic Press.
  3. Seeger, Matthias (2004). "Gaussian Processes for Machine Learning". International Journal of Neural Systems. 14 (2): 69–104. doi:10.1142/s0129065704001899.
  4. MacKay, David, J.C. (2003). Information Theory, Inference, and Learning Algorithms (PDF). Cambridge University Press. p. 540. ISBN 978-0-521-64298-9. The probability distribution of a function is a Gaussian processes if for any finite selection of points , the density is a Gaussian
  5. Dudley, R.M. (1989). Real Analysis and Probability. Wadsworth and Brooks/Cole.
  6. Bishop, C.M. (2006). Pattern Recognition and Machine Learning. Springer. ISBN 0-387-31073-8.
  7. Barber, David (2012). Bayesian Reasoning and Machine Learning. Cambridge University Press. ISBN 978-0-521-51814-7.
  8. Rasmussen, C.E.; Williams, C.K.I (2006). Gaussian Processes for Machine Learning. MIT Press. ISBN 0-262-18253-X.
  9. Grimmett, Geoffrey; David Stirzaker (2001). Probability and Random Processes. Oxford University Press. ISBN 0-19-857222-0.
  10. Wang, Jie (2022-04-18). "An Intuitive Tutorial to Gaussian Processes Regression". arXiv:2009.10862 [cs, stat].
  11. Srinivas, Niranjan; Krause, Andreas; Kakade, Sham M.; Seeger, Matthias (2012-05). "Gaussian Process Optimization in the Bandit Setting: No Regret and Experimental Design". IEEE Transactions on Information Theory. 58 (5): 3250–3265. doi:10.1109/TIT.2011.2182033. ISSN 0018-9448. {{cite journal}}: Check date values in: |date= (help)