یادگیری با کرنل چندگانه
یادگیری ماشین و دادهکاوی |
---|
یادگیری با استفاده از تابع کرنل چندگانه به مجموعهای از روشهای یادگیری ماشین گفته میشود که از تعدادی از توابع کرنل از پیش تعریفشده استفاده میکنند و ترکیب خطی یا غیرخطی آنها را به عنوان تابع کرنل جدید استفاده میکنند و یادگیری را با استفاده از آن انجام میدهند. مزیتهای استفاده از این تابع کرنل جدید را در مقابل توابع کرنل ساده میتوان به صورت زیر بیان کرد:
- توانایی انتخاب یک هسته از مجموعه هستهها با بهینه کردن پارامترهای تابع کرنل چندتایی که خود این موضوع باعث کاهش سوگیری یادگیری به دلیل انتخاب تابع هسته بد میشود و در عین حال امکان خودکار سازی انتخاب تابع کرنل را میدهد.
- امکان ترکیب دادهها از منابع مختلف برای مثال ترکیب دادههای صدا و تصویر از یک ویدیو، به این صورت که برای ایجاد یک تابع کرنل جدید مخصوص دادهمان میتوان از ترکیب توابع کرنل دیگر که از قبل برای منابع مختلف داریم استفاده کنیم.
با توجه به خصوصیات گفته شده از کرنلهای چندگانه برای تشخیص رویدادها در ویدیوها، اشیا در تصاویر و … استفاده میشود.
الگوریتمها
[ویرایش]الگوریتمهای یادگیری با کرنلهای چندگانه برای یادگیریهای supervised, semi-supervised و unsupervised توسعه داده شدهاند. هرچند بیشتر از این روش برای یادگیریهای supervised استفاده میشود که بیشتر از روش ترکیب خطی کرنلهای سادهتر برای آن استفاده میشود. ایده اصلی الگوریتمهای یادگیری با کرنلهای چندگانه اضافه کردن یک پارامتر جدید به مسئلهٔ بهینهسازی که برای یادگیری داشتیم است. به عنوان مثال برای مسئله یادگیری supervised یک تابع کرنل چندگانه به صورت تعریف میکنیم که در آن بردار ضرایب توابع کرنلهای پایه است. حال با توجه به خاصیت جمع پذیری توابع کرنل، تابع بهدست آمده نیز همچنان یک تابع کرنل معتبر است. اینک مسئله بهینهسازیمان به صورت زیر میشود:
در مسئله بالا E همان تابع خطا است و R نیز یک عملگر منظم سازی است. تابع E معمولاً همان مجموع مجذور خطاها است. R نیز معمولاً نرم یا ترکیبی از نرمها است. در نهایت مسئله بالا را با استفاده از روشهای استانداردی که برای بهینهسازی داریم میتوان حل کرد.
یادگیری Supervised
[ویرایش]برای یادگیری supervised، بسیاری از الگوریتمهای دیگر وجود دارند که از روشهای مختلفی برای یادگیری فرم تابع کرنل استفاده میکنند. طبقهبندی زیر توسط Gonen و Alpaydın در سال ۲۰۱۱ پیشنهاد شدهاست.[۱]
رویکرد قوانین ثابت
[ویرایش]رویکرد قوانین ثابت، مانند الگوریتم ترکیب خطی که در بالا توضیح داده شد، از قوانین برای تنظیم ترکیب توابع کرنل استفاده میکنند. وزن توابع کرنل در الگوریتم یادگیری بهدست آورده میشوند. نمونهای دیگر از این رویکرد استفاده از توابع هسته دوگانه هستند که به صورت زیر تعریف میشوند:
این رویکرد تابع کرنل دوگانه در پیشبینی برهمکنشهای پروتئین-پروتئین مورد استفاده قرار گرفتهاست.[۲]
رویکردهای Bayesian
[ویرایش]در این رویکرد ابتدا یک فرضی را که از قبل در مورد توزیع پارامترهای یک تابع کرنل میدانیم را در نظر میگیریم. سپس با استفاده از الگوریتم یادگیری که داریم و مقادیر پیشفرض، مقادیر جدید را برای پارامترهای تابع کرنل چندگانه بهدست میآوریم. به عنوان مثال، تابع تصمیم میتواند به صورت زیر نوشته شود
مقدار ابتدایی را میتوان با توزیع دیریکله و مقدار ابتدایی را میتوان با یک توزیع گاوسی با میانگین صفر و یک واریانس با توزیع inverse gamma مدل کرد. سپس این مدل با استفاده از رویکرد Multinomial probit با روش نمونه برداری گیبس بهینه میشود.[۳] این روشها با موفقیت در کاربردهایی مانند تشخیص چینخوردگی پروتئین و مشکلات همولوژی پروتئین مورد استفاده قرار گرفتهاند.[۴][۵]
رویکردهای تقویتی
[ویرایش]در این رویکرد، توابع کرنل جدید را بهطور مکرر اضافه میکنند تا زمانی که شاخصهای توقف که خود یک تابع برای نشان دادن کارایی تابع کرنل است، بهدست بیاید. نمونه ای از این رویکرد مدل MARK است که توسط Bennett و همکارانش توسعه یافتهاست. (2002)[۶]
که پارامترها و در این مدل با استفاده از روش گرادیان کاهشی بهدست میآید. به این ترتیب که، در زمان اجرای روش گرادیان کاهشی در هر پیمایش، بهترین تابع کرنل برای آن پیمایش مشخص میشود و به تابع کرنل چندگانه اضافه میشود. سپس مدل برای تولید و بهینه دوباره اجرا میشود و در نهایت تابع کرنل چندگانه بهینه بهدست میآید.
کتابخانهها
[ویرایش]کتابخانههای موجود MKL شامل
- SPG-GMKL: یک کتابخانه C++ MKL SVM مقیاس پذیر که میتواند میلیونها کرنل را مدیریت کند.[۷]
- GMKL: کدهای یادگیری چند هسته ای تعمیم یافته در متلب انجام میدهد و منظم سازی برای یادگیری تحت نظارت[۸]
- (یکی دیگر) GMKL: یک کد متلب MKL متفاوت که همچنین میتواند تنظیم شبکه الاستیک را انجام دهد[۹]
- SMO-MKL: کد منبع C++ برای یک الگوریتم MKL بهینهسازی حداقل متوالی. میکند -n منظم سازی فرم.[۱۰]
- SimpleMKL: یک کد MATLAB بر اساس الگوریتم SimpleMKL برای MKL SVM.[۱۱]
- MKLPy: یک چارچوب پایتون برای MKL و ماشینهای هسته که با الگوریتمهای مختلف مطابقت دارد، به عنوان مثال EasyMKL[۱۲] و دیگران.
منابع
[ویرایش]- ↑ Mehmet Gönen, Ethem Alpaydın. Multiple Kernel Learning Algorithms Jour. Mach. Learn. Res. 12(Jul):2211−2268, 2011
- ↑ Ben-Hur, A. and Noble W.S. [pmid 15961482 Kernel methods for predicting protein-protein interactions.] Bioinformatics. 2005 Jun;21 Suppl 1:i38-46.
- ↑ Mark Girolami and Simon Rogers. Hierarchic Bayesian models for kernel learning. In Proceedings of the 22nd International Conference on Machine Learning, 2005
- ↑ Theodoros Damoulas and Mark A. Girolami. Combining feature spaces for classification. Pattern Recognition, 42(11):2671–2683, 2009
- ↑ Theodoros Damoulas and Mark A. Girolami. Probabilistic multi-class multi-kernel learning: On protein fold recognition and remote homology detection. Bioinformatics, 24(10):1264–1270, 2008
- ↑ Kristin P. Bennett, Michinari Momma, and Mark J. Embrechts. MARK: A boosting algorithm for heterogeneous kernel models. In Proceedings of the 8th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining, 2002
- ↑ Ashesh Jain, S. V. N. Vishwanathan and Manik Varma. SPG-GMKL: Generalized multiple kernel learning with a million kernels. In Proceedings of the ACM SIGKDD Conference on Knowledge Discovery and Data Mining, Beijing, China, August 2012
- ↑ M. Varma and B. R. Babu. More generality in efficient multiple kernel learning. In Proceedings of the International Conference on Machine Learning, Montreal, Canada, June 2009
- ↑ Yang, H. , Xu, Z. , Ye, J. , King, I. , & Lyu, M. R. (2011). Efficient Sparse Generalized Multiple Kernel Learning. IEEE Transactions on Neural Networks, 22(3), 433-446
- ↑ S. V. N. Vishwanathan, Z. Sun, N. Theera-Ampornpunt and M. Varma. Multiple kernel learning and the SMO algorithm. In Advances in Neural Information Processing Systems, Vancouver, B. C. , Canada, December 2010.
- ↑ Alain Rakotomamonjy, Francis Bach, Stephane Canu, Yves Grandvalet. SimpleMKL. Journal of Machine Learning Research, Microtome Publishing, 2008, 9, pp.2491-2521.
- ↑ Fabio Aiolli, Michele Donini. EasyMKL: a scalable multiple kernel learning algorithm. Neurocomputing, 169, pp.215-224.