فیلتر ذرهای
فیلتر ذره ای یک برآوردگر بهینه میباشد که در دسته برآوردگرهای بیزی میگنجد. اساس این روش برپایه بهکارگیری از ذراتی است که در طی روندی الگوریتمی، برآوردی از توزیع پسین بدست داده، به کمک این برآورد میتوان دست به تخمین پارامتر موردنظر زد. از آنجا که برآورد براساس توزیع پسین انجام میگیرد، فیلتر ذره ای از روشهای بیزی شمرده میشود.
برآورد برپایه نمونهبرداری Monte-Carlo
[ویرایش]فرض کنید یک آزمایش تصادفی را به صورت مستقل از هم بار انجام دهیم و پیشامد را در طول این آزمایش مدنظر قرار دهیم. پس در این آزمایش تعداد دفعاتی که پیشامد رخ میدهد را شمرده و با نشان میدهیم. در نتیجه احتمال رخداد پیشامد به صورت زیر بدست خواهد آمد.
این رابطه بیان میکند که چنانچه آزمایش را با تعداد دفعات نامحدود و به صورت کاملاً مستقل از هم انجام دهیم، آنگاه میتوان احتمال رخداد پیشامدی مانند را با شمردن تعداد رویداد آن پیشامد و تقسیم کردن بر تعداد دفعات کل بدست آورد. اما در جهان واقع به دلیل اینکه تعداد دفعات آزمایش محدود است و وابستگیهایی بین آزمایشها وجود دارد میتوان احتمال رخداد پیشامد را بهصورت زیر تقریب زد.
به این تقریب، تقریب مونت کارلو (Monte-Carlo) گفته میشود[۱]. اینک با توجه به اینکه تعداد رویدادهای پیشامد مورد نظر برای های محدود یک متغیر تصادفی است، تقریب احتمال رخداد پیشامد (رابطه بالا) نیز یک متغیر تصادفی خواهد بود. اما برای آنکه برآورد به روش مونتکارلو کیفیت مناسبی داشته باشد باید دارای ویژگیهای زیر باشد:
ویژگی اول: برآورد برپایه مونتکارلو باید نااریب باشد، یعنی اگر با انجام آزمایشهای متعدد مقدارهای برآورد متفاوتی بدستآوردیم باید میانگین این مقادیر دقیقاً برابر با مقدار مورد برآورد باشد؛ یعنی اگر به دفعات با بهکارگیری از روش مونت کارلو، احتمال رخداد پیشامد را برآورد کردیم و مجموعهای از برآوردها (تخمینها) بدست آوردیم، میانگین این برآوردها باید برابر با مقدار واقعی احتمال رخداد باشد.
ویژگی دوم: برآورد برپایه مونتکارلو باید سازگار (Consistent) باشد، یعنی واریانس مقادیر مختلف از مجموعه برآوردها بر پایه روش مونتکارلو با افزایش تعداد دفعات آزمایش به سمت صفر بگراید.
در نتیجه خطای برآورد نااریب و سازگار دارای میانگین آماری صفر بوده و واریانس آن با افزایش تعداد تکرر آزمایش به سمت صفر میگراید. به عنوان یک مثال کاربردی از روش برآورد مونتکارلو میتوان به برآورد مساحت اشارهکرد. فرض کنید برآورد مساحت یک ناحیه برای ما مطلوب است و این ناحیه مورد برآورد در یک ناحیه مشخص دیگری پَروسته (محصور) شده باشد که مساحت آن دانستهاست؛ بنابراین بر طبق روش مونتکارلو یک آزمایش تصادفی که جزئیات آن بیان میشود را انجام میدهیم؛ ریختن ذرههایی به صورت کاملاً مستقل و تصادفی همگی در درون ناحیهای که مساحت آن را میدانیم؛ بنابراین آزمایش انجام شد. اینک پیشامد برآورد شده را بهصورت تعداد ذرههای که در درون ناحیهای که میخواستیم تخمین بزنیم میافتند تعریف میکنیم. اکنون تعداد ذرههایی را که در درون ناحیه با مساحت نامعلوم میافتد با و تعداد ذرههایی را که در درون ناحیه با مساحت معلوم میافتد با نشان میدهیم. شکل زیر یک مثال از ناحیهای که مساحتش را میخواهیم برآورد کنیم و ناحیه با مساحت معلوم را نشان میدهد.
![](http://upload.wikimedia.org/wikipedia/commons/thumb/2/2a/MCS_AREA.jpg/220px-MCS_AREA.jpg)
اگر مساحت ناحیه معلوم را با و مساحت ناحیه برآورد شده را با نشان دهیم، آنگاه نسبت مساحت ناحیه نامعلوم به کل مساحت ناحیه معلوم بر طبق این آزمایش تقریباً برابر است با:
اینک با توجه به اینکه مقدار معلوم است، مساحت ناحیه برآورد شده به صورت تقریبی از رابطه زیر بدست میآید.
برای اینکه برآورد به صورت نااریب باشد لازم است ذرههایی که در درون ناحیه با مساحت معلوم قرار میگیرند دارای توزیع یکنواخت روی آن ناحیه باشند.
اما روش مونتکارلو به اینجا محدود نمیشود، فرض کنید ذرههای به یک طریقی و بهطور مستقل از هم و تصادفی از توزیع احتمال بیرون کشیده شده باشند. اینک برپایه روش مونتکارلو تابع توزیع به کمک ذرههای بیرون کشیده شده به صورت زیر تقریب زده میشود.
که در آن تابع دلتای دیراک و تعداد ذرهها است. در نتیجه مقدار متوسط هر تابع دلخواه را میتوان به صورت زیر تقریب زد.
-
(
)
-
رابطه اخیر بیان میدارد که برای محاسبه امید ریاضی هر تابع دلخواه کافیست ذره از تابع توزیع نمونه داشت و مقدار آنها تحت تابعیت را محاسبه کرد. در صورتیکه وجود داشته باشد بر طبق قانون ضعیف اعداد بزرگ برای هر کمیت کوچک اپسیلون رابطه زیر را میتوان نوشت[۲].
بر طبق این رابطه هرچه بزرگتر شود احتمال اینکه برآورد متوسط تابع از مقدر واقعی آن یعنی دور شود کمتر است. از طرف دیگر این برآورد یک برآورد نااریب است چراکه داریم:
همچنین این برآورد یک برآورد سازگار است، برای فهم آن نیز داریم:
که در بدست آوردن رابطه اخیر، معادله زیر و با توجه به i.i.d. بودن ذرههای بیرون کشیده شده بکار برده شد.
اینک با توجه به اینکه بسیاری از کمیتها و پارامترهایی را که میخواهیم برآورد کنیم میتوان به صورت امید ریاضی نوشت و امید ریاضی را نیز میتوان به کمک روش بیان شده مونتکارلو برآورد کرد، گستره کاربرد روش مونتکارلو روشن میشود. برای مثال فرض کنید بخواهیم کمیت را برپایه تخمین MMSE و با در نظر گرفتن کمیت مشاهده شده تخمین بزنیم. بر طبق مرجع[۳] میدانیم که این برآورد به رابطه زیر میانجامد.
بنابراین باید تابع را بر روی توزیع متوسط بگیریم. بدین منظور کافیست ذرههای مستقل و تصادفی را از توزیع بیرون کشیده و طبق برآورد مونتکارلو در رابطه زیر قرار دهیم.
در ادامه پیرامون نمونهبرداری بااهمیت به عنوان شاخهای از برآورد مونتکارلو بحث میکنیم.
فریافت نمونهبرداری بااهمیت
[ویرایش]نمونهبرداری بااهمیت (Importance Sampling) به عنوان شاخهای از تخمین برپایه مونتکارلو اولین بار توسط مارشال[۴] معرفی شد. ایده اصلی آن بر پایه نمونهبرداری از توزیع احتمال تنها در نواحی پراهمیت است. اینکه در این روش بهجای نمونهبرداری از همه نواحی توزیع احتمال تنها از نواحی پراهمیت یا مدنظر، نمونهبرداری انجام میگیرد به دلیل کاهش حجم محاسبات یا سهولت در نمونهبرداری میتواند باشد. این روش بهویژه برای فضاهایی با بعد بالا که معمولاً هم دادهها تنک بوده و ناحیه مطلوب کوچکتر از کل فضای دادهاست بسیار کاراست. ایده روش نمونهبرداری بااهمیت، گزینش یک توزیع پیشنهادی بهجای استفاده از توزیع احتمال اصلی است. همانگونه که گفته شد دلیل این جایگزینی به دلیل عدم لزوم یا سختی در نمونهبرداری از توزیع احتمال است.
در نتیجه نمونهبرداری بااهمیت مونتکارلو به استفاده از ذره مستقل و تصادفی بیرون کشیده شده از تلقی میشود تا مقدار متوسط تابع را بگونه زیر تخمین بزند.
که در آن وزن بااهمیت (Importance Weight) گفته شده و به گونه زیر بدست میآید.
درحقیقت دلیل تقریب زدن متوسط تابع بر طبق روابط بالا در این است که توزیع (و نه ) را برپایه تخمین مونتکارلو به گونه زیر میتوان تقریب زد.
که اینبار ذرههای بهطور مستقل از هم و تصادفی از توزیع چگالی احتمال بیرون کشیده شدهاند. سپس بر طبق رابطه [?] تخمین متوسط بگونه زیر بدست میآید.
-
(
)
-
با مقایسه تخمین مونتکارلو از رابطه A1 و تخمین با نمونههای با اهمیت از رابطه B1 فهمیده میشود که تخمین برپایه نمونهبرداری بااهمیت مونت کارلو به کمک ذرههای بیرون کشیده شده از توزیع دست یافتنی و نیز وزنهای بااهمیت مرتبط با آن انجام میگیرد؛ بنابراین به طریقی نمونهبرداری از توزیع با نمونهبرداری از توزیع قابل حصول جایگزین شدهاست. در استفادههای عملی از این روش مانند فیلتر ذرهای که پیرامون آن در همین فصل توضیح داده میشود از وزنهای نرمالیزه (Normalized importance weights) شده استفاده میشود. تعریف وزنهای بااهمیت نرمالیزه از رابطه زیر بدست میآید.
در این صورت تخمین متوسط تابع را به گونه زیر میتوان نوشت [?].
با توجه به رابطه [?] به راحتی میتوان فهمید که این تخمینگر نیز نااریب است چراکه داریم:
واریانس این تخمین نیز به کمک روابط زیر محاسبه میشود [?].
در بدست آوردن رابطه اخیر از i.i.d. بودن ذرههای بیرون کشیده شده از توزیع استفاده شد، یعنی:
با توجه به رابطه [?] مشخص میشود که واریانس این تخمین متفاوت از رابطه [?] مربوط به تخمین مونتکارلو بدست میآید، اما این واریانس در صورت برقراری یکی از دو شرط زیر میتواند کوچک شود [?].
- اگر متناسب با برگزیده شود به نحوی که تقریبی از واریانس توزیع اصلی را بدست دهد.
- اگر متناسب با برگزیده شود به نحوی که واریانس توزیع اصلی را نیز بر طبق رابطه بالا کمتر کند.
بنابراین نمونهبرداری با اهمیت از دو جهت میتواند حائز اهمیت باشد، یکی اینکه نمونهبرداری از توزیع میتواند به مراتب راحتتر و کم محاسبهتر از نمونهبرداری از توزیع باشد و دیگر اینکه این نوع نمونهبرداری میتواند حتی واریانس تخمین را کمتر از واریانس تخمین مونتکارلو کند.
اما گزینش توزیع خود یک مسئله بسیار حیاتی در این مقوله است، انتخاب نادرست این توزیع موجب افزایش واریانس تخمینگر شده باعث میشود هزینه زیادی در قبال راحتتر بودن نمونهبرداری از آن در قبال توزیع بپردازیم. در حقیقت اگر مناسب برگزیده نشود توزیع وزنها بسیار ناهمگون و پراکنده خواهد شد و در نتیجه بسیاری از وزنها به دلیل توزیع خاصشان بیاستفاده میشوند. همچنین در این حالت تخمین برای فضاهای بزرگ تنها توسط تعداد کمی از ذرهها با وزنهای بزرگ تعیینکننده میشود. بنابر آنچه گفته شد، گزینش توزیع پیشنهادی باید بر طبق بندهای زیر باشد [?]:
- توزیع باید به ازای هایی که است بزرگتر از صفر باشد، .
- توزیع باید در نواحی مورد محاسبه متناسب با ویا متناسب با باشد.
- نمونهبرداری کردن از راحت باشد.
- محاسبه برای هر ذره ساده باشد.
با این همه در برخی تجربههای عملی نشان داده شدهاست[۵] که یک شرط دیگر باید داشته باشد، و آن اینکه باسرعت کمتری نسبت به به سمت صفر بگراید تا حساسیتی کمتر نسبت به دادههای پرت (Outlier) داشته باشد یا به عبارتی دیگر این توزیع باید دمبی (tail) بزرگ داشته باشد، یک معیار برای سنجش میزان دمب یک توزیع، تابع رتبه (score) است که رابطه آن در زیر آمدهاست.
نشان داده میشود که اگر شرط محدود بودن را داشته باشد آنگاه توزیع دارای دمبی بزرگ خواهد بود[۶]، در غیر این صورت خیر. اما محدود بودن برای تابع مزبور بدین معنی است که به ازای هر حقیقیای وجود داشته باشد کمیتهای حقیقی و که داشته باشیم:
نمونهبرداری بااهمیت تناوبی
[ویرایش]همانگونه که در بخش پیشین بحث شد، گزینش توزیع پیشنهادی در بازدهی و کارایی تخمین برپایه نمونهبرداری بااهمیت بسیار مهم و حیاتی است؛ بنابراین شیوه گزینش یک توزیع مناسب کلید بهرهبری از یک تخمینگر موفق شمرده میشود. با این حال در اغلب موارد یافتن یک توزیع متناسب بهویژه در مواردی که با فضاهایی با بعد بالا سروکار داریم کار سختی است [?]. از این رو یک راه مقابله با این مشکل ساختن توزیع پیشنهادی به صورت تناوبی و پیدرپی است که این ایده اصلی روش نمونهبرداری با اهمیت تناوبی (Sequential Importance Sampling) یا به اختصار SIS محسوب میشود. برای این منظور بایستهاست که توزیع پیشنهادی به نحوی برگزیده شود تا خاصیت زیر را داشته باشد [?].
برپایه این انتخاب، نمونهبرداری بااهمیت به صورت تناوبی قابل حصول است. برای نشان دادن این مطلب طبق قانون تلسکوپی (Telescope law) در احتمالات برای توزیع میتوان نوشت.
نیز برای توزیع پیشنهادی طبق خاصیتی که برای آن مقرر شد داریم:
در نتیجه وزنهای بااهمیت را میتوان به صورت زیر بازنویسی کرد.
که در این صورت این وزنها بهصورت بازگشتی طبق رابطه زیر میتوانند محاسبه شوند.
از جمله مزیتهای این روش در این است که این وزنها در طول زمان بهصورت تناوبی محاسبه میشوند و بازدهی آن در حین الگوریتم افزوده میشود، اما عیب مهم آن در این است که واریانس وزنها ممکن است بزرگ باشد که موجب کاهش دقت در تخمین میشوند. به عبارت دیگر در مرجع [?] نشان داده شدهاست که واریانس وزنهای بااهمیت در طول زمان افزوده شده و پس از چند تکرر (iteration) از الگوریتم تعداد بسیاری از وزنها مقداری نزدیک به صفر و تنها اندکی از وزنها ناصفر خواهند بود. این پدیده که به مشکل تباهیدگی وزنها (Weight degeneracy problem) موسوم است از معایب مهم نمونهبرداری تناوبی شمرده میشود چرا که موجب هدررفت زمان محاسبات در بروزکردن وزنها از روی وزنهای پیشین خود میشود. راه حل مقابله با این مشکل استفاده از متدهای بازنمونهبرداری است؛ بنابراین بازنمونهبرداری به عنوان یکی از گامهای اصلی در الگوریتم SIS شمرده میشود که هدف از آن حذف ذرههایی با وزنهای کوچک و تقویت ذرههای با وزن بزرگ است. یا به عبارت دیگر این فرایند موجب تشدید ذرههای با احتمال بالا و تضعیف ذرههای با احتمال کوچک میشود. همراهی روش SIS با فرایند بازنمونهبرداری به فرایند Sequential Importance Resampling موسوم است. شکل زیر فرایند بازنمونهبرداری را به صورت نمادین نمایش میدهد.
![](http://upload.wikimedia.org/wikipedia/commons/thumb/6/6c/Resampling_-_Copy_%282%29.tif/lossy-page1-220px-Resampling_-_Copy_%282%29.tif.jpg)
در این شکل گویها معرف ذرهها و ابعاد آن وزن متناظر با آن را نشان میدهد، گویهای پررنگ در ابعاد مختلف هستند، گوی بزرگ بدین معنی است که وزن ذره متناظر با آن بزرگ است یا به عبارتی احتمال آن ذره بالاست، از طرف دیگر گوی کوچک به معنی اینست که وزن ذره متناظر با آن کوچک است یا به عبارتی احتمال رخداد آن ذره کم است. گویهای کمرنگ نیز پس از فرایند بازنمونهبرداری حاصل شدهاند. در این شکل تشدید ذرهها با وزنهای بالا و تضعیف ذرهها با وزنهای کم توسط فرایند بازنمونهبرداری به خوبی نشان داده شدهاست؛ بنابراین بر طبق مطالب گفته شده الگوریتم SIR را میتوان به صورت زیر خلاصه کرد[?].
بنابراین این گام نقشی اساسی در الگوریتم نمونهبرداری بااهمیت ایفا میکند [?] چراکه از طرفی با پدیده پراکندگی ناموزون وزنها که موجب اتلاف محاسباتی میشود مقابله کرده و از تباهیدگی وزنها جلوگیری میکند و از طرف دیگر هنگامیکه وزنها مورب (Skewed) باشند موجب گزینش وزنهای بااهمیتتر میشود. برای همین چه بسا این گام خود موجب تغییراتی در واریانس نمونهها شده و لزوماً تخمین را بهبود ندهد. برای همین این گام با ملاحظاتی انجام میشود که خود موجب پیدایش الگوریتمهای مختلف برای بازنمونهبرداری شدهاست. نکته قابل تأمل در میان این الگوریتمها در این است که اگر معیار، واریانس ذرههای تولیدی باشد روش بازنمونهبرداریای که به روش سیستماتیک (systematic) موسوم است، واریانس کمتری را ایجاد کرده و از این لحاظ ارجح است [?]. در زیر بهصورت خلاصه این روش بیان شد.
SIR Algorithm |
---|
1. Draw random sample from proposal distribution . |
2. Calculate the importance weights for each particle: . |
3. Normalize the importance weights to obtain as: . |
4. Resampling step: Multiply/Suppress the particle with high/low importance weights , respectively, according to . |
- فرض کنید ذرهها و وزنهای مرتبط با آن به صورت روبرو باشد.
- اینک به ازای هر ذره نخست متغیر بهصورت یکنواخت در بازه [۰٬۱] تولید شده و به کمک آن متغیر به صورت روبرو ایجاد میشود.
- به ازای ، وند بهصورت روبرو برگزیده میشود.
- ذره و وزنهای جدید برپایه وند گزیده میشوند.
- اینک ذره و وزنهای جدید بهصورت رندوم تولید میشوند: .
برای درک بهتر نحوه عملکرد فرایند بازنمونهبرداری سیستماتیک خواننده را به مرجع [?] ارجاع میدهیم.
الگوریتم فیلتر ذرهای
[ویرایش]تا اینجا با اساس و پیشنیازهای لازم برای بیان جزئیات الگوریتم فیلتر ذرهای آشنا شدیم و نیز ذکر شد که این فیلتر براساس الگوریتم SIR استوار است. شاید ذکر این نکته نیز برای شروع معرفی فیلتر ذرهای مناسب باشد که این فیلتر با تقریب زدن چگالی پسین بهصورت تناوبی و براساس تخمین بیزین عمل میکند [?]. در حقیقت چون نمونهبرداری مستقیم از چگالی پسین عملی نیست باید به دنبال راهکاری بود که این چگالی را تخمین زد، فیلتر ذرهای گزیری برای رفع این مشکل است. اینک توضیح این فیلتر را با تخمین چگالی پسین به کمک ذرههای بیرون کشیده شده از آن آغاز میکنیم [?]. همانگونه که بیان شد بر طبق تخمین مونتکارلو چگالی پسین را برپایه ذره بیرون کشیده شده از آن بهصورت زیر میتوان تقریب زد.
که در آن ذرههای مستقل از هم و بهصورت تصادفی بیرون کشیده شده از چگالی پسین است. بر پایه این تخمین امید ریاضی هر تابع دلخواه را بهصورت زیر میتوان تقریب زد.
با این حال نمونهبرداری از چگالی مزبور تنها حالتی خاص و غیرپیچیده در تخمین مونتکارلو است، در حالت کلی چگالی پسین دیگری در استخراج فیلتر ذرهای بکارگرفته میشود که چگالی کاملتری در روش فیلترکردن بیزین محسوب شده، به دلیل استفاده از اطلاعات افزونتر عملکرد بهتری خواهد داشت. این چگالی برابر بوده که در آن مجموعه بردارهای حالت از ابتدا تا لحظه است.
اما به دلیل اینکه نمونهبرداری مستقیم از این چگالی قابل عملی نیست بر طبق روش نمونهبرداری بااهمیت از یک توزیع پیشنهادی بهره گرفته میشود؛ بنابراین تخمین تابع دلخواه با این توزیع پیشنهادی به صورت زیر بدست میآید.
اینک چون مخرج رابطه اخیر مقداری ثابت است آن را میتوان به داخل اپراتور متوسطگیری صورت برد، در نتیجه میتوان نوشت:
همانطور که پیشتر گفته شد، کمیت ، وزن بااهمیت نامیده شده بر طبق رابطه زیر بدست میآید.
همچنین کمیت نرمالیزه شده وزنهای بااهمیت با نشان داده شد که از رابطه زیر بدست میآید.
پس به عبارتی چگالی پسین بر پایه تخمین نمونهبرداری بااهمیت مونتکارلو از رابطه زیر تخمین زده میشود.
که در آن ذرههای بهجای آنکه از چگالی نامعلوم و غیرقابل عملی نمونهبرداری شده باشند از تویع پیشنهادی بیرون کشیده شدهاند. وزنهای نرمالیزه شده آن یعنی نیز طبق رابطه زیر بدست میآیند.
پیرامون شرایط حیاتی انتخاب توزیع پیشنهادی در بخش [?] بحث شد، یکی از این شروط این بود که آن را بتوان به صورت زیر تجزیه کرد.
در نتیجه با کمک گرفتن از این تجزیه و با درنظر گرفتن دو شرط اساسی \eqref{ASUM1} و \eqref{ASUM2} وزنهای با اهمیت را به صورت تناوبی میتوان محاسبه کرد، برای نشان دادن این مطلب توجه کنید که:
اینک با درنظر داشتن این نکته که با داشتن بردار حالت در لحظه و پیش از آن اطلاعات افزونتری در احتمال رخداد بدست نمیدهند، داریم:
از طرف دیگر به دلیل علیت میدانیم بردار حالت در زمان تأثیری در احتمال رخداد بردار مشاهده در لحظه ندارد. پس میتوان نوشت:
بنابراین در مجموع رابطه زیر را بهصورتی که درپی میآید میتوان ادامه داد.
بنابراین وزنهای متناظر با ذرههای نمونهبرداری شده از توزیع پیشنهادی به صورت تناوبی زیر قابل دستیابی هستند.
که در آن مجموعه ذرههای نمونه برداری شده از آغاز تا لحظه حاضر است، یعنی:
بنابراین فیلتر ذرهای برپایه نمونهبرداری تناوبی مونتکارلو عمل کرده و به کمک ذرههای بیرون کشیده شده از توزیع پیشنهادی و وزنهای متناظر با آن که به صورت تناوبی از وزنهای ماقبل خود بدست میآیند تخمینی از بردار حالت ارائه میدهد. شاید تکرار این نکته مفید باشد که طبق رابطه SIS وزنهای بااهمیت در هر لحظه به کمک ذرههای نمونه برداشته شده از توزیع پیشنهادی و ارزیابی احتمال درستنمایی و چگالی گذار که بر طبق فضای حالت دانسته هستند بدست میآیند؛ بنابراین تخمین MMSE به کمک این ذرهها و وزنهای متناظر با آن به طریق زیر محاسبه میشوند.
در نهایت یادآوری این نکته حائز اهمیت است که واریانس وزنها در طول الگوریتم رو به فزونی میگذارد، بگونهای که مقدار بیشتر وزنها به سمت صفر گراییده، مقدار تعداد اندکی از آنها بزرگ میشود، و درنهایت موجب تباه شدن وزنها میشود که لازم میدارد از متدهای بازنمونهبرداری که در بخش [?] پیرامون آن بحث شد استفاده شود. بنابر مطالب گفته شده الگوریتم فیلتر ذرهای در جدول زیر خلاصه شد.
Particle Filter Algorithm |
---|
Initialization: k=0 |
For i=1,... ,N: Draw the particles from density . |
For k=1,2,... |
Importance sampling step: For i=1,... ,N |
For i=1,... ,N Evaluate the importance weights: |
For i=1,... ,N Normalize the importance weights: |
Resampling step: Eliminate/Multiply particles according to its normalized weights to obtain particles |
Output: the optimal MMSE estimation is given as: |
End |
نکته دیگری که باید گفته شود مربوط به گام آغازین الگوریتم است. در این لحظه ذرهها از روی چگالی نمونهبرداری میشوند که این چگالی احتمال با در نظر گرفتن تحرک جسم در لحظه اولیه تقریب زده میشود. تا اینجا درمورد نحوه انتخاب توزیع پیشنهادی نکاتی بیان شد، اما گزینههایی مطرح نشد. بر طبق مرجع [?] انتخابی بهینه از دید کمینه شدن واریانس وزنهای بااهمیت طبق گزینه زیر است.
اما همانطور هم که در مرجع [?] مذکور بیان شدهاست نمونهبرداری از این توزیع غیرعملی است. گزینه دیگر \cite{transition} استفاده از چگالی گذار است، یعنی:
با این انتخاب در هر iteration وزنهای بااهمیت بر طبق رابطه [?] به صورت زیر بروز میشوند.
بدین معنی که تنها دانستن احتمال درستنمایی در بروزکردن وزنها کفایت میکند. روش دیگر تقریب زدن توزیع پیشنهادی با یک توزیع گاوسی است. انتخاب برای توزیع میبایست حول احتمال رخداد بردار حالت در لحظه به شرط در اختیار داشتن کل مجموعه بردارهای مشاهدات تا لحظه و کل مجموعه بردارهای حالت تا لحظه باشد. به عبارت دیگر باید دید چنانچه بردار مشاهدات و بردار حالت بترتیب تا لحظه و در دسترس باشند، بردار حالت در لحظه چه توزیعی خواهد داشت آن توزیع را برای توزیع پیشنهادی برگزید. بنابر آنچه گفته شد میتوان این توزیع را جداگانه به کمک فیلتر کالمن و با فرض گاوسی بودن این توزیع بدست آورد [?]. یعنی با انتشار Propagate ذرهها از لحظه پیشین به لحظه کنونی و به یاری معادلات کالمن این توزیع را تخمین زد. در زیر نحوه بدست آوردن میانگین و کواریانس این توزیع توضیح داده میشود. نخست از روی ذرههای کنونی و به کمک ماتریس گذار، ذرههای پیشبینی طبق فرایند پیشبینی کالمن (Kalman filter prediction procedure) زیر بدست آورده میشوند.
پس از آن ماتریس MSE پیشبینی کمینه(minimum prediction MSE matrix) به کمک کواریانس نویز پروسس محاسبه میشود.
که در آن همانطور که گفته شد ماتریس کواریانس نویز پروسس بوده از رابطه زیر حساب میشود.
گین کالمن (Kalman gain) بر پایه معادله زیر و به یاری ماتریس کواریانس نویز اندازهگیری بدست میآید.
سرانجام میانگین و ماتریس کواریانس توزیع پیشنهادی بترتیب به کمک ماتریس MMSE و فرایند تصحیح فیلتر کالمن طبق روابط زیر تعیین میشوند.
به عبارت دیگر انتخاب توزیع پیشنهادی به صورت زیر خواهد بود، که در آن میانگین این توزیع برابر بردار حالت اصلاح شده بوده و ماتریس کواریانس آن همان ماتریس MMSE است.
بنابراین گام نمونهبرداری بااهمیت از الگوریتم فیلترذرهای در جدول زیر خلاصه شد.
Importance Sampling with Kalman Filter |
---|
The importance sampling step in the particle filter: |
For i=1,... ,N |
Update the particles by the Kalman filter:
|
End |
به الگوریتم فیلتر ذرهای که توزیع پیشنهادی آن توسط فیلتر کالمن تخمین زده شود، فیلتر ذرهای کالمن (Kalman Particle Filter) یا به اختصار KPF میگویند.
منابع
[ویرایش]- ↑ A. Doucet and X.Wang, “Monte Carlo methods for signal processing: A review in the statistical signal processing context”, IEEE Signal Process. Mag. , vol. 22, no. 6, pp. 152–170, Nov. 2005
- ↑ Z. Chen, “Bayesian filtering: From kalman filters to particle filters, and beyond”, Technical report, McMaster University, 2003.
- ↑ S. M. Kay, “Fundamentals of statistical signal processing: estimation theory”, Englewood Cliffs, NJ: Prentice Hall International, Inc. , 1993.
- ↑ ?
- ↑ D. J. C. Mackay, “Introduction to Monte Carlo methods”, In Proceedings of the NATO Advanced Study Institute on Learning in graphical models, pp.175-204, March 1998.
- ↑ Z. Chen, “Bayesian filtering: From kalman filters to particle filters, and beyond”, Technical report, McMaster University, 2003.
مشارکتکنندگان ویکیپدیا. «Particle filter». در دانشنامهٔ ویکیپدیای انگلیسی، بازبینیشده در ۱۸ سپتامبر ۲۰۲۰.