نامساوی مکدیارمید
این مقاله شامل فهرستی از منابع، کتب مرتبط یا پیوندهای بیرونی است، اما بهدلیل فقدان یادکردهای درونخطی، منابع آن همچنان مبهم هستند. (ژانویه ۲۰۲۴) |
این مقاله ممکن است برای بیشتر خوانندگان بیش از حد فنی و فهم آن دشوار باشد.(ژانویه ۲۰۲۴) |
نامساوی مکدیارمید (McDiarmid Inequality):
این نامساوی یکی از نامساویهای احتمالاتی است که در تحلیل الگوریتمها و مسائل مرتبط با حوزه تئوری احتمالات و آمار به کار میرود. این نامساوی توسط کلی مکدیارمید ارائه شدهاست و از آن برای تخمین احتمالات و حدود بسیار بالای احتمالاتی استفاده میشود.
نامساوی مکدیارمید به زبان ساده:
نامساوی مکدیارمید یکی از مفاهیم اساسی ریاضیات است که در حل مسائل به کار میرود. این نامساوی به صورت عمومی به شکل زیر است:
در این نامساوی و
مثال: برای حل نامعادله زیر و بدست آوردن مقادیر ممکن برای
ابتدا از دو طرف نامعادله واحد کم میکنیم:
سپس برای حذف ضریب ، دو طرف نامعادله را در عبارت ضرب میکنیم:
پس مقادیر ممکن برای تمام اعداد حقیقی کوچک تر از میباشد.
نامساوی مکدیارمید یکی از ابزارهای مهم در تحلیل و حل مسائل ریاضیاتی و کاربردهای علمی است.
معادلات مکدیارمید (McDiarmid Equations):
این معادلات به شیوهای مختصر در مورد رفتار دینامیکی و توزیعهایی که در حالت تعادلی در معادلات دیفرانسیلی ظاهر میشوند توضیح میدهد. این معادلات معمولاً در زمینههای مختلفی از علوم مورد استفاده قرار میگیرند. از جمله فیزیک، مهندسی و بیولوژی.
معادلات مکدیارمید در موارد مختلف علوم از جمله فیزیک، مهندسی، اقتصاد و بیولوژی به کار میروند. این معادلات برای توصیف رفتارهایی مانند انتقال حرارت، جریان سیالات، دینامیک سیالات و بسیاری موارد دیگر استفاده میشوند.
معمولاً معادلات مکدیارمید به صورت یک معادله دیفرانسیلی خطی با ضرایب متغیرهای زمان و فضا و معمولاً در ابعاد چندین متغیره بیان میشوند. این معادلات میتوانند به صورت تحلیلی یا عددی حل شوند، و معمولاً در موارد پیچیده، روشهای تقریبی مانند روش المان محدود برای حل آنها استفاده میشود.
برای مطالعه بیشتر در مورد معادلات مکدیارمید، میتوانید به کتب مرجع در زمینه فیزیک و ریاضیات، منابع دانشگاهی یا مقالات علمی در این زمینه مراجعه کنید.
توضیح کلی درمورد موضوع
[ویرایش]در بیشتر مواقع ما نیاز داریم که نشان دهیم که یک quantity رندوم نزدیک میانگینش هست. برای همین است که ما یک نتیجه به شکل زیر میخواهیم:
اینگونه نتایج با عنوان concentration of measure شناخته میشوند. این نتایج برای ایجاد تضمینهای عملکرد بسیاری از الگوریتمها اساسی هستند. در واقع برای تئوری یادگیری آماری، ما به باند یکنواخت به فرم زیر نیاز داریم:
روی یک کلاس از توابع .
در قضیه احتمال و تئوری علوم کامپیوتر نامساوی McDiarmid یک نوع نامساوی concentration هست که کران بالایی برای انحراف بین نمونههای آزمایش که به صورت متغیرهای تصادفی مستقل هستند و امید ریاضی تابع مشخص ارائه میدهد.
این نامساوی روی توابعی که bounded differences property هستند تعریف میشود.
معرفی مفاهیم اصلی موضوع
[ویرایش]bounded differences property
[ویرایش]از جمله مفاهیم اصلی در این موضوع میتوان به مفهوم bounded differences property اشاره کرد. وقتی یک تابع این ویژگی را برای دارد. یعنی برای هر و هر که تنها تفاوتشان در جمله i ام هست داشته باشیم:
در اینصورت میگوییم این تابع bounded differences property- هست.
نامساوی concentration
[ویرایش]مفهوم دیگری که در اینجا داریم مفهوم concentration inequalities هست. اینگونه نامساویها یک کرانی درمورد اینکه یک متغیر تصادفی چگونه از یک مقدار که بهطور معمول امید ریاضی هست انحراف دارد. در قانون اعداد بزرگ جمع متغیر تصادفیهای مستقل به احتمال زیاد نزدیک به امید ریاضی آنها است. البته نتایج اخیر نشان میدهد که این رفتار با تابعهای دیگری از متغیرهای تصادفی نیز به اشتراک گذاشته شدهاست.
قضایا ی اصلی مرتبط با این موضوع
[ویرایش]نامساوی McDiarmid
[ویرایش]نامساوی McDiarmid به صورت زیر تعریف میشود:
فرض کنید متغییرهای تصادفی مستقل باشند و تابعی با bounded differences property- باشد. آنگاه برای هر t بزرگتر از صفر داریم:
حال به اثبات این قضیه می پردازیم.
ابتدا را به صورت زیر تعریف می کنیم:
حال با استفاده از امید شرطی به راحتی می توان اثبات کرد که و همچنین داریم:
حال دو کران بالا و پایین برای تعریف می کنیم.
میدانیم که هست. حال با توجه به اینکه ها مستقل هستند داریم:
حال همانطور که در نامساوی Hoeffding داریم :
در نتیجه با استفاده از لم Hoeffding داریم:
می دانیم برای کمترین بودن باید مشتق توان e برابر با صفر شود پس درنتیجه داریم :
حال با جایگذاری s در نامساوی بهدست آمده نامساوی McDiarmid اثبات می شود.
لم Hoeffding
[ویرایش]فرض کنید X متغیر تصادفی باشد که امید ریاضی آن صفر باشد و باشد. آنگاه داریم:
حال به اثبات آن می پردازیم:
چون X کران بالا و کران پایین دارد پس می توان آن را به شکل ترکیب خطی a,b نوشت.
طبق نامساوی ینسن داریم:
که u و تابع g(u) را به شکل زیر تعریف می کنیم:
با استفاده از قضیه تیلور می دانیم:
صورتهای دیگر نامساوی McDiarmid
[ویرایش]نامساوی McDiarmid برای توزیعهای unbalanced
[ویرایش]فرض کنید متغییرهای تصادفی مستقل از یک توزیع باشند که یک مقدار مشخص با احتمال p وجود نداشته باشد و تابعی با bounded differences property- باشد. آنگاه برای هر t بزرگتر از صفر داریم:
نامساوی McDiarmid برای نورم sub-Gaussian
[ویرایش]فرض کنید متغییرهای تصادفی مستقل باشند و یک تابع باشد که همان kامین ورژن centered conditional از f باشد. را نورم sub-Gaussian یک متغیر تصادفی در نظر بگیرید. آنگاه برای هر t بزرگتر از صفر داریم:
نامساوی McDiarmid برای نورم sub-Exponential
[ویرایش]فرض کنید متغییرهای تصادفی مستقل باشند و یک تابع باشد که همان kامین ورژن centered conditional از f باشد. را نورم sub-Exponential یک متغیر تصادفی در نظر بگیرید. آنگاه برای هر t بزرگتر از صفر داریم:
نامساوی Hoeffding (حالت خاص برای تابع f)
[ویرایش]را در نظر بگیرید و فرض کنید متغییرهای تصادفی مستقل باشند. آنگاه برای s بزرگتر از صفر داریم:
مثالهایی از مسائل کلاسیک
[ویرایش]از مثالهای کلاسیک این نامساوی میتوان به نامساوی Hoeffding که در بالا آن را بیان کردیم اشاره نمود.
مثال دیگری که میتوان از حالت خاص unbalanced این نامساوی داشت استفاده آن در یک تابع در گرافها هنگام ارزیابی بر روی گرافهای تصادفی پراکندهاست زیرا در یک گراف تصادفی پراکنده احتمال نبودن یک یال خاص بسیار بیشتر از وجود آن است.
کاربردهایی از قضایای این موضوع در حل سایر مسائل
[ویرایش]از کاربردهای سایر بخشها در این بخش میتوان به entropy اشاره کرد. درواقع وقتی ما میخواهیم از حالت جمع (در نامساوی Hoeffding) به حالت تابع general از متغیرهای تصادفی مستقل نامساوی را extend کنیم از متد entropy استفاده میکنیم.
از کاربردهای این نامساوی میتوان به اینکه کران این نامساوی به عنوان یک ابزار استاندارد در آنالیز الگوریتمها به کار میرود اشاره کرد.
از این نامساویها در برخی از مسایل استاندارد در تیوری یادگیری و vector valued concentration و تعمیم PCA و روش پیچیدگی Rademacher استفاده میشود. و البته در مرور زمان از اینها برای تعمیم کرانها در شرایط مختلف نیز اثبات شد.
همچنین میتوان نشان داد با استفاده از این نامساویها که نامساوی Kontorovich که تمرکز بر محصولات فضاهای احتمال متریک زیر گاوسی را توصیف میکند و کاربردهایی برای پایداری الگوریتم دارد میتواند به حالت زیر نمایی نیز بسط پیدا کند.