پرش به محتوا

نامساوی مک‌دیارمید

از ویکی‌پدیا، دانشنامهٔ آزاد

نامساوی مک‌دیارمید (McDiarmid Inequality):

این نامساوی یکی از نامساوی‌های احتمالاتی است که در تحلیل الگوریتم‌ها و مسائل مرتبط با حوزه تئوری احتمالات و آمار به کار می‌رود. این نامساوی توسط کلی مک‌دیارمید ارائه شده‌است و از آن برای تخمین احتمالات و حدود بسیار بالای احتمالاتی استفاده می‌شود.

نامساوی مک‌دیارمید به زبان ساده:

نامساوی مک‌دیارمید یکی از مفاهیم اساسی ریاضیات است که در حل مسائل به کار می‌رود. این نامساوی به صورت عمومی به شکل زیر است:


در این نامساوی و

مثال: برای حل نامعادله زیر و بدست‌ آوردن مقادیر ممکن برای

ابتدا از دو طرف نامعادله واحد کم میکنیم:

سپس برای حذف ضریب ، دو طرف نامعادله را در عبارت ضرب میکنیم:

پس مقادیر ممکن برای تمام اعداد حقیقی کوچک تر از میباشد.


نامساوی مک‌دیارمید یکی از ابزار‌های مهم در تحلیل و حل مسائل ریاضیاتی و کاربرد‌های علمی است.

معادلات مک‌دیارمید (McDiarmid Equations):

این معادلات به شیوه‌ای مختصر در مورد رفتار دینامیکی و توزیع‌هایی که در حالت تعادلی در معادلات دیفرانسیلی ظاهر می‌شوند توضیح می‌دهد. این معادلات معمولاً در زمینه‌های مختلفی از علوم مورد استفاده قرار می‌گیرند. از جمله فیزیک، مهندسی و بیولوژی.

معادلات مک‌دیارمید در موارد مختلف علوم از جمله فیزیک، مهندسی، اقتصاد و بیولوژی به کار می‌روند. این معادلات برای توصیف رفتار‌هایی مانند انتقال حرارت، جریان سیالات، دینامیک سیالات و بسیاری موارد دیگر استفاده می‌شوند.

معمولاً معادلات مک‌دیارمید به صورت یک معادله دیفرانسیلی خطی با ضرایب متغیرهای زمان و فضا و معمولاً در ابعاد چندین متغیره بیان می‌شوند. این معادلات می‌توانند به صورت تحلیلی یا عددی حل شوند، و معمولاً در موارد پیچیده، روش‌های تقریبی مانند روش المان محدود برای حل آن‌ها استفاده می‌شود.

برای مطالعه بیشتر در مورد معادلات مک‌دیارمید، می‌توانید به کتب مرجع در زمینه فیزیک و ریاضیات، منابع دانشگاهی یا مقالات علمی در این زمینه مراجعه کنید.

توضیح کلی درمورد موضوع

[ویرایش]

در بیشتر مواقع ما نیاز داریم که نشان دهیم که یک quantity رندوم نزدیک میانگینش هست. برای همین است که ما یک نتیجه به شکل زیر می‌خواهیم:

اینگونه نتایج با عنوان concentration of measure شناخته می‌شوند. این نتایج برای ایجاد تضمین‌های عملکرد بسیاری از الگوریتم‌ها اساسی هستند. در واقع برای تئوری یادگیری آماری، ما به باند یکنواخت به فرم زیر نیاز داریم:

روی یک کلاس از توابع .

در قضیه احتمال و تئوری علوم کامپیوتر نامساوی McDiarmid یک نوع نامساوی concentration هست که کران بالایی برای انحراف بین نمونه‌های آزمایش که به صورت متغیرهای تصادفی مستقل هستند و امید ریاضی تابع مشخص ارائه می‌دهد.

این نامساوی روی توابعی که bounded differences property هستند تعریف می‌شود.

معرفی مفاهیم اصلی موضوع

[ویرایش]

bounded differences property

[ویرایش]

از جمله مفاهیم اصلی در این موضوع می‌توان به مفهوم bounded differences property اشاره کرد. وقتی یک تابع این ویژگی را برای دارد. یعنی برای هر و هر که تنها تفاوتشان در جمله i ام هست داشته باشیم:

در اینصورت می‌گوییم این تابع bounded differences property- هست.

نامساوی concentration

[ویرایش]

مفهوم دیگری که در اینجا داریم مفهوم concentration inequalities هست. اینگونه نامساوی‌ها یک کرانی درمورد اینکه یک متغیر تصادفی چگونه از یک مقدار که به‌طور معمول امید ریاضی هست انحراف دارد. در قانون اعداد بزرگ جمع متغیر تصادفی‌های مستقل به احتمال زیاد نزدیک به امید ریاضی آنها است. البته نتایج اخیر نشان می‌دهد که این رفتار با تابع‌های دیگری از متغیرهای تصادفی نیز به اشتراک گذاشته شده‌است.

قضایا ی اصلی مرتبط با این موضوع

[ویرایش]

نامساوی McDiarmid

[ویرایش]

نامساوی McDiarmid به صورت زیر تعریف می‌شود:

فرض کنید متغییرهای تصادفی مستقل باشند و تابعی با bounded differences property- باشد. آنگاه برای هر t بزرگتر از صفر داریم:

حال به اثبات این قضیه می پردازیم.

ابتدا را به صورت زیر تعریف می کنیم:

حال با استفاده از امید شرطی به راحتی می توان اثبات کرد که و همچنین داریم:

حال دو کران بالا و پایین برای تعریف می کنیم.

میدانیم که هست. حال با توجه به اینکه ها مستقل هستند داریم:

حال همانطور که در نامساوی Hoeffding داریم :

در نتیجه با استفاده از لم Hoeffding داریم:

می دانیم برای کمترین بودن باید مشتق توان e برابر با صفر شود پس درنتیجه داریم :

حال با جایگذاری s در نامساوی به‌دست آمده نامساوی McDiarmid اثبات می شود.

لم Hoeffding

[ویرایش]

فرض کنید X متغیر تصادفی باشد که امید ریاضی آن صفر باشد و باشد. آنگاه داریم:

حال به اثبات آن می پردازیم:

چون X کران بالا و کران پایین دارد پس می توان آن را به شکل ترکیب خطی a,b نوشت.

طبق نامساوی ینسن داریم:

که u و تابع g(u) را به شکل زیر تعریف می کنیم:

با استفاده از قضیه تیلور می دانیم:

صورت‌های دیگر نامساوی McDiarmid

[ویرایش]

نامساوی McDiarmid برای توزیع‌های unbalanced

[ویرایش]

فرض کنید متغییرهای تصادفی مستقل از یک توزیع باشند که یک مقدار مشخص با احتمال p وجود نداشته باشد و تابعی با bounded differences property- باشد. آنگاه برای هر t بزرگتر از صفر داریم:

نامساوی McDiarmid برای نورم sub-Gaussian

[ویرایش]

فرض کنید متغییرهای تصادفی مستقل باشند و یک تابع باشد که همان kامین ورژن centered conditional از f باشد. را نورم sub-Gaussian یک متغیر تصادفی در نظر بگیرید. آنگاه برای هر t بزرگتر از صفر داریم:

نامساوی McDiarmid برای نورم sub-Exponential

[ویرایش]

فرض کنید متغییرهای تصادفی مستقل باشند و یک تابع باشد که همان kامین ورژن centered conditional از f باشد. را نورم sub-Exponential یک متغیر تصادفی در نظر بگیرید. آنگاه برای هر t بزرگتر از صفر داریم:

نامساوی Hoeffding (حالت خاص برای تابع f)

[ویرایش]

را در نظر بگیرید و فرض کنید متغییرهای تصادفی مستقل باشند. آنگاه برای s بزرگتر از صفر داریم:

مثال‌هایی از مسائل کلاسیک

[ویرایش]

از مثال‌های کلاسیک این نامساوی می‌توان به نامساوی Hoeffding که در بالا آن را بیان کردیم اشاره نمود.

مثال دیگری که می‌توان از حالت خاص unbalanced این نامساوی داشت استفاده آن در یک تابع در گراف‌ها هنگام ارزیابی بر روی گراف‌های تصادفی پراکنده‌است زیرا در یک گراف تصادفی پراکنده احتمال نبودن یک یال خاص بسیار بیشتر از وجود آن است.

کاربردهایی از قضایای این موضوع در حل سایر مسائل

[ویرایش]

از کاربردهای سایر بخش‌ها در این بخش می‌توان به entropy اشاره کرد. درواقع وقتی ما می‌خواهیم از حالت جمع (در نامساوی Hoeffding) به حالت تابع general از متغیرهای تصادفی مستقل نامساوی را extend کنیم از متد entropy استفاده می‌کنیم.

از کاربردهای این نامساوی می‌توان به اینکه کران این نامساوی به عنوان یک ابزار استاندارد در آنالیز الگوریتم‌ها به کار می‌رود اشاره کرد.

از این نامساوی‌ها در برخی از مسایل استاندارد در تیوری یادگیری و vector valued concentration و تعمیم PCA و روش پیچیدگی Rademacher استفاده می‌شود. و البته در مرور زمان از اینها برای تعمیم کران‌ها در شرایط مختلف نیز اثبات شد.

همچنین می‌توان نشان داد با استفاده از این نامساوی‌ها که نامساوی Kontorovich که تمرکز بر محصولات فضاهای احتمال متریک زیر گاوسی را توصیف می‌کند و کاربردهایی برای پایداری الگوریتم دارد می‌تواند به حالت زیر نمایی نیز بسط پیدا کند.

منابع

[ویرایش]

[۱] [۲] [۳] [۴] [۵] [۶]