واگرایی کولبک-لیبلر
در آمار ریاضی از واگرایی کولبک-لیبلر یا انتروپی نسبی به عنوان معیاری برای اندازهگیری واگرایی یک توزیع احتمال از یک توزیع احتمال ثانویه، یاد میشود.[۱][۲] از جمله کاربردهای این مفهوم شامل توصیف انتروپی نسبی (shannon) در سیستمهای اطلاعاتی، میزان تصادفیبودن در سریهای زمانی پیوسته و بهره اطلاعاتی در زمانی که به مقایسه با مدلهای آماری استنباطی میپردازیم، میباشد. برخلاف تنوع اطلاعات، این معیار، یک معیار نامتقارن میباشد و در نتیجه نمیتوان آن را به عنوان یک معیار پراکندگی معرفی کرد. به عبارت دیگر، مقدار برای واگرایی کولبک-لیبلر نشان میدهد که ما میتوانیم انتظار رفتار مشابهی (نه دقیقاً یکسان) از دو توزیع داشته باشیم در حالی که مقدار برای این معیار نشان میدهد که دو توزیع رفتارهای متضادی دارند.
ریشهشناسی
[ویرایش]عبارت واگرایی کولبک-لیبلر در اصل توسط Solomon Kullback و Richard Leibler در سال ۱۹۵۱ به عنوان واگرایی جهتدار بین دو توزیع معرفی گردید؛ هرچند که Kullback خودش نام تمییز اطلاعات را بیشتر ترجیح میداد.[۳] در Kullback's historic text, Information Theory and Statistics، این معیار مورد بحث قرار گرفته است.
تفسیر
[ویرایش]واگرایی کولبک-لیبلر توزیع نسبت به اغلب به صورت نوشته میشود.
یادگیری ماشین
[ویرایش]در حوزه یادگیری ماشین از عموماً به نام بهره اطلاعاتی حاصل به شرطی که به جای توزیع از توزیع استفاده شود، یاد میشود. از منظر تئوری اطلاعات، این مسئله انتروپی نسبی از توزیع با توجه به توزیع نامیده میشود.
کدگذاری
[ویرایش]در حوزه نظریه کدگذاری، میتواند به عنوان معیاری برای اندازهگیری متوسط تعداد بیتهای اضافی مورد نیاز به منظور کد کردن نمونهای از توزیع با استفاده از یک کد بهینهسازی شده برای توزیع ، به جای استفاده از کد بهینهسازی شده برای میباشد.
استنتاج بیزی
[ویرایش]از منظر استنتاج بیزی ، یک معیار اندازهگیری اطلاعات کسب شده هنگامی که یک اصلاح باورهای از توزیع پیشین احتمال به توزیع پسین احتمال رخ دهد. به عبارت دیگر، مقداری از اطلاع است که به واسطه تقریب زدن در هنگامی که از برای آن استفاده میشود، میباشد.[۴] در عمل، بهطور معمول نشان دهنده توزیع «صحیح» دادهها، مشاهدات یا یک توزیع تئوری است که دقیق محاسبه شده است؛ در حالی که بهطور معمول نشان دهنده یک نظریه، مدل، توصیف یا تقریبی از میباشد. به منظور پیدا کردن یک توزیع که نزدیکترین توزیع به باشد، میتوان به دنبال محاسبه توزیعی گشت که معیار واگرایی را کمینه میکند.
هندسه اطلاعات
[ویرایش]در کاربردها، معمولا توزیع صحیح دادهها را نشان میدهد و یک فرضیه، مدل یا تخمینی از را نشان میدهد. برای اینکه بهترین تخمین توزیع از توزیع را بدست بیاوریم میتوانیم واگرایی کولبک-لیبلر این دو توزیع را کمینه کنیم و سپس پرجکشن اطلاعات را بدست بیاوریم.
با اینکه انتروپی نسبی یک فاصله آماری به شمار میرود اما یک متریک نیست. بلکه یک معیار واگرایی است. چرا که این معیار متقارن نیست، یعنی و همچنین نامساوی مثلث در مورد آن صادق نیست. واگرایی برخلاف متریک که فاصله خطی را تعمیم میدهد، تعمیمی از مربع فاصله است. فرم بینهایتکوچک انتروپی نسبی و بهطور خاص هسین آن، یک تنسور متریک میهد.
انتروپی نسبی یک حالت خاص از یک کلاس گستردهتر از واگراییهای آماری به نام واگرایی f و همچنین کلاس واگراییهای برگمن است، و این تنها واگرایی روی توزیعهای احتمالاتی است که در هر دو کلاس قرار میگیرد.
اقتصاد
[ویرایش]یک بازیکن را در یک بازی عادلانه با نتیجه متقابلا مجزا در نظر بگیرید. برای مثال یک شخص که در مسابقه اسبسواری که جمع شانسهای رسمی برد یک است سرمایهگذاری میکند. نرخ سود مورد انتظار این سرمایهگذار برابر است با انتروپی نسبی احتمالاتی که وی براساس آنها سرمایهگذاری میکند و مقادیر رسمی شانس برد.[۵]
تعریف
[ویرایش]برای توزیعهای احتمالاتی گسسته و معیار واگرایی کولبک-لیبلر واگرایی از به ، به صورت زیر تعریف میشود[۶]
به عبارت دیگر، امید تفاوت لگاریتمی بین احتمالات و در جایی که امید با استفاده از توزیع به دست آمده باشد، میباشد. معیار واگرایی کولبک-لیبلر تنها در صورتی که نتیجه دهد تعریف شده است. هر زمان که برابر صفر گردد سهم مین جمله صفر تفسیر میشود و این بخاطر میباشد. برای توزیعهای و از یک متغیر تصادفی پیوسته، معیار واگرایی کولبک-لیبلر به صورت انتگرال زیر تعریف میشود:[۷]
بهطوریکه در آن و به معنی چگالی احتمال و میباشد. بهطور کلی، اگر و احتمالهایی تعریف شده بر روی یک مجموعه X باشند و اکیداً پیوسته نسبت به باشد، آنگاه معیار واگرایی کولبک-لیبلر از به به صورت زیر تعریف میگردد:
در این تعریف، مشتق Radon–Nikodym از نسبت به میباشد و میتواند به صورت زیر بازنویسی شود:
که ما آن را به عنوان آنتروپی نسبی نسبت به میشناسیم. در ادامه در این مورد، اگر هر اندازهگیری بر روی باشد که در آن و برقرار باشد (به این معنی که و اکیداً نسبت به ) آنگاه معیار واگرایی کولبک-لیبلر از به ، به صورت زیر میباشد
در صورتی که اطلاعات با واحد بیت اندازهگیری شده باشد لگاریتمها در مبنای میباشند و در صورتی که از واحد nats برای سنجش اطلاعات استفاده شده باشد، پایه لگاریتمها خواهد بود.
قراردادهای مختلفی برای اشاره به به صورت لفظی وجود دارد. اغلب از آن به عنوان اختلاف بین توزیعهای و یاد میشود;در حالی که این توصیف با خاصیت نامتقارن بودن فرمول (یعنی واگرایی توزیع از با میزان واگرایی توزیع از لزوماً برابر نیست) در تعارض است. از این رو برخی مواقع، همانطور که در این مقاله هم از آن یاد شد، از آن به عنوان واگرایی توزیع از یا نسبت به توزیع یاد میکنند.
خصوصیات
[ویرایش]Arthur Hobson ثابت کرد که معیار واگرایی کولبک-لیبلر تنها معیار تفاوت بین توزیعهای احتمالی است که برخی از خواص مورد نظر را در خود دارد.[۸] و نتیجتاً، اطلاعات متقابل نیز تنها معیار وابستگی متقابل میان متغیرهای تصادفی است که یکسری شرایط خاص را دارا میباشد، چرا که آن میتواند از منظر معیار واگرایی مورد نظر نیز تعریف گردد.
در اینجا به برخی از خصوصیات معیار واگرایی کولبک-لیبلر اشاره میکنیم:
- انتروپی نسبی همیشه نامنفی است، در نتیجه
که به عنوان نامساوی گیبز شناخته میشود. همچنین داریم اگر و تنها اگر .
اثبات: حالت گسسته را درنظر بگیرید. حکم بالا را میتوان با استفاده از نامساوی ینسن و نامساوی جمع لگاریتم اثبات کرد. از آنجایی که لوگاریتم یک تابع محدب است داریم:نامساوی اول از ینسن نتیجه میشود و نامساوی دوم از تابع احتمالاتی بودن . همچنین از آنجایی که لوگاریتم اکیدا محدب است، بنابر نابرابری ینسن تساوی زمانی رخ میدهد کهو . فرض کنید این نسبت برابر با باشد. در این صورت:پس تساوی زمانی رخ میدهد که .
- بهطور کلی برای واگرایی کولبک-لیبلر کران بالایی وجود ندارد. با این حال، نشان داده شده است که اگر و دو توزیع احتمال گسسته باشند که با توزیع یک مقدار گسسته ساخته شدهاند، آنگاه حداکثر مقدار بهدست میآید.[۹]
- انتروپی نسبی تقریباً مانند انتروپی شانون برای توزیعهای مستقل جمعی است. اگر توزیعهای مستقلی باشند و و بهطور مشابه برای توزیعهای مستقل آنگاه
- انتروپی نسبی برای جفت توزیعهای احتمالی محدب است. یعنی اگر و دو جفت تابع احتمال باشند آنگاه
انگیزه
[ویرایش]در تئوری اطلاعات، قضیه Kraft–McMillan بیان میکند که هر شمای کدگذاری قابل دیکد کردنی برای کد کردن یک پیام بهطوریکه بتوان مقدار xi را از مجموعه تمامی مقادیر ممکن به صورت مستقیم کدگشایی کند نیاز تا احتمال نمایش هر مقدار را به صورت توزیع احتمال در نظر گرفته شود که در آن li، طول کد برای xi در واحد بیت میباشد. بنابراین، معیار واگرایی کولبک لیبلر را میتوان به عنوان امید مقدار طول پیام اضافی به ازای هر داده دانست که در صورتی که اگر از یک کد که برای توزیع بهینه است (توزیع ناصحیح) برای انتقال آن استفاده گردد، باید به صورت اضافی (نسبت به حالتی که از یک کد بهینه برای توزیع صحیح استفاده شود) مخابره گردد.
در اینجا آنتروپی مشترک توزیعهای و میباشد و نیز آنتروپی توزیع میباشد.
همچنین توجه داشته باشید که یک رابطه میان معیار واگرایی Kullback–Leibler و «تابع نرخ» در نظریه انحراف بزرگ وجود دارد.[۱۰][۱۱]
رابطه با سایر کمیتها در نظریه اطلاعات
[ویرایش]بسیاری از کمیتهای دیگر نظریه اطلاعات را میتوان به عنوان کاربردهای انتروپی نسبی در موارد خاص تفسیر کرد.
اطلاعات متقابل
[ویرایش]اطلاعات متقابل با تعریفانتروپی نسبی ضرب دو احتمال حاشیهای توزیع توأم است. به عبارت دیگر تعداد بیت های اضافی مورد انتظار که باید برای شناسایی و ارسال شوند، اگر به جای توزیع توأم تنها با استفاده از توزیع حاشیهایشان کدگذاری شده باشند.
انتروپی شنون
[ویرایش]انتروپی شنون با تعریف برای توزیع با الفبای شماراو توزیع پیوستهبرابر است با
جستارهای وابسته
[ویرایش]- Akaike Information Criterion
- بیزی اطلاعات معیار
- Bregman واگرایی
- Cross-entropy
- انحراف معیار اطلاعات
- آنتروپی ارزش در معرض خطر
- آنتروپی قدرت نابرابری
- به دست آوردن اطلاعات در درختهای تصمیمگیری
- اطلاعات به دست آوردن نسبت
- اطلاعات تئوری و نظریه اندازهگیری
- جنسن–Shannon واگرایی
- کوانتومی آنتروپی نسبی
- جزایر Kullback و ریچارد Leibler
منابع
[ویرایش]- ↑ Kullback, S.; Leibler, R.A. (1951). "On information and sufficiency". Annals of Mathematical Statistics. 22 (1): 79–86. doi:10.1214/aoms/1177729694. MR 0039968.
- ↑ Kullback, S. (1959). Information Theory and Statistics. John Wiley & Sons.
- ↑ Kullback, S. (1987). "Letter to the Editor: The Kullback–Leibler distance". The American Statistician. 41 (4): 340–341. doi:10.1080/00031305.1987.10475510. JSTOR 2684769.
- ↑ Burnham K.P. , Anderson D.R. (2002), Model Selection and Multi-Model Inference (Springer). (2nd edition), p.51
- ↑ Soklakov, Andrei N. (2020-08). "Economics of Disagreement—Financial Intuition for the Rényi Divergence". Entropy (به انگلیسی). 22 (8): 860. doi:10.3390/e22080860. ISSN 1099-4300.
{{cite journal}}
: Check date values in:|date=
(help) - ↑ MacKay, David J.C. (2003). Information Theory, Inference, and Learning Algorithms (First ed.). Cambridge University Press. p. 34.
- ↑ Bishop C. (2006).
- ↑ Hobson, Arthur (1971). Concepts in statistical mechanics. New York: Gordon and Breach. ISBN 0-677-03240-4.
- ↑ Bonnici, Vincenzo (2020-12-10). "Kullback-Leibler divergence between quantum distributions, and its upper-bound". arXiv:2008.05932 [quant-ph].
- ↑ Sanov, I.N. (1957). "On the probability of large deviations of random magnitudes". Matem. Sbornik. 42 (84): 11–44.
- ↑ Novak S.Y. (2011), Extreme Value Methods with Applications to Finance ch. 14.5 (Chapman & Hall).