همبستگی و وابستگی
در آمار، وابستگی هر نوع رابطه آماری عِلّی یا غیر علی بین دو متغیر تصادفی یا دادههای دو متغیره میباشد. همبستگی در وسیعترین معنای خود، هر نوع پیوند آماری را شامل میشود، اگرچه بیشتر از این اصطلاح برای درجه ارتباط خطی بین یک جفت متغیر استفاده میشود. مثالهای آشنای پدیدههای وابستگی شامل همبستگی بین قد والدین و اولادشان و همبستگی بین تقاضای یک عرضه محدود و قیمتش میباشد.
همبستگی مفهوم مفیدی است، چرا که میتواند نشانگر رابطهٔ قابل پیشبینی بوده و در عمل از این پیشبینی پذیر بودن میتوان سود جست. به عنوان مثال، یک کالای الکتریکی ممکن است در یک روز معتدل، بر اساس همبستگی بین تقاضای الکتریسیته و وضعیت هوا، قدرت کمتری تولید کند. در این مثال، یک رابطه علی وجود دارد، چون هوای نامساعد موجب میگردد که مردم جهت گرم یا خنکسازی انرژی بیشتری مصرف کنند. با این حال، در کل، وجود یک همبستگی برای استنتاج یک رابطه علی کافی نیست (یعنی، همبستگی علیت را نتیجه نمیدهد).
به لحاظ صوری، متغیرهای تصادفی وابسته هستند اگر خاصیت ریاضیاتی استقلال احتمالاتی را ارضاء نکنند. اما در گفتگوی عادی همبستگی هممعنی با وابستگی است. چندین ضریب همبستگی وجود دارند که درجه همبستگی را اندازهگیری میکنند و اغلب به صورت یا نمایش داده میشوند. رایجترین این ضرایب، ضریب همبستگی پیرسون است، که تنها برای رابطه خطی بین دو متغیر معنا دارد (اگر حتی یک متغیر هم تابع غیر خطی از دیگری باشد نیس این ضریب وجود خواهد داشت). دیگر ضرایب همبستگی قوی تر از پیرسون نیز توسعه یافتهاند، یعنی ضرایبی که نسبت به روابط غیر خطی حساسیت بیشتری داشته باشند.[۱][۲][۳] از اطلاعات متقابل هم میتوان برای اندازهگیری وابستگی بین دو متغیر استفاده کرد.
ضریب همبستگی پیرسون
[ویرایش]مقاله اصلی: ضریب همبستگی پیرسون
تعریف
[ویرایش]آشناترین شاخص برای اندازهگیری وابستگی بین دو کمیت، ضریب همبستگی پیرسون است که اغلب به آن «ضریب همبستگی» میگویند. این ضریب از تقسیم کوواریانس دو متغیر از طریق ضرب انحراف معیارشان بدست میآید. کارل پیرسن این ضریب را از طریق ایده مشابه، اما متفاوتی از فرانسیس گالتون بدست آورد.[۴]
ضریب همبستگی جمعیت بین دو متغیر تصادفی و با مقادیر امید ریاضیهای و و انحراف معیارهای و به این صورت تعریف شدهاست:
که در آن عملگر امید ریاضی، و به معنای کوواریانس و همبستگی هستند. ضریب پیرسون تنها زمانی قابل تعریف است که هر دوی انحراف معیارها متناهی و مثبت باشند. میتوان فرمول فوق را به صورت زیر هم نوشت، که در آن از گشتاورها استفاده شدهاست:
منابع
[ویرایش]- ↑ Croxton, Frederick Emory; Cowden, Dudley Johnstone; Klein, Sidney (1968) Applied General Statistics, Pitman. شابک ۹۷۸۰۲۷۳۴۰۳۱۵۹ (page 625)
- ↑ Dietrich, Cornelius Frank (1991) Uncertainty, Calibration and Probability: The Statistics of Scientific and Industrial Measurement 2nd Edition, A. Higler. شابک ۹۷۸۰۷۵۰۳۰۰۶۰۵ (Page 331)
- ↑ Aitken, Alexander Craig (1957) Statistical Mathematics 8th Edition. Oliver & Boyd. شابک ۹۷۸۰۰۵۰۰۱۳۰۰۷ (Page 95)
- ↑ Rodgers, J. L.; Nicewander, W. A. (1988). "Thirteen ways to look at the correlation coefficient". The American Statistician. 42 (1): 59–66. doi:10.1080/00031305.1988.10475524. JSTOR 2685263.
- مشارکتکنندگان ویکیپدیا. «Correlation and Dependence». در دانشنامهٔ ویکیپدیای انگلیسی.
برای مطالعه بیشتر
[ویرایش]- Cohen, J.; Cohen P.; West, S.G. & Aiken, L.S. (2002). Applied multiple regression/correlation analysis for the behavioral sciences (3rd ed.). Psychology Press. ISBN 978-0-8058-2223-6.
- "Correlation (in statistics)", Encyclopedia of Mathematics, EMS Press, 2001 [1994]
- Oestreicher, J. & D. R. (February 26, 2015). Plague of Equals: A science thriller of international disease, politics and drug discovery. California: Omega Cat Press. p. 408. ISBN 978-0-9631755-4-0.