統計學(3)

2024 年 5 月 2 日
文章摘要
FakeGPT
加載中...
此內容由人工不智慧生成。

這篇文章緊接第二篇文章,講雙變數中的描述指標。

二元變數資料

在進行研究調查時,我們常需要蒐集及分析多個變數的資料,以探究變數間的關聯性。

衡量二元變數資料的量化指標

這些指標用於描述二元變數之間的關聯性強弱及方向。

共變異數(Cov)

  1. 群體共變異數:Cov(x,y)=σx,y=Σi=1N(xiμx)(yiμy)NCov(x, y) = \sigma_{x, y} = \frac{\Sigma_{i = 1}^{N}(x_i - \mu_x)(y_i - \mu_y)}{N}
  2. 樣本共變異數:Cov(x,y)=sx,y=Σi=1N(xix)(yiy)n1=Σxy(Σx)(Σy)nn1Cov(x, y) = s_{x,y} = \frac{\Sigma_{i = 1}^{N}(x_i - \overline{x})(y_i - \overline{y})}{n - 1} = \frac{\Sigma xy - \frac{(\Sigma x)(\Sigma y)}{n}}{n - 1}

共變異數帶單位,使用正負號表示關聯的方向,數值越大,關聯性越強。

相關係數

  1. 群體相關係數:ρ=Cov(x,y)σxσy=σxyσxσy\rho = \frac{Cov(x, y)}{\sigma_x \sigma_y} = \frac{\sigma_{xy}}{\sigma_x \sigma_y}
  2. 樣本相關係數:r=Cov(x,y)sxsy=sxysxsyr = \frac{Cov(x, y)}{s_xs_y} = \frac{s_{xy}}{s_xs_y}

數值取值在 0~1,越靠近 1 代表線性相關性越強。

回歸方程式

x-y 二組數據間如有線性關係,則可適配一條直線方程式,又稱迴歸方程式或最小平方線。

y^=a+bx\hat {y} = a + bx

b=r×(sysx),a=ybxb = r\times(\frac{s_y}{s_x}), a = \overline{y} - b\overline{x}

回歸通常用於預測。一般來說,只有相關係數 0.6\ge 0.6 即具有比較強的直線相關性時,回歸才有意義。

統計學(3)
https://blog.kynix.tw/posts/1731078826896/
作者
Adrian Chen
建檔時間
2024 年 5 月 2 日
協議
BY-NC-SA 4.0
姓名標示-非商業性-相同方式分享 4.0 國際