本文へジャンプ
Chapter 6

重回帰分析:複雑な世界の変数たち

#重回帰#独立変数#多重共線性 (VIF)#自由度調整済みR2乗

重回帰分析:一つの理由だけでは不十分だ

現実世界の出来事は、たった一つの原因で説明されることは稀です。例えば、マンションの価格は面積(単回帰)だけでなく、築年数、駅からの距離、学区など、様々な要因によって決定されます。統計学では、これを重回帰分析 (Multiple Regression Analysis) で解き明かします。

1. 重回帰式の構造

y=β0+β1x1+β2x2+...+βkxk+ϵy = \beta_0 + \beta_1 x_1 + \beta_2 x_2 + ... + \beta_k x_k + \epsilon

β\beta 値は、他の変数が固定されているとき、該当する変数が1単位変化した際に従属変数 (yy) に及ぼす固有の影響力を表します。

2. 変数間の喧嘩:多重共線性 (Multicollinearity)

重回帰分析で最も注意すべき罠が「多重共線性(マルチコ)」です。これは、独立変数同士が互いに強すぎる相関関係にある場合に発生します。

会計データと多重共線性の事例

変数 A変数 B状態問題点
広告費ブランド認知度高い相関どちらの変数が売上に寄与したか区別不能
身長体重高い相関一方の変数が他方の情報をすでに含んでいる
気温湿度中程度の相関一般的な状況、制御可能

Important
多重共線性があると、個別の回帰係数の統計的有意性が低くなり、結果が不安定になります。これを確認するために 指数を使用し、通常10以上であれば問題があると判断します。

3. モデルの品質評価:自由度調整済み R2R^2

単回帰では決定係数 (R2R^2) を使いましたが、重回帰では変数が増えるほど R2R^2 が自動的に高くなってしまう問題があります。これを補完し、不要な変数の追加にペナルティを与えたのが自由度調整済み R2R^2 です。


💡 教授からのヒント

優れた回帰モデルとは「変数が多いモデル」ではなく、「最も少ない数の核心的な変数で現象を最もよく説明するモデル」です。これはよくオッカムの剃刀 (Occam’s Razor) の原則と呼ばれ、統計学者は AIC や BIC といった指標を通じてこの効率性を測定します。

🔗 次のステップ