本文へジャンプ
Chapter 7

ロジスティック回帰分析:「はい」か「いいえ」の統計学

#ロジスティック回帰#シグモイド関数#オッズ比 (Odds Ratio)#閾値 (Threshold)

ロジスティック回帰分析:分類のための数学的地図

これまでは、点数や価格といった「数値」を予測する方法を学んできました。しかし現実には、「この融資申請者は破綻するか?」「このメールはスパムか?」といった、二値分類 (Binary Classification) が必要な場面が多くあります。その際に使用するのが ロジスティック回帰 (Logistic Regression) です。

1. 線形回帰の限界とシグモイド (Sigmoid)

線形回帰では、結果の値が無限に大きくなったり小さくなったりする可能性があります。しかし分類問題では、「確率」は 0 と 1 の間に制限される必要があります。ロジスティック回帰は、線形式の結果を S字型の シグモイド関数 に通すことで、0 から 1 の範囲の確率値に変換します。

2. オッズ比 (Odds Ratio):成功と失敗の対決

ロジスティック回帰を理解する核心的なキーワードは「オッズ (Odds)」です。

オッズ (Odds) = 成功確率 / 失敗確率

例えば、成功確率が 0.8 ならば、オッズは 0.8/0.2=40.8 / 0.2 = 4 となります。ロジスティック回帰モデルは、このオッズに対数をとった値を予測します。

ロジスティック回帰の予測結果例(デフォルト予測)

信用スコア対数オッズ予測確率 (P)判定(閾値 0.5)
300点-3.50.03 (3%)正常
550点-0.80.31 (31%)正常
700点1.20.77 (77%)要警戒
900点4.50.99 (99%)リスク高

3. モデルの評価:混同行列 (Confusion Matrix)

分類モデルがどの程度うまく機能しているかは、単に R2R^2 を見るのではなく、予測の正誤をまとめた表で確認します。

診断モデルの混同行列 (Confusion Matrix)

実際 \ 予測陽性予測 (Positive)陰性予測 (Negative)
実際が陽性 (P)真陽性 (TP) - 成功偽陰性 (FN) - 見逃し
実際が陰性 (N)偽陽性 (FP) - 誤検知真陰性 (TN) - 成功

💡 教授からのヒント

ロジスティック回帰は、機械学習の「ディープラーニング」へと続く第一の関門です。人工ニューラルネットワークの基本単位であるパーセプトロン (Perceptron) が、非線形な活性化関数を通じて出力を出すプロセスは、まさにこのロジスティック回帰の原理と直結しているからです。

🔗 次のステップ