logistic-regression

ロジスティック回帰は、1つ以上の独立変数に基づいて、二値の結果(例:はい/いいえ、真/偽)の確率を予測するために使用される統計的手法です。

ロジスティック回帰は、独立変数と結果の確率の関係をモデル化するために、ロジスティック関数(シグモイド関数)を使用します。連続値を予測する線形回帰とは異なり、ロジスティック回帰はカテゴリカルな結果の確率を予測します。出力は0から1の間の値で、結果が特定のカテゴリに属する確率を表します。

モデルは、最尤推定と呼ばれるプロセスを通じて、独立変数の係数を推定します。これらの係数は、各変数が予測された確率に与える影響を決定します。ロジスティック回帰は、信用スコアリング、病気の診断、顧客離脱予測などのタスクについて、金融、ヘルスケア、マーケティングなど、さまざまな分野で広く使用されています。

        graph LR
  Center["logistic-regression"]:::main
  Pre_logic["logic"]:::pre --> Center
  click Pre_logic "/terms/logic"
  Rel_function["function"]:::related -.-> Center
  click Rel_function "/terms/function"
  Rel_inference["inference"]:::related -.-> Center
  click Rel_inference "/terms/inference"
  Rel_log_management["log-management"]:::related -.-> Center
  click Rel_log_management "/terms/log-management"
  classDef main fill:#7c3aed,stroke:#8b5cf6,stroke-width:2px,color:white,font-weight:bold,rx:5,ry:5;
  classDef pre fill:#0f172a,stroke:#3b82f6,color:#94a3b8,rx:5,ry:5;
  classDef child fill:#0f172a,stroke:#10b981,color:#94a3b8,rx:5,ry:5;
  classDef related fill:#0f172a,stroke:#8b5cf6,stroke-dasharray: 5 5,color:#94a3b8,rx:5,ry:5;
  linkStyle default stroke:#4b5563,stroke-width:2px;

      

🧠 理解度チェック

1 / 3

🧒 5歳でもわかるように説明

ロジスティック回帰は、賢い「はい」か「いいえ」かを予測するようなものです。例えば、人の年齢や習慣などの手がかりを見て、ある映画を好きになるかどうかといった、何かが起こる確率を推測します。その結果、0%から100%の間の確率で教えてくれます。

🤓 Expert Deep Dive

ロジスティック回帰の核心は、結果の対数オッズ(ロジット)を予測変数の線形関数としてモデル化することにあります。すなわち、log(P(Y=1|X) / P(Y=0|X)) = β₀ + β₁x₁ + ... + βnxn となります。これはロジットリンク関数として知られています。パラメータ推定の標準的な手法は最尤推定(MLE)であり、勾配降下法やニュートン・ラフソン法のような反復最適化アルゴリズムを用いて、対数尤度関数を最大化するβ係数を求めます。過学習を防ぐために、特に高次元データの場合、コスト関数にペナルティ項を追加する正則化手法(L1およびL2)がしばしば用いられます。二項分類には有効ですが、多項ロジスティック回帰や順序ロジスティック回帰といった拡張機能は、それぞれ多クラスおよび順序カテゴリカルな結果を扱います。係数(β)を指数化することでオッズ比が得られ、予測変数が1単位変化した際のオッズの変化率を示すことができるため、解釈性が重要な利点です。しかしながら、ロジットにおける線形性および誤差の独立性を仮定しており、これらの仮定が破られたり、データに著しい多重共線性が見られたりすると、その性能は低下する可能性があります。

🔗 関連用語

前提知識:

📚 出典