logistic-regression
Логистическая регрессия - это статистический метод, используемый для прогнозирования вероятности бинарного исхода (например, да/нет, истина/ложь) на основе одной или нескольких независимых переменных.
Логистическая регрессия использует логистическую функцию (сигмоидную функцию) для моделирования взаимосвязи между независимыми переменными и вероятностью исхода. В отличие от линейной регрессии, которая предсказывает непрерывные значения, логистическая регрессия предсказывает вероятность категориального исхода. Выходные данные - это значение от 0 до 1, представляющее вероятность того, что исход принадлежит к определенной категории.
Модель оценивает коэффициенты независимых переменных с помощью процесса, называемого оценкой максимального правдоподобия. Эти коэффициенты определяют влияние каждой переменной на прогнозируемую вероятность. Логистическая регрессия широко используется в различных областях, включая финансы, здравоохранение и маркетинг, для таких задач, как кредитный скоринг, диагностика заболеваний и прогнозирование оттока клиентов.
graph LR
Center["logistic-regression"]:::main
Pre_logic["logic"]:::pre --> Center
click Pre_logic "/terms/logic"
Rel_function["function"]:::related -.-> Center
click Rel_function "/terms/function"
Rel_inference["inference"]:::related -.-> Center
click Rel_inference "/terms/inference"
Rel_log_management["log-management"]:::related -.-> Center
click Rel_log_management "/terms/log-management"
classDef main fill:#7c3aed,stroke:#8b5cf6,stroke-width:2px,color:white,font-weight:bold,rx:5,ry:5;
classDef pre fill:#0f172a,stroke:#3b82f6,color:#94a3b8,rx:5,ry:5;
classDef child fill:#0f172a,stroke:#10b981,color:#94a3b8,rx:5,ry:5;
classDef related fill:#0f172a,stroke:#8b5cf6,stroke-dasharray: 5 5,color:#94a3b8,rx:5,ry:5;
linkStyle default stroke:#4b5563,stroke-width:2px;
🧠 Проверка знаний
🧒 Простыми словами
Логистическая регрессия — это как умный предсказатель, который отвечает «да» или «нет». Она смотрит на подсказки (например, возраст и привычки человека) и использует их, чтобы угадать вероятность чего-то (например, понравится ли ему определенный фильм), выдавая вам число от 0% до 100%.
🤓 Expert Deep Dive
В основе логистической регрессии лежит моделирование логарифма шансов (логита) исхода как линейной функции предикторов: log(P(Y=1|X) / P(Y=0|X)) = β₀ + β₁x₁ + ... + βnxn. Это известно как функция связи логит. Метод максимального правдоподобия (MLE) является стандартным подходом для оценки параметров, включающим итеративные алгоритмы оптимизации, такие как градиентный спуск или метод Ньютона-Рафсона, для нахождения коэффициентов β, максимизирующих функцию логарифма правдоподобия. Методы регуляризации (L1 и L2) часто применяются для предотвращения переобучения, особенно при работе с высокоразмерными данными, путем добавления штрафных членов к функции стоимости. Хотя логистическая регрессия эффективна для бинарной классификации, ее расширения, такие как мультиномиальная логистическая регрессия и порядковая логистическая регрессия, позволяют обрабатывать многоклассовые и упорядоченные категориальные исходы соответственно. Интерпретируемость является ключевым преимуществом, поскольку коэффициенты (β) могут быть возведены в степень, чтобы получить отношения шансов, указывающие на мультипликативное изменение шансов исхода при изменении предиктора на единицу. Однако модель предполагает линейность в логарифме шансов и независимость ошибок, и ее производительность может снижаться, если эти предположения нарушены или если данные демонстрируют значительную мультиколлинеарность.