【机器学习-07】逻辑回归(Logistic Regression)的介绍和python实现

Logistic Regression 虽然被称为回归,但其实际上是分类模型,并常用于二分类。主要用来表示某件事情发生的可能性,因此因变量的范围在 0 和 1 之间。Logistic Regression 因其简单、可并行化、可解释强深受工业界喜爱。例如,探讨引发疾病的危险因素,并根据危险因素预测疾病发生的概率等。以胃癌病情分析为例,选择两组人群,一组是胃癌组,一组是非胃癌组,两组人群必定具有不同的体征与生活方式等。因此因变量就为是否胃癌,值为“是”或“否”,自变量就可以包括很多了,如年龄、性别、饮食习惯、幽门螺杆菌感染等。自变量既可以是连续的,也可以是分类的。

Logistic 回归的本质是:假设数据服从正态分布,使用极大似然估计对模型的参数进行估计。

一、Logistic分布

Logistic分布是一种连续概率分布,常用于建模具有有限范围的随机变量。它具有S形状的概率密度函数,可以用于描述一些自然现象和统计模型中的数据分布。

Logistic分布的概率密度函数(PDF)可以表示为:

f ( x ) = e − ( x − μ ) / s s ( 1 + e − ( x − μ ) / s ) 2 f(x) = \frac{e^{-(x-\mu)/s}}{s(1+e^ {-(x-\mu)/s})^2} f(x)=s(1+e(xμ)/s)2e(xμ)/s

其中, x x x 是随机变量的取值, μ \mu μ 是分布的均值, s s s 是分布的尺度参数。均值 μ \mu μ表示分布的中心位置,尺度参数 ss 控制分布的形状。

Logistic分布的累积分布函数(CDF)可以表示为:

F ( x ) = 1 1 + e − ( x − μ ) / s F(x) = \frac{1}{1+e^{-(x-\mu)/s}} F(x)=1+e(xμ)/s1

Logistic分布的特点包括:

对称性:Logistic分布是关于均值 μ \mu μ对称的,即分布在均值两侧呈镜像关系。
S形状:Logistic分布的概率密度函数在均值附近增长迅速,然后逐渐趋于平缓。这使得它在建模概率事件的发生概率时非常有用。
尾部厚重:相比于正态分布,Logistic分布的尾部较厚,即在分布的尾部区域概率下降较慢。
在这里插入图片描述

二、逻辑回归介绍

对于二分类问题,假设我们有一个数据集,其中包含 m m m个样本。每个样本由输入特征向量 x x x和对应的实际类别 y y y组成。我们希望通过逻辑回归模型来预测样本的类别。

假设存在一条直线(或超平面),可以将数据集中的样本完全分开。我们可以用一个线性模型来表示这条直线,其形式如下:

z = θ 0 + θ 1 x 1 + θ 2 x 2 + … + θ n x n z = \theta_0 + \theta_1x_1 + \theta_2x_2 + \ldots + \theta_nx_n z=θ0+θ1x1+θ2x2++θnxn

其中, z z z表示线性模型的输出, θ 0 , θ 1 , … , θ n θ \theta_0, \theta_1, \ldots, \theta_nθ θ0,θ1,,θnθ 表示模型的参数, x 1 , x 2 , … , x n x_1, x_2, \ldots, x_n x1,x2,,xn表示输入特征。

为了将线性模型的输出转化为概率值,我们使用逻辑函数(sigmoid函数)进行转换,得到预测的概率。逻辑函数的形式如下:

h θ ( x ) = 1 1 + e − z h_{\theta}(x) = \frac{1}{1+e^{-z}} hθ(x)=1+ez1

其中, h θ ( x ) h_{\theta}(x) hθ(x)表示逻辑回归模型的预测结果。

为了使得逻辑回归模型能够对样本进行分类,我们需要将预测的概率值映射到类别标签。一般来说,当预测的概率大于等于一个阈值时,我们将样本预测为正类别(例如, h θ ( x ) ≥ 0.5 h_{\theta}(x) \geq 0.5 hθ(x)0.5);当预测的概率小于阈值时,我们将样本预测为负类别。

三 、逻辑回归的代价函数(Cost Function)

逻辑回归的代价函数(Cost Function)用于衡量模型预测结果与实际观测值之间的差异。在逻辑回归中,常用的代价函数是交叉熵损失函数(Cross-Entropy Loss)。

假设我们有一个训练集,其中包含mm个样本,每个样本由输入特征向量xx和对应的实际类别yy组成。逻辑回归的目标是通过最小化代价函数来优化模型的参数。

对于二元分类问题,交叉熵损失函数可以表示为:

J ( θ ) = − 1 m ∑ i = 1 m [ y ( i ) log ⁡ ( h θ ( x ( i ) ) ) + ( 1 − y ( i ) ) log ⁡ ( 1 − h θ ( x ( i ) ) ) ] J(\theta) = -\frac{1}{m}\sum_{i=1}^{m}\left[y^{(i)}\log(h_{\theta}(x^{(i)})) + (1-y^{(i)})\log(1-h_{\theta}(x^{(i)}))\right] J(θ)=m1i=1m[y(i)log(hθ(x(i)))+(1y(i))log(1hθ(x(i)))]

其中, J ( θ ) J(\theta) J(θ)表示代价函数, θ \theta θ表示模型的参数, h θ ( x ) h_{\theta}(x) hθ(x)表示逻辑回归模型的预测结果(即sigmoid函数的输出), y ( i ) y^{(i)} y(i)表示第 i i i个样本的实际类别。

代价函数的含义可以解释为:对于每个样本,如果实际类别为1,则第一项 y ( i ) log ⁡ ( h θ ( x ( i ) ) ) y^{(i)}\log(h_{\theta}(x^{(i)})) y(i)log(hθ(x(i)))越大越好;如果实际类别为0,则第二项 ( 1 − y ( i ) ) log ⁡ ( 1 − h θ ( x ( i ) ) ) (1-y^{(i)})\log(1-h_{\theta}(x^{(i)})) (1y(i))log(1hθ(x(i)))越大越好。通过求和和取平均,我们可以得到整个训练集上的平均代价。

逻辑回归的目标是最小化代价函数,通过调整模型的参数 θ \theta θ来实现。常用的方法是梯度下降(Gradient Descent),通过计算代价函数对参数的偏导数,更新参数以减小代价函数的值。

具体的梯度下降更新规则可以表示为:

θ j : = θ j − α ∂ J ( θ ) ∂ θ j \theta_j := \theta_j - \alpha\frac{\partial J(\theta)}{\partial \theta_j} θj:=θjαθjJ(θ)

其中, α \alpha α表示学习率,控制参数更新的步长。

通过反复迭代更新参数,直到达到收敛条件(如达到最大迭代次数或代价函数变化不显著),逻辑回归模型就可以得到最优的参数估计。

四、逻辑回归基于sklearn库的python代码实现

当使用scikit-learn库中的逻辑回归模型进行分类任务时,可以按照以下步骤进行操作:

  • 1 导入所需的库和模块:
from sklearn.datasets import load_iris
from sklearn.model_selection import train_test_split
from sklearn.linear_model import LogisticRegression
from sklearn.metrics import accuracy_score
  • 2 加载鸢尾花数据集:
iris = load_iris()
X = iris.data
y = iris.target
  • 3 划分数据集为训练集和测试集:
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)
  • 4 创建并训练逻辑回归模型:
model = LogisticRegression()
model.fit(X_train, y_train)
  • 5 使用训练好的模型进行预测:
y_pred = model.predict(X_test)
  • 6 评估模型性能:
accuracy = accuracy_score(y_test, y_pred)
print("Accuracy:", accuracy)

完整的Python代码如下所示:

from sklearn.datasets import load_iris
from sklearn.model_selection import train_test_split
from sklearn.linear_model import LogisticRegression
from sklearn.metrics import accuracy_score# 加载鸢尾花数据集
iris = load_iris()
X = iris.data
y = iris.target# 划分数据集为训练集和测试集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)# 创建并训练逻辑回归模型
model = LogisticRegression()
model.fit(X_train, y_train)# 使用训练好的模型进行预测
y_pred = model.predict(X_test)# 评估模型性能
accuracy = accuracy_score(y_test, y_pred)
print("Accuracy:", accuracy)

这段代码中,首先使用load_iris()函数加载鸢尾花数据集,然后使用train_test_split()函数将数据集划分为训练集和测试集。接下来,创建一个LogisticRegression对象作为逻辑回归模型,并使用训练集数据进行训练。然后,使用训练好的模型对测试集进行预测,并使用accuracy_score()函数计算分类准确度作为模型性能的评估指标。

五、逻辑回归的优缺点

  • 优点:
  • 实现简单,广泛的应用于工业问题上;
  • 分类时计算量非常小,速度很快,存储资源低;
  • 便利的观测样本概率分数;
  • 对逻辑回归而言,多重共线性并不是问题,它可以结合L2正则化来解决该问题;
  • 计算代价不高,易于理解和实现;
  • 缺点:

-当特征空间很大时,逻辑回归的性能不是很好;
-容易欠拟合,一般准确度不太高
-不能很好地处理大量多类特征或变量;
-只能处理两分类问题(在此基础上衍生出来的softmax可以用于多分类),且必须线性可分;
-对于非线性特征,需要进行转换;

六、总结:

逻辑回归是一种常用的分类算法,适用于二分类问题。它基于线性模型和逻辑函数的组合,将线性模型的输出转化为概率值,并通过设定阈值进行分类预测。逻辑回归模型的训练过程是通过最小化代价函数来优化模型参数,常用的代价函数是交叉熵损失函数。

使用scikit-learn库中的逻辑回归模型进行分类任务的步骤如下:

  • 导入所需的库和模块。
  • 加载数据集。
  • 划分数据集为训练集和测试集。
  • 创建并训练逻辑回归模型。
  • 使用训练好的模型进行预测。
  • 评估模型性能,常用的指标是准确度。

逻辑回归模型具有简单高效、可解释性强和能处理非线性关系等优点。它在许多领域都有广泛的应用,如医学、金融、市场营销等。然而,逻辑回归也存在一些缺点,例如对异常值敏感、处理多分类问题相对困难等。

综上所述,逻辑回归是一种强大的分类算法,通过线性模型和逻辑函数的组合,能够有效地解决二分类问题。在实践中,我们可以使用scikit-learn库中的逻辑回归模型来快速构建和训练模型,并对其性能进行评估。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.hqwc.cn/news/557309.html

如若内容造成侵权/违法违规/事实不符,请联系编程知识网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

深入了解 Postman Test 校验的使用方法

Postman 是一个广泛使用的 API 开发工具,它允许开发人员测试 API 的各个方面,包括请求、响应、身份验证等等,其中最常用的功能之一就是 Test 校验。那今天就一起来看看 Postman 的 Test 校验该如何使用。 Test 校验是什么? Test…

借教室与差分

原题 题目描述 在大学期间,经常需要租借教室。 大到院系举办活动,小到学习小组自习讨论,都需要向学校申请借教室。 教室的大小功能不同,借教室人的身份不同,借教室的手续也不一样。  面对海量租借教室的信息&…

Python程序设计 基本数据类型及操作

1.计算一元二次方程的根 编写一个计算一元二次方程的根的小程序。 一元二次方程经过整理都可化成一般形式axbxc0(a≠0)。 其中ax叫作二次项,a是二次项系数;bx叫作一次项,b是一次项系数;c叫作常数项 。 由一…

Android Launcher开发注意事项

在开发Android Launcher时,需要关注性能、用户体验、权限管理、兼容性等方面,同时遵循相关的开发者政策和最佳实践。有几个重要的注意事项,希望对大家有所帮助。北京木奇移动技术有限公司,专业的软件外包开发公司,欢迎…

【精彩回顾】百度智能云千帆产品3月21日发布会

3月21日,AI Cloud Day:百度智能云千帆产品发布会在北京举办。会议聚焦百度智能云千帆大模型平台最新进展,分享思考与实践。百度智能云在发布会期间宣布: >>满足企业“效价比”核心诉求,千帆ModelBuilder大模型服…

牛客NC196 编辑距离(一)【较难 DFS/DP,动态规划,样本对应模型 Java,Go,PHP】

题目 题目链接: https://www.nowcoder.com/practice/6a1483b5be1547b1acd7940f867be0da 思路 编辑距离问题 什么是两个字符串的编辑距离(edit distance)?给定字符串s1和s2,以及在s1上的如下操作:插入&…

关于安卓调用文件浏览器(一)打开并复制

背景 最近在做一个硬件产品,安卓应用开发。PM抽风,要求从app打开文件浏览器,跳转到指定目录,然后可以实现文件复制粘贴操作。 思考 从应用开发的角度看,从app打开系统文件浏览器并且选择文件,这是很常见…

Revit2020也能玩衍生式设计?

Revit2021新增的一个好玩功能就是衍生式设计,但是Autodesk2021系列的激活目前还比较麻烦,尤其是要装多款2021软件的时候,注册机用起来还挺烦人的,于是,为了省事,我把GenerativeDesignRevit节点包扔到了Dyna…

vue@2.7.16 使用less、less-loader

遇到问题,npm install less-loader7.3.0 --save安装好less-loader后,执行npm run serve 项目运行不起来,排查后发现在安装less-loader后就提示需要安装less,正确的安装应如下: npm install less less-loader7.3.0 --sa…

AI基础知识(4)--贝叶斯分类器

1.什么是贝叶斯判定准则(Bayes decision rule)?什么是贝叶斯最优分类器(Bayes optimal classifier)? 贝叶斯判定准则:为最小化总体风险,只需在每个样本上选择那个能使条件风险最小的…

章文嵩等技术大咖共同探讨企业数据治理和降本增效策略运用!

3 月 16 日,AutoMQ 携手 OceanBase 开源社区、KubeBlocks 举行的《LLMs 时代下企业数据管理与降本增效之路》主题 meetup 顺利落幕。活动邀请了 AutoMQ 联合创始人 & CSO、Linux LVS 创始人 章文嵩,AutoMQ 联合创始人 & CTO、Apache RocketMQ 联…

25.删除链表中倒数第N个结点

题意:给你一个链表,删除链表的倒数第 n 个结点,并且返回链表的头结点。 class Solution { public:ListNode* removeNthFromEnd(ListNode* head, int n) {ListNode* dummyHead=new ListNode(0); //定义虚拟头结点ListNode* fast=dummyHead; //定义快指针ListNode* slow=dummy…