摘要:本文详细解析线性回归和逻辑回归,这两种在机器学习领域中最基础且重要的模型。线性回归用于预测连续值输出,通过拟合输入特征和输出标签之间的线性关系进行预测。逻辑回归则适用于分类问题,通过将线性回归预测到的值转化为概率值来进行分类。本文将探讨这两种模型的原理、损失函数以及应用场景,并对比它们的特点和应用领域。
一、线性回归
-
模型表达式 线性回归模型试图学习输入特征(X)和输出(Y)之间的线性关系。其基本形式可以表示为:Y = wX + b,其中 w 和 b 是模型参数。
-
损失函数 线性回归使用平方残差和(RSS, Residual Sum of Squares)作为损失函数,计算每个样本点的结果值与当前函数值之间的平方差。差值越小,回归模型效果越好。
线性回归的算法太过于简单,所以预测的精确度相对较低,不相关的特征会对模型的效果好坏有很大的影响,而且在数据量较小的情况下,很容易出现过拟合的问题。因此,在实际工业中,我们会更多地应用非线性回归的方式,比如决策树回1归、KNN 回归、随机森林回归等