【菜菜的sklearn课堂笔记】逻辑回归与评分卡-二元逻辑回归损失函数的数学解释,公式推导与解惑
创始人
2024-01-22 13:07:02
0

视频作者:菜菜TsaiTsai
链接:【技术干货】菜菜的机器学习sklearn【全85集】Python进阶_哔哩哔哩_bilibili

白板推导里有写过程,但是当时理解的不太好,ψ(xi,ω)\psi(x_{i},\omega)ψ(xi​,ω)的理解有点问题也就是下面的yθ(xi)y_{\theta}(x_{i})yθ​(xi​)

我们基于极大似然法来推导二元逻辑回归的损失函数,这个推导过程能够帮助我们了解损失函数怎么得来的,以及为什么J(θ)J(\theta)J(θ)的最小化能够实现模型在训练集上的拟合最好。

请时刻记得我们的目标:让模型对训练数据的效果好,追求损失最小。

关键概念:损失函数

衡量参数θ\thetaθ的优劣的评估指标,用来求解最优参数的工具
损失函数小,模型在训练集上表现优异,拟合充分,参数优秀
损失函数大,模型在训练集上表现差劲,拟合不足,参数糟糕
我们追求,能够让损失函数最小化的参数组合

注意:没有”求解参数“需求的模型没有损失函数,比如KNN,决策树

二元逻辑回归的标签服从伯努利分布(即0-1分布),因此我们可以将一个特征向量为xxx,参数为θ\thetaθ的模型的一个样本iii的预测情况表现为如下形式:
样本iii在由特征向量xix_{i}xi​和参数θ\thetaθ组成的预测函数中,样本标签被预测为1的概率为
P1=P(yi^=1∣xi,θ)=yθ(xi)P_{1}=P(\hat{y_{i}}=1|x_{i},\theta)=y_{\theta}(x_{i}) P1​=P(yi​^​=1∣xi​,θ)=yθ​(xi​)
样本iii在由特征向量xix_{i}xi​和参数θ\thetaθ组成的预测函数中,样本标签被预测为0的概率为
P1=P(yi^=0∣xi,θ)=1−yθ(xi)P_{1}=P(\hat{y_{i}}=0|x_{i},\theta)=1-y_{\theta}(x_{i}) P1​=P(yi​^​=0∣xi​,θ)=1−yθ​(xi​)
预测值与真实值之间的关系以及信息损失的关系如下图
![[附件/Pasted image 20221101160443.png|500]]

将两种取值的概率整合,我们可以定义如下等式:
P(yi^∣xi,θ)=P1yi⋅P01−yiP(\hat{y_{i}}|x_{i},\theta)=P_{1}^{y_{i}}\cdot P_{0}^{1-y_{i}} P(yi​^​∣xi​,θ)=P1yi​​⋅P01−yi​​

这个等式同时代表了P1P_{1}P1​和P0P_{0}P0​。
当样本iii的真实标签yiy_{i}yi​为1的时候,1−yi1-y_{i}1−yi​就等于0,P0P_{0}P0​的0次方就是1,所以P(yi^∣xi,θ)P(\hat{y_{i}}|x_{i},\theta)P(yi​^​∣xi​,θ)就等于P1P_{1}P1​,这个时候,如果P1P_{1}P1​为1,模型的效果就最好,损失最小。
同理,当yiy_{i}yi​为0的时候,P(yi^∣xi,θ)P(\hat{y_{i}}|x_{i},\theta)P(yi​^​∣xi​,θ)就等于P0P_{0}P0​,此时如果P0P_{0}P0​非常接近1,模型的效果就很好,损失就很小。

为了达成让模型拟合好,损失小的目的,我希望任何取值下P(yi^∣xi,θ)P(\hat{y_{i}}|x_{i},\theta)P(yi​^​∣xi​,θ)的值等于1。
而P(yi^∣xi,θ)P(\hat{y_{i}}|x_{i},\theta)P(yi​^​∣xi​,θ)的本质是样本iii由特征向量xix_{i}xi​和参数θ\thetaθ组成的预测函数中,预测处所有可能的yi^\hat{y_{i}}yi​^​的概率,因此1是它的最大值。也就是说,每时每刻,我们都在追求P(yi^∣xi,θ)P(\hat{y_{i}}|x_{i},\theta)P(yi​^​∣xi​,θ)的最大值,这就将模型拟合中的“最小化损失”问题,转化成函数求解极值的问题

P(yi^∣xi,θ)P(\hat{y_{i}}|x_{i},\theta)P(yi​^​∣xi​,θ)是对单个样本iii而言的函数,对一个训练集的nnn个样本来说,我们可以定义如下等式来表达所有样本在特征矩阵XXX和参数θ\thetaθ组成的预测函数中,预测处所有可能的y^\hat{y}y^​的概率PPP为
P=∏i=1nP(yi^∣xi,θ)=∏i=1n(P1yi⋅P01−yi)=∏i=1n(yθ(xi)yi⋅(1−yθ(xi))1−yi)\begin{aligned} P&=\prod\limits_{i=1}^{n}P(\hat{y_{i}}|x_{i},\theta)\\ &=\prod\limits_{i=1}^{n}(P_{1}^{y_{i}}\cdot P_{0}^{1-y_{i}})\\ &=\prod\limits_{i=1}^{n}(y_{\theta}(x_{i})^{y_{i}}\cdot (1-y_{\theta}(x_{i}))^{1-y_{i}}) \end{aligned} P​=i=1∏n​P(yi​^​∣xi​,θ)=i=1∏n​(P1yi​​⋅P01−yi​​)=i=1∏n​(yθ​(xi​)yi​⋅(1−yθ​(xi​))1−yi​)​
两侧同时取对数
log⁡P=log⁡∏i=1n(yθ(xi)yi⋅(1−yθ(xi))1−yi)=∑i=1nlog⁡(yθ(xi)yi⋅(1−yθ(xi))1−yi)=∑i=1n(yi⋅log⁡yθ(xi)+(1−yi)⋅log⁡(1−yθ(xi)))\begin{aligned} \log P&=\log \prod\limits_{i=1}^{n}(y_{\theta}(x_{i})^{y_{i}}\cdot (1-y_{\theta}(x_{i}))^{1-y_{i}})\\ &=\sum\limits_{i=1}^{n}\log(y_{\theta}(x_{i})^{y_{i}}\cdot (1-y_{\theta}(x_{i}))^{1-y_{i}})\\ &=\sum\limits_{i=1}^{n}(y_{i} \cdot \log y_{\theta}(x_{i})+(1-y_{i})\cdot \log(1-y_{\theta}(x_{i}))) \end{aligned} logP​=logi=1∏n​(yθ​(xi​)yi​⋅(1−yθ​(xi​))1−yi​)=i=1∑n​log(yθ​(xi​)yi​⋅(1−yθ​(xi​))1−yi​)=i=1∑n​(yi​⋅logyθ​(xi​)+(1−yi​)⋅log(1−yθ​(xi​)))​
这就是我们的交叉熵函数。为了数学上的便利以及更好地定义”损失”的含义,我们希望将极大值问题转换为极小值问题,因此我们对log⁡P\log PlogP取负,并且让参数θ\thetaθ作为函数的自变量,就得到了损失函数J(θ)J(\theta)J(θ)
J(θ)=−∑i=1n(yi⋅log⁡yθ(xi)+(1−yi)⋅log⁡(1−yθ(xi)))J(\theta)=-\sum\limits_{i=1}^{n}(y_{i} \cdot \log y_{\theta}(x_{i})+(1-y_{i})\cdot \log(1-y_{\theta}(x_{i}))) J(θ)=−i=1∑n​(yi​⋅logyθ​(xi​)+(1−yi​)⋅log(1−yθ​(xi​)))
这就是一个,基于逻辑回归的返回值yθ(xi)y_{\theta}(x_{i})yθ​(xi​)的概率性质得出的损失函数。在这个函数上,我们只要追求最小值,就能让模型在训练数据上的拟合效果最好,损失最低。
其中θ\thetaθ表示求解出来的一组参数,nnn是样本个数,yiy_{i}yi​是样本iii上的真实标签,yθ(xi)y_{\theta}(x_{i})yθ​(xi​)是样本iii上基于参数θ\thetaθ计算出来的逻辑回归返回值,xix_{i}xi​是样本iii各个特征的取值
注意,在逻辑回归的本质函数y(x)y(x)y(x)例,特征矩阵xxx是自变量,参数㐊θ\thetaθ。但在损失函数中,参数θ\thetaθ是损失函数的自变量,xxx和yyy都是已知的特征矩阵和标签,相当于是损失函数的参数。

不同的函数中,自变量和参数各有不同,因此大家需要在数学计算中,尤其是求导的时候避免混淆。

关键概念:似然与概率

以样本iii为例,我们有表达式
P(yi^∣xi,θ)P(\hat{y_{i}}|x_{i},\theta) P(yi​^​∣xi​,θ)
对于这个表达式而言,如果参数θ\thetaθ是一致的,特征向量xix_{i}xi​是未知的,我们便称PPP是在探索不同特征取值下获取所有可能的y^\hat{y}y^​的可能性,这种可能性就被称为概率,研究的是自变量和因变量之间的关系
如果特征向量xix_{i}xi​是已知的,参数θ\thetaθ是未知的,我们便称PPP是探索不同参数下获取所有可能的y^\hat{y}y^​的可能性,这种可能性就被称作似然,研究的是参数取值与因变量之间的关系

在逻辑回归的建模过程中,我们的特征矩阵是已知的,参数是未知的,因此我们讨论的所有“概率”其实严格来说都是“似然”,所以逻辑回归的损失函数推导方法叫做“极大似然法”。也因此,一下式子又被称为“极大似然函数”
P(yi^∣xi,θ)=yθ(xi)yi⋅(1−yθ(xi))1−yiP(\hat{y_{i}}|x_{i},\theta)=y_{\theta}(x_{i})^{y_{i}}\cdot (1-y_{\theta}(x_{i}))^{1-y_{i}} P(yi​^​∣xi​,θ)=yθ​(xi​)yi​⋅(1−yθ​(xi​))1−yi​

相关内容

热门资讯

“斩杀线”与美国社会风险结构的... 薛子敬 美国的助学贷款已经从教育支持变成了沉重的债务枷锁,甚至成为“斩杀线”来源之一。 近期网络舆...
德国副总理称不能被美政策“吓倒... 新华社柏林1月18日电据德国电视二台报道,德国副总理兼财政部长拉尔斯·克林拜尔18日说,德国不能被美...
股市必读:旭杰科技独立董事刘勇... 截至2026年1月16日收盘,旭杰科技(920149)报收于12.49元,上涨0.32%,换手率1....
德国副总理:不能被美国的政策“... 每经编辑|黄胜 新华社1月18日消息,据德国电视二台报道,德国副总理兼财政部长拉尔斯·克林拜尔18...
德国副总理称不能被美政策“吓倒... 据新华社报道,德国副总理兼财政部长拉尔斯·克林拜尔18日说,德国不能被美国针对格陵兰岛的政策“吓倒”...
原创 在... 很多朋友第一次听说“伊朗开房罪”,都会下意识以为: 这是一个宗教极端保守、专门防止婚前性行为的规定。...
2025年以来济南市人大常委会...   鲁网1月18日讯(记者 徐英淦 李秀娟)鲁网记者在济南市十八届人大五次会议新闻发布会上获悉,20...