想知道关于逻辑回归的估计方法和属于逻辑回归的方法有的相关题,你想知道那些呢,下面就让小编带你了解一下。


详细视频

1.Logistic回归的定义

逻辑回归(LogisticRegression),也称为逻辑回归分析,是一种广义的线性回归分析模型。逻辑回归的原理是将线性回归的结果-,用逻辑函数映射到0,1

逻辑回归是一种分类算法。每个人都熟悉线性回归。一般形式为Y=aX+b,y的取值范围为[-,+]

如何实现分类将Y的结果代入Sigmoid函数的非线性变换,就可以得到S的取值范围0,1,可以看成是一个概率分布

应用场景

预测用户是否点击特定项目

确定用户的性别

预测用户是否会购买给定类别

确定评论是正面还是负面

逻辑函数

表达

函数图

无论函数中z取什么值,结果都在区间[0,-1]内。我们假设分类阈值为05,那么超过05的被分类为A类,低于05的被分类为B类。阈值是可以自己设置的。

二、逻辑函数的导函数

逻辑函数的表达式为

导数函数为

可以进行以下转换

逻辑函数是任意阶的连续导函数

3.逻辑回归中的参数如何求解?

1.最大似然函数

例如;如果我们积累了大量的违约客户和正常客户的样本数据,并利用最大似然函数追踪原因,估计出使当前结果最有可能出现的参数系数。有了这些参数,我们就可以求出任何客户违约的概率。

我们假设信用违约的后验概率

相应地,可以得到客户不违约的概率

如果订购

违约的后验概率可以写为

不违约的后验概率可以写为

对于某个客户,我们收集了样本数据x,y。对于这个样本,他的标签为y的概率可以定义为

其中y。当y=0时,上式为不违约的后验概率,当y=1时,上式为违约的后验概率。

现在我们有m个客户的观察样本

用概率中的乘法公式乘以每个样本出现的概率就是组合事件的总概率,即似然函数,可以写为

其中是要求的参数。

注意我们总是希望当前结果的可能性是最大的,所以我们想得到最大化似然函数对应的参数。

为了方便求解,我们引入不改变函数单调性的对数函数ln,将乘法改为加法,得到对数似然函数

至此,对数似然函数就可以通过梯度上升法求解,得到使当前结果最有可能的参数。

2.最小化损失函数

方法二我们基于对数似然函数构造损失函数,利用梯度下降法求出最小损失对应的参数

损失函数需要满足两个条件

1.损失函数可以衡量模型的好坏

2.参数可以求导,方便寻找最优解,即损失函数的最小值

结合上式中的最大似然函数,如果我们取整个数据集的平均对数似然损失,我们可以得到

其中,J为损失函数,是在对数似然函数前面加负号并取平均值得到的。

也就是说,在逻辑回归模型中,最大化似然函数和最小化损失函数实际上是等价的。最大化对数似然函数对应的参数和最小化平均对数似然损失对应的参数是一致的,即

逻辑回归的四种常见求解方法

梯度求解的基本步骤如下

选择下降方向

选择步长并更新参数i=i1iJi1

重复以上两步,直至满足终止条件

41一阶方法

梯度下降、随机梯度下降、迷你随机梯度下降法。随机梯度下降不仅比原始梯度下降速度更快,而且在局部优化题中可以一定程度抑制局部最优解的出现

42二阶方法牛顿法、拟牛顿法

牛顿法实际上就是通过切线与x轴的交点不断更新切线的位置,直到到达曲线与x轴的交点,从而得到方程的解。在实际应用中,我们经常需要凸解优化题,即求解函数一阶导数为0的位置,而牛顿法正好可以提供该题的解。

牛顿法首先选择一个点作为起点,进行二阶泰勒展开,得到导数为0的点进行更新,直到满足要求。这时牛顿法就变成了二阶解题,比一阶法要快。

拟牛顿法无需二阶偏导数构造Hessian矩阵的近似正定对称矩阵的方法称为拟牛顿法。拟牛顿法的思想是用特殊的表达式来模拟Hessian矩阵或其逆矩阵,使表达式满足拟牛顿条件。主要有DFP法、BFGS、L-BFGS。

5.可以进行多分类吗?

方法一

1、将类型class1视为正样本,其他所有类型视为负样本,然后就可以得到该样本标签类型作为该类型的概率p1。

2然后将class2的另一类作为正样本,其他所有类型作为负样本,同理得到p2。

3循环执行此操作

方法二

1多元逻辑回归Softmax更合适。Softmax回归是多分类中逻辑回归的直接扩展。该模型使用softmax函数对概率进行建模

六种逻辑回归有什么优点

LR可以以概率的形式输出结果,而不仅仅是0,1判断。

LR可解释性强、可控性高

训练快,特征工程容易出结果

因为结果是一个概率,所以可以做一个排名模型

七、逻辑回归有哪些应用

CTR估计/推荐系统学习排名/各种分类场景。

搜索引擎公司广告CTR的预估基线版本是LR。

电子商务搜索排名/广告点击率估算的基准版本是LR。

一次电商购物搭配推荐大量使用了LR。

新闻类app的排序基线是LR

8逻辑回归为什么要离散化特征

非线性!Logistic回归属于广义线性模型,表达能力有限;单变量离散化为N后,每个变量都有独立的权重,相当于在模型中引入非线性,可以提高模型的表达能力,增加拟合度;离散易于增减特征,易于快速迭代模型;

高速!稀疏向量内积乘法运算速度快,计算结果方便存储,易于扩展;

稳健性!离散化的特征对异常数据非常鲁棒比如某个特征年龄>30则为1,否则为0。如果特征不离散化,一条“300岁”的异常数据会对模型造成很大的干扰;

方便的交叉和特征组合离散化后,可以进行特征交叉,从M+N变量变为MN变量,进一步引入非线性,提高表达能力;

稳定性特征离散化后,模型会更加稳定。例如,如果将用户的年龄离散化,以20-30作为区间,用户不会因为大一岁就变成完全不同的人。当然,与该区间相邻的样本也会正好相反,所以如何划分区间是一个学;

简化模型特征离散化后,模型得到简化,降低模型过拟合的风险。

代码演示-Logistic回归

数据集鸢尾花

sklearn

Logistics回归1加载数据iris=datasetsload_irisX=irisdata[:3]2分割测试集、训练集。X_train,X_test,Y_train,Y_test=train_test_splitX,Y,test_size=02,random_state=1004训练逻辑回归模型logreg=Linear_modelLogisticRegressionC=1e5,max_iter=100,solver=39;multi_class=39;用于建模概率的max函数y_pred=logregpredict_probaX_test_stdacc=logregscoreX_test_std,Y_testprint39;print34;acc


关于逻辑回归的估计方法和一些属于逻辑回归的方法有的内容就讲解到这里了,大家记得关注收藏本站哦。


发表评论:

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。