逻辑回归公式,逻辑回归公式sklearn

http://www.itjxue.com  2023-01-22 22:39  来源:未知  点击次数: 

r语言怎么用逻辑回归逻辑回归做预测

逻辑回归是回归模型,其中响应变量(因变量)具有明确的值,如:True/False或0/1。它实际测量二元响应作为响应变量,是基于与预测变量有关它的数学方程的值的概率。逻辑回归一般的数学公式是:y=1/(1+e^-(a+b1x1+b2x2+b3x3+))以下是所使用的参数的说明:y是响应变量。x是预测变量。a和b是数字常量系数。用于创建回归模型的功能是glm()函数。

回归分析中的均方怎么算?回归和残差的均方(MS)怎么算?

回归平方和=自由度×均方

残差均方=残差平方和×残差df

残差F=回归均方÷残差均方

回归是方法,残差在数理统计中是指实际观察值与估计值(拟合值)之间的差,平方和有很多个,不同的平方和的意思不一样,与样本量及模型中自变量的个数有关,样本量越大,相应变异就越大。

df是自由度,是自由取值的变量个数;

均方指的是一组数的平方和的平均值,在统计学中,表示离差平方和与自由度之比;

f是f分布的统计量,用于检验该回归方程是否有意义;

SIG=significance,意为“显著性”,后面的值就是统计出的P值,如果P值0.01P0.05,则为差异显著,如果P0.01,则差异极显著。

扩展资料:

线性回归使用最佳的拟合直线(也就是回归线)在因变量(Y)和一个或多个自变量(X)之间建立一种关系。

多元线性回归可表示为Y=a+b1*X +b2*X2+ e,其中a表示截距,b表示直线的斜率,e是误差项。多元线性回归可以根据给定的预测变量(s)来预测目标变量的值。

逻辑回归是用来计算“事件=Success”和“事件=Failure”的概率。当因变量的类型属于二元(1 / 0,真/假,是/否)变量时,应该使用逻辑回归。这里,Y的值为0或1,它可以用下方程表示。

参考资料来源:百度百科-回归分析

逻辑回归 常用评分卡公式

回归方程的公式:Yi-y^=Yi-a-bXi。

回归方程是根据样本资料通过回归分析所得到的反映一个变量(因变量)对另一个或一组变量(自变量)的回归关系的数学表达式。

AI数学基础8——Logistic Regression cost function的数学推导

在分类问题中,我们经常遇到一种分类结果只有 是(1) 或 不是(0)两种答案的问题,例如:

这是垃圾邮件(1) 或 这不是垃圾邮件(0)

这是有瑕疵的产品(1) 或 这是没有瑕疵的产品(0)

这类问题的预测值,只有一个离散的取值(0或者10),类似于逻辑函数,所以处理此类二元分类的方法叫逻辑回归。什么是归回(Regression)呢?顾名思义: a?process?for?determining?the?statistical?relationship?between?a?random variable?and?one?or?more?independent?variables?that?is?used?to?predict the?value?of?the?random?variable。

简单来说,回归就是找出已知变量间的统计学关系。这种关系满足一个计算公式h(x),这个公式的自变量就是已知的数据x,函数值h(x)就是要预测的目标值。这一计算公式称为回归方程,得到这个方程的过程就称为回归。

逻辑回归的预测值,

只取(0,1)两个值,如下:

由此,我们使用 标准Logistic函数(logistic function) ,也称为 Sigmoid函数(sigmoid function), 参考《 AI数学基础4-Sigmoid函数 》,将预测值归一化到区间(0,1)内,如下:

Sigmoid函数求导有一个特性

可以简记为:

该特性将在下面的推导中用到。

再回顾一下问题:

我们有一组已知的特征值,也叫输入变量,记作X,大写代表特征值向量,x代表一个样本的特征值;

一组已知特征值的输出值,也叫标签,记作Y,输出值向量, y 代表一个样本的输出值;

X 与 Y 之间的关系,记作H(X),H(X)里面的参数向量,记作W

我们的目标是:找到一个W,使得H(X)尽可能的与Y接近,或者叫相似(Likelihood),为了方便表达,约定标记:

根据推断统计学(Statistical inference)理论,我们要找到这个W,使得H(X)尽可能的与Y接近,就需要构造出W的似然函数L(W)。

为此,我们先要求得P(Y|X)的表达式,为了简化推导,先求一个样本的p(y|x),如下:

合并为一个表达式,即:

训练样本相互独立,对m个训练样本,整体的似然函数为:

得到似然函数后,我们的目标就是,求取一个W,使得似然函数的值最大。

为了简化计算,我们对L(W)取Log,Log函数是单调递增函数;Log(L(W))最大,也意味着L(W)最大,如下:

为了方面表示,我们把Log(L(W))记作:

似然函数描述的是预测值与实际值的相似程度,似然函数值越大,说明越相似,所以我们希望求的它的最大值。

对于单个样本,定义一个损失函数(Loss function),用于衡量预测值与实际值的接近程度,损失函数值越小,说明“损失”越小,即衡量预测值与实际值越接近。由于似然函数单调递增,所以,可以用似然函数的负数来表示损失函数,即:

对于整个训练样本,且样本相互独立,定义代价函数(cost function),如下:

我们的目标是:找到适合的参数w,让代价函数的值最小,即总代价最低

推导完毕

(责任编辑:IT教学网)

更多

推荐Discuz!建站文章