> 新闻资讯 > 学习方法学习方法 订阅

多元逻辑回归模型的应用误区有哪些

时间:2024-01-05 17:18:11 栏目:学习方法
【导读】:4304目录(https://www.4304.cn)在线提供,学习方法「多元逻辑回归模型的应用误区有哪些」,供学习方法爱好者免费阅读。本文地址:https://www.4304.cn/news/270045.html

多元逻辑回归模型的应用误区体现在:当变量之间的相关程度提高时,系数估计的标准误将会急剧增加;同时,系数对样本和模型设置都非常敏感,模型设置的微小变化,系数对样本和模型设置都非常敏感,模型设置的微小变化、在样本总体中加入或删除案例等变动,都会导致系数估计的较大变化。由于财务比率均由具有相互钩稽关系的财务报表计算得出,同类指标之间的相关程度是非常大的,不加处理地让这些高度相关的变量直接进入模型必然会导致严重的多重共线性干扰。令人遗憾的是,国内外大多数相关研究都没有意识到这一问题,由此得出的判别模型,其稳定性和准确性显然不容乐观。



多元线性回归应用的注意事项有哪些

在做回归预测时需要分析的数据往往是多变量的,那么我们在做多元回归时就需要特别注意了解我们的数据是否能够满足做多元线性回归分析的前提条件。

应用多重线性回归进行统计分析时要求满足哪些条件呢?

总结起来可用四个词来描述:线性、独立、正态、齐性。

(1)自变量与因变量之间存在线性关系

这可以通过绘制”散点图矩阵”进行考察因变量随各自变量值的变化情况。如果因变量Yi 与某个自变量X i 之间呈现出曲线趋势,可尝试通过变量变换予以修正,常用的变量变换方法有对数变换、倒数变换、平方根变换、平方根反正弦变换等。

(2)各观测间相互独立

任意两个观测残差的协方差为0 ,也就是要求自变量间不存在多重共线性问题。对于如何处理多重共线性问题,请参考《多元线性回归模型中多重共线性问题处理方法》

(3)残差e 服从正态分布N(0,σ2) 。其方差σ2 = var (ei) 反映了回归模型的精度, σ 越小,用所得到回归模型预测y的精确度愈高。

(4) e 的大小不随所有变量取值水平的改变而改变,即方差齐性。

多元回归中如果结果与最初假定不符,可能的原因是什么?

极端异常值或自变量间严重的多重共线性问题。

1、非随机性:预测变量的非随机性,即他们的取值是固定的,在生产环境中显然这种假定不满足。此时模型的理论结果仍然成立,但对结果的解释必须修改,当预测变量是随机变量时,所有推断都是关于观测数据的条件推断。

2、取值没有随机误差:这个假定几乎是不能满足的,测量误差的存在会降低预测的精度,影响误差的方差,负相关系数以及单个回归系数的估计。非随机性假设与取值没有随机误差的假设无法验证其合理性,所在在实际分析中,对此类假设不予关注和讨论,但他们的确会影响对回归结果的解释。

3、预测变量间假定线性无关:该假定是为了保证最小二乘解的唯一性,若该假定不成立,称为共线性问题。

多元回归,研究一个因变量、与两个或两个以上自变量的回归。亦称为多元线性回归,是反映一种现象或事物的数量依多种现象或事物的数量的变动而相应地变动的规律。建立多个变量之间线性或非线性数学模型数量关系式的统计方法。在处理测量数据时,经常要研究变量与变量之间的关系。变量之间的关系一般分为两种。一种是完全确定关系,即函数关系;一种是相关关系,即变量之间既存在着密切联系,但又不能由一个或多个变量的值求出另一个变量的值。例如,学生对于高等数学、概率与统计、普通物理的学习,会对统计物理的学习产生影响,它们虽然存在着密切的关系,但很难从前几门功课的学习成绩来精确地求出统计物理的学习成绩。但是,对于彼此联系比较紧密的变量,人们总希望建立一定的公式,以便变量之间互相推测。回归分析的任务就是用数学表达式来描述相关变量之间的关系。

机器学习常见算法优缺点之逻辑回归

我们在学习机器学习的时候自然会涉及到很多算法,而这些算法都是能够帮助我们处理更多的问题。其中,逻辑回归是机器学习中一个常见的算法,在这篇文章中我们给大家介绍一下关于逻辑回归的优缺点,大家有兴趣的一定要好好阅读哟。

首先我们给大家介绍一下逻辑回归的相关知识,逻辑回归的英文就是Logistic Regression。一般来说,逻辑回归属于判别式模型,同时伴有很多模型正则化的方法,具体有L0, L1,L2,etc等等,当然我们没有必要像在用朴素贝叶斯那样担心我的特征是否相关。这种算法与决策树、SVM相比,我们还会得到一个不错的概率解释,当然,我们还可以轻松地利用新数据来更新模型,比如说使用在线梯度下降算法-online gradient descent。如果我们需要一个概率架构,比如说,简单地调节分类阈值,指明不确定性,或者是要获得置信区间,或者我们希望以后将更多的训练数据快速整合到模型中去,我们可以使用这个这个算法。

那么逻辑回归算法的优点是什么呢?其实逻辑回归的优点具体体现在5点,第一就是实现简单,广泛的应用于工业问题上。第二就是分类时计算量非常小,速度很快,存储资源低。第三就是便利的观测样本概率分数。第四就是对逻辑回归而言,多重共线性并不是问题,它可以结合L2正则化来解决该问题。第五就是计算代价不高,易于理解和实现。

当然,逻辑回归的缺点也是十分明显的,同样,具体体现在五点,第一就是当特征空间很大时,逻辑回归的性能不是很好。第二就是容易欠拟合,一般准确度不太高。第三就是不能很好地处理大量多类特征或变量。第四个缺点就是只能处理两分类问题,且必须线性可分。第五个缺点就是对于非线性特征,需要进行转换。

那么逻辑回归应用领域都有哪些呢?逻辑回归的应用领域还是比较广泛的,比如说逻辑回归可以用于二分类领域,可以得出概率值,适用于根据分类概率排名的领域,如搜索排名等、逻辑回归的扩展softmax可以应用于多分类领域,如手写字识别等。当然,在信用评估也有逻辑回归的使用,同时逻辑回归可以测量市场营销的成功度。当然,也可以预测某个产品的收益。最后一个功能比较有意思,那就是可以预定特定的某天是否会发生地震。

我们在这篇文章中给大家介绍了关于机器学习中逻辑回归算法的相关知识,从中我们具体为大家介绍了逻辑回归算法的优缺点以及应用领域。相信大家能够通过这篇文章能够更好的理解逻辑回归算法。

标签:

版权声明:

1、本文系转载,版权归原作者所有,旨在传递信息,不代表看本站的观点和立场。

2、本站仅提供信息发布平台,不承担相关法律责任。

3、若侵犯您的版权或隐私,请联系本站管理员删除。

4、本文由会员转载自互联网,如果您是文章原创作者,请联系本站注明您的版权信息。

上一篇:比例分配原则是什么 下一篇:

学习方法推荐

本网站所有的文章都转载与网络(版权为原作者)我们会尽可能注明出处,但不排除来源不明的情况。转载是处于提供更多信息以参考使用或学习、交流、科研之目的,不用于商业用途。转载无意侵犯版权,如转载文章涉及您的权益等问题,请作者速来电话和邮件告知,我们将尽快处理。