首页 理论教育 此前回归分析方法的简单概况

此前回归分析方法的简单概况

时间:2022-02-13 理论教育 版权反馈
【摘要】:一个个循环做下去,直到当前所确定的回归方程本身与其所含全部变量对过程指标的影响都显著,该方程就是本次回归分析所确定的最后模型或方程。回归分析中,因使用越多的变量项越可得到拟合较好的回归方程,也有使用一个或几个项数很多的复杂模型形式,统一处理任何回归数据的做法,此时只进行一轮回归计算,因免除了模型选择和变量筛选,比较方便﹑简单。

此前实用上回归分析大体有经典法﹑逐步回归法和复杂模型一次拟合的几种方法。

经典法回归工作过程大体如下。根据取得的过程运行观测数据,首先,从简单或复杂的诸多模型类型中,人为选择一个具体的有一定变量结构关系和项数的方程或模型,此称“模型选择”;选得模型包含全部原始变量,或还按回归者希望,配有由原始变量衍生出的人工构造变量项,如变量平方项或交互项等;第二步,按可使模型误差最小的最小二乘法原理,根据观测数据和初选模型,用计算方法确定出模型的各项参数,从而将模型固定下来,得到了最初的含有全部变量项的回归方程;第三步,做方差分析。检验所得方程对观测数据的拟合及变量变化对指标值的影响是否都有90%以上的显著程度,若方程显著,但某变量对指标值的影响不显著且影响最小时,将其从原始数据中剔除(一次只剔除一个自变量;因变量数据不动),此俗称“变量筛选”。调整数据,返回重做最小二乘计算,再确定出一个新的较此前方程少一个变量的回归方程,又做显著性检验…,此为一个“循环”。一个个循环做下去,直到当前所确定的回归方程本身与其所含全部变量对过程指标的影响都显著,该方程就是本次回归分析所确定的最后模型或方程。当觉得所得模型不理想,如数据拟合仍偏差较大,可另选模型类型或调整配项构成,再做回归分析,比较择优,直到满意。

为减少计算量提出了“逐步回归分析法”,其做法与经典法不同,当模型选定后,是把变量逐个引入方程,边引入边做最小二乘计算与显著性检验,如不显著,不纳入;若此前纳入的变量因后纳入变量而变得不显著时,随时将其剔除。其主要特点是,工作中始终使当前回归模型总保持尽量小的规模,以减少计算量。最后所得方程可保证纳入(留下)的全部变量都显著。实事求是地说,此法仍有很大计算量,而且也无法保证所得模型一定是精细的。

回归分析中,因使用越多的变量项越可得到拟合较好的回归方程,也有使用一个或几个项数很多的复杂模型形式,统一处理任何回归数据的做法,此时只进行一轮回归计算,因免除了模型选择和变量筛选,比较方便﹑简单。此法不令人满意之处是,模型带有不显著变量,特别是难知模型拟合的好坏(此点最重要),时有观测数据误差甚大,本不存在明确过程规律,但却给出了一个十分复杂模型的情形(后文例1-5属之),该法不是一个好的模型化方法。

免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。

我要反馈