回归分析预测法,是通过处理大量的统计数据,从中寻求这些数据演变规律的一种数理统计预测方法。其过程是:首先对所收集的数据进行统计分析,导出自变量与因变量之间的关系式,即回归方程式;然后求解方程式中的未知系数,并根据自变量的取值来预测因变量的取值范围;最后对取值范围及可信区间进行估计。
回归分析预测法的基本公式是:
y=f(x1、x2、…、xn)
式中:y——因变量;
x1、x2、…、xn——n个自变量。
根据数学模型中自变量的多少,自变量和因变量的关系,回归分析预测法可分为一元线性回归法,多元线性回归法及非线性回归法等等。
回归分析预测法,是在定量分析的基础上进行预测的,要得到理想的预测效果,预测对象应满足下列几个条件。
①预测对象与影响因素之间必须存在因果关系,而数据点以在20个以上为好。
②过去和目前的数据规律,能够反映未来。
③数据的分布确有线性或非线性趋势。
(1)一元线性回归法
一元线性回归法是处理两个变量间的因果关系的一种用途很广的方法。其基本数学模型如下:
y=a+bx(57)
式中:y——因变量,即预测值;
x——自变量;
a、b——回归系数。
确定回归系数a和b,一般可根据最小二乘法的原理求得以下方程组:
ni=1yi=na+bni=1xi
ni=1xiyi=ani=1xi+bni=1x2i(58)
解方程得
a=y-bx(59)
b=ni=1xiyi-xni=1yini=1x2i-xni=1xi(510)
式中:=ni=1xin;=ni=1yin;n为资料期数。
回归分析预测法的因变量可以是时间,也可以是其他相关因素。回归分析预测法既可以用于时间序列分析,又可以用于因果(相关)分析。下面分别介绍回归分析预测法的这两种不同用途。
①用于时间序列分析。如果(57)式中的自变量x代表取得统计数据的时间,则预测就属于时间序列分析。从(58)式可见,∑xi是一个共同的因子。为了简化计算,可以设法使∑xi=0。若n为奇数,则取t的时间间隔期为1,将t=0置于资料的中央一期,其上为负值,其下为正值。若n为偶数,则取t的时间间隔期为2,将t=-1与t=1置于资料中央的上下两期,其上为负值,其下为正值。
当∑xi=0时,方程组(58)就成为:
yi=na
xiyi=bx2i(511)
解方程组可得:
a=yin
b=xiyix2i(512)
(513)
②用于因果(相关)分析。产品的销售量不仅与时间有关,还与许多社会、技术、经济、心理因素有关。例如,纺织品的销售量与人口的多少,与人们可支配的销售收入的多少,与新产品的开发,都有明显的因果关系。这里,可以让自变量x代表某种社会、技术、经济、心理因素,因变量的变化取决于x的变化,因变量y就是所需要的预测值。
多元线性回归法
影响产品销售额的因素往往很多,有时要利用多元线性回归法来进行预测。多元线性回归法是根据两个或两个以上的自变量,来估计因变量。其基本数学模型是:
y=b0+b1x1+b2x2+…+bmxm
=b0+mk=1bkxik
式中:y——因变量;
xik——自变量;
bk——回归系数。
多元线性回归法求系数的原理同一元线性回归法一样,也是用最小二乘法,使预测值与实际值之间的平方差之和最小,求出多元回归系数,实现回归方程与实际数据点的最佳拟合。
在多元线性回归法中,最常用的是二元线性回归法,它可以同时研究两个自变量对因变量影响的程度,其基本数学模型是:
y=a+bixi+b2x2(514)
式中:y——预测值(因变量);
x1,x2——影响因素(自变量);
a,b1,b2——回归系数。
根据最小二乘法和求极值的原理,可得以下方程组:
yi=na+b1xi+b2x2
x1yi=ax1+b1x21+b2x1x2
x2yi=ax2+b1x1x2+b2x22(515)
多元线性回归法的计算,用手工计算是很难完成的,一般必须利用矩阵方法和计算机运算。具体的计算过程就不一一列出了。
免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。