为了帮助考生系统的复习内审师课程 全面的了解内审师考试的相关重点,小编特编辑汇总了2011年内审师考试相关资料,希望对您参加本次考试有所帮助!!
(2)简单线性回归分析
当因变量和一个自变量之间成直线、线性关系时,用来进行预测和估计的方法就叫做简单线性回归模型。比如身高(因变量)和年龄(自变量)之间的关系。
以下方程描述了简单线性回归模型:
Yi =β0+β1Xi+ei
这里,Yi是因变量值,Xi是自变量值,β0是Y截距,β1是回归线的斜率,ei是误差或残差,是一种随机因素,是实际Y值和模型预测Y值之间的差。
【例题】一个组织使用月度广告费用进行回归来预测月度销售数据(单位:百万美元)。结果显示自变量的回归系数为0.8。这个系数值表明:
A.样本的平均月度广告费用是800,000美元
B.当月度广告费用处于平均水平时,产品销量将是800,000美元
C.平均来说,广告费用每增加一美元,销售将增加0.80美元
D.广告费用不是对销售很好的预测指标,因为系数非常小
【答案】C
【解析】回归系数代表了自变量每变化一单位,因变量变化多少。选项A不正确,因为回归系数没有告诉我们变量的均值。选项B不正确,因为预测销售的具体金额时,必须用系数乘以自变量,并加上截距项的值。选项D不正确,因为系数的绝对值与变量的重要性没有任何关系。
人们通常使用样本数据确定回归模型,以此估计自变量与因变量之间真实的线性关系。样本数据的散点图可用于估计总体回归直线。回归直线上的点的值被称为估计值。根据最小二乘法,使得所有观测值(X,Y)与回归线距离的平方和最小的回归线就是最优回归线。残差是回归直线上的估计值与实际Y值(观测值)的差值。
最小二乘回归线可以使得残差平方和最小。这个值被称为"误差平方和"(SSE)。它反映了因变量中不能被最小二乘回归线解释的那部分差异的大小。因变量中能够被最小二乘回归线解释的那部分差异的大小被称为"回归平方和"(SSR)。
SSR=TSS-SSE
其中TSS是"总平方和",表示因变量的总差异的大小。
因变量能够被自变量解释的程度用百分比表示出来就叫做判定系数(R2)。
R2 = 回归平方和/总平方和=SSR/TSS
R2的值是在0到1之间。R2表示了线性回归直线对数据点(X,Y)的拟合程度。拟合的越好,R2越接近1。两个变量之间存在完全的线性关系时,R2等于1.0。两个变量间的相关性很弱或它们间不存在线性关系时,R2接近于0。
使用回归分析作为一种预测工具时,需要考虑以下几个注意事项:
两个变量间存在显着的线性相关性并不能说明一个变量变化导致了另一个变量变化,即不能说明这两个变量存在因果关系。
不过,回归分析用于预测时,两个变量的因果关系这一条件并不是必要的。重要的是回归模型能够准确地反映两个变量间的关系,并且这种关系是稳定的。
回归分析的应用
XYZ公司通过对它每月的制造费用成本进行回归分析,得出如下的成本关系。
C= 80,000美元+ 12 M美元
其中C是每月的制造费用成本,M是机器小时。估计的回归模型的标准差是6,000美元。生产一盒公司产品需要的标准制造时间为四个机器小时。XYZ根据机器小时将制造费用分摊到产品上,该公司正常情况下每年的生产量为50,000盒。
【例题】问题:如果某月计划生产5,000盒产品,那么估计的变动制造费用成本是多少?
【答案】在成本计算式C= 80,000美元+ 12 M美元中, 80,000美元是固定成本部分,而12 M美元是变动成本部分。因此本题所求变动制造费用成本为12美元×5,000盒×4机器小时/盒= 240,000美元。
总结一下,因变量和一个自变量之间成直线、线性关系时,用来进行预测和估计的方法就叫做简单线性回归模型。基本模型为Yi = β0 +β1Xi + ei。因变量能够被自变量解释的程度用百分比表示出来就叫做判定系数(R2)。R2的值是在0到1之间。模型设定的越好,R2越接近1。
(3)多元回归分析
多元回归分析是分析一个因变量同两个或更多变量之间关系的方法,同时也是简单回归分析的扩展。在简单回归分析中,只存在一个自变量(独立变量)。而在多元回归分析中存在一个以上的自变量(独立变量)。
比如,房屋的价格是因变量,而自变量很多,例如房屋所占平方大小、房屋建造距今时间、卧室的数量和浴室的数量、地段、朝向等等。
相关文章
编辑推荐:
(责任编辑:中大编辑)