当前位置:

2010年国际内审师分章节重点辅导5

发表时间:2010/9/8 14:41:17 来源:互联网 点击关注微信:关注中大网校微信
关注公众号
(3)周期性因素
除了季节性因素之外,数据也可能含有一定的周期性影响。时间序列中的周期性影响表现为围绕着长期趋势的波动。周期性波动在长期的图形中会重复出现,不是数据中的随机因素。但是并不会像季节性因素那样,有规律的定期反复出现,而是会以不同的频率和强度发生。因此,他们可以被分离出来,但是无法全部预测。
受周期性因素影响最大的组织是那些产品的购买与可随意支配的收入有关的公司(如,贵重消费品,例如家用电器和汽车)。消费者可以推迟购买这些商品,因此,这些组织受经济的衰退影响最大。
【例题】季节因素:
A.无法预测
B.是定期重复出现的趋势
C.在趋势线之上或之下的长期观测值
D.反映了时间序列的变化

【答案】B
【解析】季节因素是时间序列模型的组成部分,它显示了一年期左右的变化。季节因素属于定期的重复趋势。周期因素也是时间序列模型的组成部分,它显示了一年以上的时间序列中源于周期性的高于趋势以及低于趋势的变化(选项C)。
(4)随机或不规则因素
随机或不规则因素是不属于以上三种因素中任何一种的因素——即长期趋势、季节性和周期性因素。随机波动可能由许多因素引起,例如天气(印尼海啸)和政治事件(科威特海湾战争)。
不规则因素可以分为次要不规则因素和主要不规则因素。
次要不规则因素会显示出围绕长期趋势的锯齿状图样。就每个次要的不规则因素而言,他们并不显著,但是整体上却可能很显著,并且可能会给许多组织带来问题。
主要不规则因素是时间序列中显著的一次性、不可预测的变化,例如战争、石油禁运、夏季干旱或严重的冬季冰雪灾等不可控的因素。
【例题】时间序列中短期的、无法预测的、不再发生的因素产生了随机变量,被称为:
A.不规则因素 B.残差
C.预测误差  D.均方误

【答案】A
【解析】不规则因素是时间序列模型的组成部分,它反映了无法用趋势、周期和季节因素解释的实际时间序列值的随机变化。不规则因素是短期的、无法预测的,并且是时间序列里不会重复发生的因素,这些因素导致了随机变化。平滑方法可以用来平滑不规则因素。
【例题】一个较长时间内的时间序列的逐渐变化称为:
A.周期性 B.循环
C.回归  D.趋势

【答案】D
【解析】趋势是一段时期内时间序列观测值的长期变动。
总结一下,时间序列分析是分析一段时间内所测得的数据集的一种流程。在时间序列数据中,趋势因素指的是一段时间内观测到的一个变量长期的变化趋势。季节性因素代表了时间序列中每年的同一时期都会发生的变化。周期性影响表现为围绕着长期趋势的波动。随机或不规则因素是不能归于以上三种因素的因素。
2.回归分析
在回归分析中,我们会复习以下内容:回归分析的概述,简单线性回归分析,多元回归分析,回归模型中存在多重共线性的症状,回归模型中的哑元变量,计量经济学。
(1)回归分析的概述
回归分析中涉及的主要名词有:
因变量:可以由一个或多个其它变量预测或导致其变化的变量。它会显示出其它变量的“影响”。
自变量:被认为可以预测或引起因变量波动的变量。
回归分析:测定因变量和一个或多个自变量之间关联性的一种方法。
回归系数:当一单位的自变量发生变化,对与之相关联的因变量变化的度量;
方差分析:分析两组或多组样本均值差异的一种方法。
相关性:相关性是指两组数字集之间的相互依赖性或两个量之间的关系,例如当一个变化时,另一个也随着变化。两个量同时增加或减少称为“正相关性”;当一个量增加而另一个减少时,称为“负相关性”。
经理在决策之前,或因为要进行预测和计划,或因为要分析问题,经常需要判断两个或更多变量之间的关系。若分析仅涉及一个因变量和一个自变量,这种方法是简单回归分析;若涉及两个或多个自变量,这种方法叫做多元回归分析。
散点图可以用来描述因变量Y(例如,销售量)和自变量X(例如,广告)之间的潜在关系。自变量是用来解释因变量变化的。自变量也叫解释变量。散点图可能出现三种可能的关系:(1)线性的,(2)曲线的,和(3)无关的。
线性的。当X变化时,Y倾向于成直线或近似直线变化。可能是正的变化(X增加,Y增加),也可能是负的变化(X增加,Y减少)。
曲线的。X增加,Y以指数速率增加(例如,当生产增加时,加班以指数速率增加)。或者X增加,Y以递减速率增加(例如,当广告过于庞大时,销售量回报将递减)。
无关的。当X增加时,Y有时减少,有时增加。
除了定性度量,有时还需要使用相关系数来定量度量两个变量间的相关强度。相关系数范围从绝对正相关(+1.0)到绝对负相关(-1.0)。如果两个变量没有线性关系,那么他们之间的相关系数是零。因此,相关系数离零越远,两个变量之间的线性关系就越强。相关系数的符号显示了关系的方向,但是同其强度无关。
【例题】给定相关系数的四个值,-0.15,-0.75,0.19和0.35,哪一个值表明了两个变量之间最弱的线性关联性?

【答案】-0.15有着最弱的线性关联性,因为它离0最近。
【例题】在相关分析中,以下哪一个系数代表了自变量和因变量之间的关系最强?
A.1.03  B.-0.02
C.-0.89 D.0.75

【答案】C
【解析】答案的绝对值越接近1,表明关系越强。负值表明因变量和自变量关系的方向(反向的)。选项A不正确。相关系数的范围是-1.0和+1.0之间。
【例题】根据以下数据可以得出相关系数是多少?
X Y
1 10
2 8
3 6
4 4
5 2
A.0  B.-1
C.+1  D.无法从所给数据中得出

【答案】B
【解析】我们注意到随着X增加Y减少(反向的关系),从而相关系数将会是负值。X增加1,Y将会减少2,是完全负相关。因此数据之间正确的相关系数是-1。
为了判断变量之间线性关系是否显著,我们会先假设相关系数为零,然后检验样本数据是支持还是拒绝相关系数为零的假设。我们通常使用“t”统计量来检验总体相关性为零的假设。
相关性同因果关系无关,因为两个看起来没有联系的变量经常可能是高度相关的。比如,最近的20年,大家的年纪越大,我们国家的国民生产总值越高,但是这两者并不存在着因果关系。
总结一下,回归分析是测定因变量和一个或多个自变量之间关联性的一种方法。若分析仅涉及一个自变量,这种方法是简单回归分析;若涉及两个或多个自变量,这种方法叫做多元回归分析。相关系数可以定量度量两个变量间的相关强度。相关系数范围是从绝对正相关(+1.0)到绝对负相关(-1.0)。如果两个变量没有线性关系,那么他们之间的相关系数是零。相关系数离零越远,两个变量之间的线性关系就越强。相关系数的符号显示了关系的方向,但是同其强度无关。相关性同因果关系无关。

(2)简单线性回归分析
当因变量和一个自变量之间成直线、线性关系时,用来进行预测和估计的方法就叫做简单线性回归模型。比如身高(因变量)和年龄(自变量)之间的关系。
以下方程描述了简单线性回归模型:
Yi = β0 +β1Xi + ei
这里,Yi是因变量值,Xi是自变量值,β0是Y截距,β1是回归线的斜率,ei是误差或残差,是一种随机因素,是实际Y值和模型预测Y值之间的差。
【例题】一个组织使用月度广告费用进行回归来预测月度销售数据(单位:百万美元)。结果显示自变量的回归系数为0.8。这个系数值表明:
a.样本的平均月度广告费用是800,000美元
b.当月度广告费用处于平均水平时,产品销量将是800,000美元
c.平均来说,广告费用每增加一美元,销售将增加0.80美元
d.广告费用不是对销售很好的预测指标,因为系数非常小
 
【答案】c
【解析】
回归系数代表了自变量每变化一单位,因变量变化多少。回归系数:当一单位的自变量发生变化,对与之相关联的因变量变化的度量。选项a不正确,因为回归系数没有告诉我们变量的均值。选项b不正确,因为预测销售的具体金额时,必须用系数乘以自变量,并加上截距项的值。选项d不正确,因为系数的绝对值与变量的重要性没有任何关系。
人们通常使用样本数据确定回归模型,以此估计自变量与因变量之间真实的线性关系。
因变量能够被自变量解释的程度用百分比表示出来就叫做判定系数(R2)。
R2的值是在0到1之间。R2表示了线性回归方程是否符合实际情况。符合的越好,R2越接近1。两个变量之间存在完全的线性关系时,R2等于1.0。两个变量间的相关性很弱或它们间不存在线性关系时,R2接近于0。
使用回归分析作为一种预测工具时,需要考虑以下几个注意事项:
两个变量间存在显著的线性相关性并不能说明一个变量变化导致了另一个变量变化,即不能说明这两个变量存在因果关系。
不过,回归分析用于预测时,两个变量的因果关系这一条件并不是必要的。重要的是回归模型能够准确地反映两个变量间的关系,并且这种关系是稳定的(天气-股市)。
回归分析的应用
【例题】XYZ公司通过对它每月的制造费用成本进行回归分析,得出如下的成本关系。
C= 80,000美元+ 12 M美元
其中C是每月的制造费用成本,M是机器小时。估计的回归模型的标准差是6,000美元。生产一盒公司产品需要的标准制造时间为四个机器小时。XYZ根据机器小时将制造费用分摊到产品上,该公司正常情况下每年的生产量为50,000盒。
问题:如果某月计划生产5,000盒产品,那么估计的变动制造费用成本是多少?
[答疑编号811010402]
【答案】在成本计算式C= 80,000美元+ 12 M美元中, 80,000美元是固定成本部分,而12 M美元是变动成本部分。因此本题所求变动制造费用成本为12美元×5,000盒×4机器小时/盒= 240,000美元。(几个易错点:总成本-变动成本;每年-每月;盒-机器小时)
总结一下,因变量和一个自变量之间成直线、线性关系时,用来进行预测和估计的方法就叫做简单线性回归模型。基本模型为Yi = β0 +β1Xi + ei。因变量能够被自变量解释的程度用百分比表示出来就叫做判定系数(R2)。R2的值是在0到1之间。模型设定的越好,R2越接近1。
(3)多元回归分析
多元回归分析是分析一个因变量同两个或更多变量之间关系的方法,同时也是简单回归分析的扩展。在简单回归分析中,只存在一个自变量(独立变量)。而在多元回归分析中存在一个以上的自变量(独立变量)。

(责任编辑:中大编辑)

6页,当前第2页  第一页  前一页  下一页
最近更新 考试动态 更多>

考试科目