资源预览内容
第1页 / 共13页
第2页 / 共13页
第3页 / 共13页
第4页 / 共13页
第5页 / 共13页
第6页 / 共13页
第7页 / 共13页
第8页 / 共13页
第9页 / 共13页
第10页 / 共13页
亲,该文档总共13页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述
精品资料欢迎下载精选学习资料 - - - - - - - - - 名师归纳总结 - - - - - - -第 1 页,共 13 页精品资料欢迎下载线性回归方程中的相关系数rr= (Xi-X的平均数 )(Yi-Y平均数 )/ 根号下 (Xi-X平均数 )2* (Yi-Y平均数 )2 精选学习资料 - - - - - - - - - 名师归纳总结 - - - - - - -第 2 页,共 13 页精品资料欢迎下载R2就是相关系数的平方,R在一元线性方程就直接是因变量自变量的相关系数,多元则是复相关系数判定系数R2 也叫拟合优度、可决系数。表达式是: R2=ESS/TSS=1-RSS/TSS 该统计量越接近于1,模型的拟合优度越高。问题:在应用过程中发现,如果在模型中增加一个解释变量,R2往往增大这就给人一个错觉:要使得模型拟合得好,只要增加解释变量即可。但是,现实情况往往是,由增加解释变量个数引起的R2的增大与拟合好坏无关,R2 需调整。这就有了调整的拟合优度: R12=1-(RSS/(n-k-1)/(TSS/(n-1) 在样本容量一定的情况下,增加解释变量必定使得自由度减少,所以调整的思路是:将残差平方和与总离差平方和分别除以各自的自由度,以剔除变量个数对拟合优度的影响: 其中: n-k-1 为残差平方和的自由度,n-1 为总体平方和的自由度。总是来说,调整的判定系数比起判定系数,除去了因为变量个数增加对判定结果的影响。R = R接近于 1 表明 Y与 X1, X2 , ,Xk 之间的线性关系程度密切;R接近于 0 表明 Y与 X1, X2 , ,Xk 之间的线性关系程度不密切相关系数就是线性相关度的大小,1 为( 100% )绝对正相关,0 为 0% ,-1 为( 100% )绝对负相关相关系数绝对值越靠近1,线性相关性质越好,根据数据描点画出来的函数-自变量图线越趋近于一条平直线,拟合的直线与描点所得图线也更相近。如果其绝对值越靠近0,那么就说明线性相关性越差,根据数据点描出的图线和拟合曲线相差越远 (当相关系数太小时,本来拟合就已经没有意义,如果强行拟合一条直线,再把数据点在同一坐标纸上画出来,可以发现大部分的点偏离这条直线很远,所以用这个直线来拟合是会出现很大误差的或者说是根本错误的)。分为一元线性回归和多元线性回归线性回归方程中,回归系数的含义一元:Y=bX+a b 表示 X 每变动(增加或减少)1 个单位 ,Y 平均变动(增加或减少)b 各单位多元:Y=b1X1+b2X2+b3X3+a 在其他变量不变的情况下,某变量变动1 单位,引起y 平均变动量以 b2 为例: b2 表示在 X1、 X3(在其他变量不变的情况下)不变得情况下,X2 每变动 1单位, y 平均变动b2 单位就一个 reg 来说 y=a+bx+e a+bx 的误差称为explained sum of square e 的误差是不能解释的是residual sum of square 精选学习资料 - - - - - - - - - 名师归纳总结 - - - - - - -第 3 页,共 13 页精品资料欢迎下载总误差就是TSS 所以 TSS=RSS+ESS 判定系数也叫拟合优度、可决系数。表达式是该统计量越接近于1,模型的拟合优度越高。问题:在应用过程中发现,如果在模型中增加一个解释变量, R2 往往增大这就给人一个错觉:要使得模型拟合得好,只要增加解释变量即可。 但是,现实情况往往是,由增加解释变量个数引起的R2 的增大与拟合好坏无关,R2需调整。这就有了调整的拟合优度在样本容量一定的情况下,增加解释变量必定使得自由度减少,所以调整的思路是:将残差平方和与总离差平方和分别除以各自的自由度,以剔除变量个数对拟合优度的影响:其中: n-k-1 为残差平方和的自由度,n-1 为总体平方和的自由度。总是来说,调整的判定系数比起判定系数,除去了因为变量个数增加对判定结果的影响。顺便补充一下:一般做回归的时候要求拟合优度(实际值与拟合值相关系数的平方)越高越好, 可以通过增加解释变量来实现,可是解释变量多了后很多解释变量的系数T检验不显著了, 而且增加很多变量后模型的自由度就减少了,这些情况狂的存在往往使得模型预测不精确;修正拟合优度就是将残差平方和跟总离差平方和分别除以各自的自由度,这样就剔除了变量个数对其影精选学习资料 - - - - - - - - - 名师归纳总结 - - - - - - -第 4 页,共 13 页精品资料欢迎下载响了。首先有一个恒等式:TSS = ESS + RSS 即总偏差平方和= 回归平方和+ 残差平方和通常情况, 我们都是讨论解释变量对总效应的贡献,使用一个叫 “ 拟合优度 ”(或者叫 “ 判定系数” )的指标其定义为:回归平方和/ 总偏差平方和=ESS/TSS = (TSS-RSS)/TSS =(923-325)/923 如果说随机误差对总效应的贡献,那可以直接RSS/TSS 因为1 - (TSS-RSS)/TSS 就可以化为RSS / TSS SPSS 中 pearson (皮尔逊相关系数)看r 值还是 P 值,确定相关性两个值都要看,r 值表示在样本中变量间的相关系数,表示相关性的大小;p 值是检验值,是检验两变量在样本来自的总体中是否存在和样本一样的相关性。精选学习资料 - - - - - - - - - 名师归纳总结 - - - - - - -第 5 页,共 13 页精品资料欢迎下载SPSS 回归系数SIG 在 SPSS 软件统计结果中,不管是回归分析还是其它分析,都会看到“SIG”,SIG=significance,意为 “ 显著性 ” ,后面的值就是统计出的P 值,如果 P 值 0.01P0.05,则为差异显著,如果P0.01, 则差异极显著sig 是指的的显著性水平,就是p 值,一般来说接近0.00 越好,过大的话只能说不显著,sig 是 F 检验的结果,0.05 则说明模型受误差因素干扰太大不能接受。R 是复相关系数, 表示观测值和模型描述值之间的线性相关系数,越大越好。R 方通俗的说就是解释率,就是说你的自变量能够解释多少因变量的变化。具体到你这个就是模型不能接受,自变量解释了22.1%, 剩下的只能用误差解释。spss 软件的线性回归分析中,输出了一个anova 表,表中的回归、残差、平方和、df 、均方、 F、sig 分别代表什么回归是方法残差是实测与预计值的差值平方和有很多个,不同的平方和的意思不一样df 是自由度均方是方差除以自由度f 是 f 分布的统计量sig 是 p 值anova 表中的 “ 回归平方和 ” 表示反应变量的变异中的回归模式中所包含的自变量所能解释的部分。 “ 残差平方和 ” 代表反应变量的变异中没有被回归模型所包含的变量解释的部分。这两个值与样本量及模型中自变量的个数有关,样本量越大,相应变异就越大。df 是自由度,是自由取值的变量个数,F 为 F 检验统计量,用于检验该回归方程是否有意义,当Sig对应的值小于0.05(当显著性水平为0.05 时)时,说明所建立的回归方程具有统计学意义,即自变量和因变量之间存在线性关系。多元线性回归分析中, t 检验与 F 检验有何不同t 检验常能用作检验回归方程中各个参数的显著性,而f 检验则能用作检验整个回归关系的显著性。 各解释变量联合起来对被解释变量有显著的线性关系,并不意味着每一个解释变量分别对被解释变量有显著的线性关系F 检验主要是检验因变量同多个自变量的整体线性关系是否显著,在 k 个自变量中, 只要有一个自变量同因变量的线性关系显著,t 检验则是对每个回归系数分别进行单独的检验,以判断每个自变量对因变量的影响是否显著。精选学习资料 - - - - - - - - - 名师归纳总结 - - - - - - -第 6 页,共 13 页精品资料欢迎下载计算结果肺活量例子精选学习资料 - - - - - - - - - 名师归纳总结 - - - - - - -第 7 页,共 13 页精品资料欢迎下载对数据标准化 ,即将原始数据减去相应变量的均数后再除以该变量的标准差, 计算得到的 回归方程 称为标准化回归方程,相应得回归系数为标准化回归系数。标准化回归系数(Beta 值)在多元回归中被用来比较变量间的重要性B是指回归系数, beta 是指标准回归系数,beta=B/S(B),beta 是用来比较各个系数之间的绝对作用或者贡献的大小,B 值是不能判断的绝对贡献的。t 值是对该回归系数B做假设检验的结果,P值小于 0.05 才可以认为有意义,但是具体问题要具体分析,有的时候要考虑交互作用等常数项为负p 值 0.04 ,拒绝常数项为0 的假设,统计显著,没问题beta coefficient 就是标准回归系数,它是首先把各个自变量进行Z 转换(数据值 -数据平均值然后除以标准差)之后再进行回归,此时得出的回归系数称为标准化回归系数。Z转换可以把各个自变量的数级、量纲统一标准化, 也就可以根据标准化回归系数的大小比较出各个自变量在回归方程中的效应大小。标准 回归系数standardizedregressioncoefficient 或 standardregressioncoefficient消除了因变量y 和自变量 x1,x2, xn 所取单位的影响之后的回归系数 ,其绝对值的大小直接反映了xi 对 y 的影响程度计算方法对数据标准化, 即将原始数据减去相应变量的均数后再除以该变量的标准差,计算得到的回归方程称为标准化回归方程,相应得回归系数 为标准化回归系数。公式若假定回归方程的形式如下:Y=b0+b1X1+b2X2+ +bjXj+ +bJXJ(Y 是估计值 )精选学习资料 - - - - - - - - - 名师归纳总结 - - - - - - -第 8 页,共 13 页精品资料欢迎下载其中,回归参数b0,b1, ,bJ通过最小二乘法求得。则标准化回归系数bj=bj*(Xj的标准差 /Y 的标准差 )理解方法标准化回归系数(Beta 值)在多元回归中被用来比较变量间的重要性。但是由于重要性这一词意义的含糊性,这一统计常被误用。有时人们说重要性,是指同样的条件下,哪一个东西更有效。在提高教学质量上,是硬件条重要还是师资更重要?如果是师资更重要,那么同样的物力投在师资上就可以更快地提高教学质量。但是这里要比较的两者必须有同样的测量单位,如成本(元)。如果变量的单位不同, 我们不能绝对地说那个变量更重要。不同单位的两个东西是不能绝对地比出高低轻重来。要想进行绝对地比较,就需要两个东西有着共同的测度单位,否则无法比较。而标准化回归系数说的重要性则与上面的意义不同,这是一种相对的重要性,与某一特定的情况下, 自变量间的离散程度有关。比如说, 虽然我们不能绝对地说出教育和年资在决定收入上那一个一定是重要的,但如果现在大家的教育程度比较相似,那么在收入的决定上,工作年数就是决定因素;反之,如果工作年数没有太大区别,那么教育就成为了重要原因。这里的重要性是相对的,是根据不同情况而改变的。再举一个通俗的例子,研究者研究的是遗传因素和后天因素对于人成长的影响。那么在一个社会境遇悬殊巨大的环境中,有人在贫民窟成长, 有人在贵族学校上学,那么我们会发现人格的大部分差异会从后天环境因素得到解释, 而遗传的作用就相对较小;相反,如果儿童都是在一个相差不大的环境中长大的,你会发现, 遗传会解释大部分的人格差异。这种意义上的重要性,不仅与这一自变量的回归系数有关系, 而且还与这个自变量的波动程度有关系:如果其波动程度较大,那么就会显得较为重要; 否则, 就显得不太重要。标准化回归系数正是测量这种重要性的。从标准化回归系数的公式中也可看出,Beta 值是与自变量的标准差与成正比的,自变量波动程度的增加,会使它在这一具体情况下的重要性增加。但是如果将两种重要性混同,就会得到误导性结论。如环境因素的Beta 值比遗传因素的 Beta 值大,就认为在个体的人格发展上应更注意环境因素,而轻视遗传因素,在目前对于 Beta 值的错误观念非常流行,甚至是一些高手中。标准化回归系数的比较结果只是适用于某一特定环境的,而不是绝对正确的,它可能因时因地而变化。举例来说,从某一次数据中得出,在影响人格形成的因素中,环境因素的Beta 值比遗传因素的Beta 值大,这只能说明数据采集当时当地的情况,而不能加以任何不恰当的推论,不能绝对地不加任何限定地说,环境因素的影响就是比遗传因素大。事实上,如果未来环境因素的波动程度变小,很可能遗传因素就显得更为重要。数据的情况千差万别,变量的相对重要性也可能完全不同但都符合当时的实际情况。F 是组方差值,sig 是差异性显著的检验值,该值一般与0.05 或 0.01 比较,若小于0.05 或者 0.01 则表示差异显著df 是自由度精选学习资料 - - - - - - - - - 名师归纳总结 - - - - - - -第 9 页,共 13 页精品资料欢迎下载一般的 sig 没有特别注明的都是指双侧检验,如果特别注明有单侧,那就是单侧的所谓双侧的意思是有可能在大于,有可能小于的,而单侧的意思是只有一边或者大于,或者小于的关于求法还是看相关统计学教材吧里面讲起来比较复杂你的分析结果有T 值,有 sig 值,说明你是在进行平均值的比较。也就是你在比较两组数据之间的平均值有没有差异。从具有 t 值来看,你是在进行T 检验。 T 检验是平均值的比较方法。T 检验分为三种方法:1. 单一样本t 检验(One-sample t test),是用来比较一组数据的平均值和一个数值有无差异。例如,你选取了5 个人,测定了他们的身高,要看这五个人的身高平均值是否高于、低于还是等于1.70m ,就需要用这个检验方法。2. 配对样本t 检验( paired-samples t test),是用来看一组样本在处理前后的平均值有无差异。比如,你选取了5 个人,分别在饭前和饭后测量了他们的体重,想检测吃饭对他们的体重有无影响,就需要用这个t 检验。注意,配对样本 t 检验要求严格配对,也就是说, 每一个人的饭前体重和饭后体重构成一对。3. 独立样本t 检验( independent t test),是用来看两组数据的平均值有无差异。比如,你选取了 5 男 5 女,想看男女之间身高有无差异,这样,男的一组,女的一组,这两个组之间的身高平均值的大小比较可用这种方法。总之,选取哪种t 检验方法是由你的数据特点和你的结果要求来决定的。t 检验会计算出一个统计量来,这个统计量就是t 值,spss 根据这个t 值来计算sig 值。因此,你可以认为t 值是一个中间过程产生的数据,不必理他,你只需要看sig 值就可以了。 sig 值是一个最终值,也是t 检验的最重要的值。sig 值的意思就是显著性(significance ),它的意思是说,平均值是在百分之几的几率上相等的。一般将这个sig 值与 0.05 相比较,如果它大于0.05 ,说明平均值在大于5%的几率上是相等的,而在小于95%的几率上不相等。我们认为平均值相等的几率还是比较大的,说明差异是不显著的,从而认为两组数据之间平均值是相等的。如果它小于0.05 ,说明平均值在小于5%的几率上是相等的,而在大于95% 的几率上不相等。我们认为平均值相等的几率还是比较小的,说明差异是显著的,从而认为两组数据之间平均值是不相等的。总之,只需要注意sig 值就可以了。精选学习资料 - - - - - - - - - 名师归纳总结 - - - - - - -第 10 页,共 13 页精品资料欢迎下载T 值表示的是t 值检验sig 是检验值一般不用看T 值,只看sig 的值是否小于0.05. 如果是,说明通过检验了,说明两者在总体中存在相关关系。如果你是做论文用下这样的统计,只需了解这些就可以了。T 值是 t 检验得出来的检验结果,t 检验是一种差异性的检验,用于二组正态分布的数值形变量的检验,是一种差异性检验,检验二组是否存在差别。其值越大,差异越显著。SIG 是统计中用的P 值,是根据T 值的大小查表得出来的数值,他一般与0.05 进行比较,小于 0.05 认为二组的差别显著,大于0.05 则差别不显著。R 表示的是拟合优度,它是用来衡量估计的模型对观测值的拟合程度。它的值越接近1 说明模型越好。但是,你的R 值太小了。T 的数值 表示的是对回归参数的显著性检验值,它的绝对值大于等于ta/2(n-k) (这个值表示的是根据你的置信水平,自由度得出的数值)时,就拒绝原假设, 即认为在其他解释变量不变的情况下,解释变量X 对被解释变量Y 的影响是显著的。F 的值是回归方程的显著性检验, 表示的是模型中被解释变量与所有解释变量之间的线性关系在总体上是否显著做出推断。若FFa(k-1,n-k), 则拒绝原假设,即认为列入模型的各个解释变量联合起来对被解释变量有显著影响,反之,则无显著影响。单尾双尾检测通常假设检验的目的是两总体参数是否相等,以两样本均数比较为例,无效假设为两样本所代表的总体均数相等;备择假设为不相等(有可能甲大于乙,也有可能甲小于乙)既两种情况都有可能发生而研究者做这样的假设说明()他没有充分的理由判断甲所代表的总体均数会大于乙的或甲的会小于乙的;() 他只关心甲乙两个样本各自所代表的总体均数是否相等?至于哪个大不是他关心的问题这时研究者往往会采用双侧检验如果研究者从专业知识的角度判断甲所代表的总体均数不可能大于(或小于) 乙的, 这时一般就采用单侧检验例如:要比较经常参加体育锻炼的中学男生心率是否低于一般中学男生的心率,就属于单侧检验 因为根据医学知识知道经常锻炼的中学男生心率不会高于一般中学男生,因此在进行假设检验时应使用单侧检验单尾检验和双尾检验的区别在于他们拒绝H0 的标准。 单尾检验允许你在差异相对较小时拒绝 H0,这个差异被规定了方向。另一方面,双尾检验需要相对较大的差异,这个差异不依赖于方向。所有的研究者都同意单尾检验与双尾检验不同。一些研究者认为,双尾检验更为严格,比单尾检验更令人信服。因为双尾检验要求更多的证据来拒绝H0,因此提供了更强的证据说明处理存在效应。另一些研究者倾向于使用单尾检验,因为它更为敏感,即在单尾检验中相对较小的处理效应也可能是显著的,但是,它可能不能达到双尾检验的显著性要求。那么我们是应该使用单尾检验还是双尾检验?通常,双尾检验被用于没有强烈方向性期望的实验研究中,或是存在两个可竞争的预测时。例如,当一种理论预测分数增加,而另一种理论预测分数减少时,应当使用双尾检验。应当使用单尾检验的情况包括在进行实验前已经有方向性预测,或强烈需要做出方向性预测时。精选学习资料 - - - - - - - - - 名师归纳总结 - - - - - - -第 11 页,共 13 页精品资料欢迎下载Ho 假设检验 (Hypothesis Testing)假设检验 是用来判断 样本 与样本, 样本与 总体 的差异是由抽样误差 引起还是本质差别造成的统计推断 方法。其基本原理是先对总体的特征作出某种假设,然后通过抽样研究的统计推理,对此假设应该被拒绝还是接受作出推断。生物现象的 个体差异 是客观存在, 以致抽样误差不可避免,所以我们不能仅凭个别样本的值来下结论。当遇到两个或几个样本均数(或率)、样本均数(率)与已知总体均数(率)有大有小时,应当考虑到造成这种差别的原因有两种可能:一是这两个或几个样本均数(或率)来自同一总体,其差别仅仅由于抽样误差即偶然性所造成;二是这两个或几个样本均数(或率)来自不同的总体, 即其差别不仅由抽样误差造成,而主要是由实验因素不同所引起的。假设检验的目的就在于排除抽样误差的影响,区分差别在统计 上是否成立,并了解事件发生的概率。在质量管理 工作中经常遇到两者进行比较的情况,如采购 原材料 的验证, 我们抽样所得到的数据在目标值 两边波动,有时波动很大,这时你如何进行判定这些原料是否达到了我们规定的要求呢?再例如, 你先后做了两批实验,得到两组数据,你想知道在这两试实验中合格率有无显著变化,那怎么做呢?这时你可以使用假设检验这种统计方法 ,来比较你的数据,它可以告诉你两者是否相等,同时也可以告诉你,在你做出这样的结论时,你所承担的风险 。假设检验的思想是,先假设两者相等,即: 0 ,然后用统计的方法来计算验证你的假设是否正确。1.小概率原理如果对总体的某种假设是真实的,那么不利于或不能支持这一假设的事件A(小概率事件)在一次试验中几乎不可能发生的;要是在一次试验中A 竟然发生了,就有理由怀疑该假设的真实性,拒绝这一假设。2.假设的形式H0 原假设, H1 备择假设双尾检验: H0: = 0,单尾检验:,H1: 0假设检验就是根据样本观察结果对原假设(H0)进行检验,接受H0,就否定H1;拒绝 H0,就接受H1。检验过程是比较样本观察结果与总体假设的差异。差异显著,超过了临界点,拒绝H0 ;反之,差异不显著,接受H0 。精选学习资料 - - - - - - - - - 名师归纳总结 - - - - - - -第 12 页,共 13 页精品资料欢迎下载克朗巴哈系数( Cronbachs )是一个统计量,是指量表所有可能的项目划分方法的得到的折半信度系数的平均值,是最常用的信度 测量方法 。它最先被美国教育学家 Lee Cronbach 在 1951 年命名。计算公式:其中 K为样本数, 2X为总样本的方差, 2Yi 为目前观测样本的方差。通常 Cronbach系数的值在 0 和 1 之间。如果 X系数不超过 0.6 ,一般认为内部一致信度不足; 达到 0.7-0.8时表示量表具有相当的信度, 达 0.8-0.9时说明量表信度非常好。Cronbach系数的一个重要特性是它们值会随着量表项目的增加而增加,因此, Cronbach 系数可能由于量表中包含多余的测量项目而被人为地、不适当地提高。还有一种可以和Cronbach系数同时使用的系数。系数能够帮助评价,在计算Cronbach系数的过程中,平均数的计算是否掩盖了某些不相关的测量项目。 不同的研究者对信度系数的界限值有不同的看法,有学者认为,在基础研究中Cronbach系数至少应达到 0.8 才能接受,在探索研究中Cronbach 系数至少应达到 0.7 才能接受,而在实务研究中, Cronbach 系数只需达到 0.6 即可。Cronbach系数的实施技巧要做信度分析 需先检查每个问项是否都是同方向的(即都是正面问法, 也就是题间的相关系数都是正的) ,如有一题与其它题相关系数都是负的,应考虑将此题先“变号”或“删除”后再进行计算系数。如有受测者乱答,可将它的数据删除后再算 值。对问卷调查当有题目与其它题目是负相关时须注意是否反向问法。如是,则应先将得分反向,再计算 信度或是删除该题。若为测验,则不能做反向处理,只能做删除题目。标准化 Cronbach 系数的定义若一份量表有 n 题,题间的平均相关系数为r,则此量表的标准化 系数为=nr/(n-1)r+1精选学习资料 - - - - - - - - - 名师归纳总结 - - - - - - -第 13 页,共 13 页
收藏 下载该资源
网站客服QQ:2055934822
金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号