硕士毕业论文数据不理想怎么办
2025/4/10 17:00:49 阅读:41 发布者:
可以从以下几个方面进行查看数据。
如果存在多重共线性问题可以通过
处理多重共线性经验式做法:
(1)删除不重要的共线性变量
但是删除变量后可能会导致模型和原本分析的模型不一样,可能会出现决策错误等现象。
(2)增加样本容量
多重共线性有可能与样本量过少有关,所以如果存在也可以加大样本量。但是加大样本量具有局限性比如实验已经结束或者其它原因。
(3)变量转换
构造一个新的变量,这一新变量是多重共线性变量的函数,然后用这个新的变量代替多重共线性的变量,但是要注意组合后的数据需要有实际意义否则模型不好解释。
其它处理方法:
1、岭回归 岭回归分析是一种修正的最小二乘估计法,当自变量系统中存在多重共线性时,它可以提供一个有偏估计量,这个估计量虽有微小偏差,但它的精度却能大大高于无偏估计。如果使用SPSSAU进行分析岭回归一般有两个步骤:岭回归通过引入k个单位阵,使得回归系数可估计;单位阵引入会导致信息丢失,但同时可换来回归模型的合理估计。针对岭回归:其研究步骤共为2步,分别是结合岭迹图寻找最佳K值;输入K值进行回归建模。
2、逐步回归 逐步回归分析方法视自变量对因变量的影响显著性大小从大到小逐个引入回归方程,从处理角度来看逐步回归比岭回归和主成分回归要好一些。逐步回归面临着检验的显著性水平的选择困难它通常得不到最优变量子集,可以利用SPSSAU进阶方法中逐步回归进行分析。
分析过程请参考:
3.主成分回归 主成分回归根据主成分分析的思想提出的。主成分估计和岭回归类似都是一种有偏估计。主成分分析利用降维的思想对数据信息进行浓缩,将多个分析项浓缩成几个关键概括性指标;剔除对系统影响微弱的部分。通过对各个主成分的重点分析,来达到对原始变量进行分析的目的。主成分回归就是用对原变量进行主成分分析后得到的新的指标来代替原变量,再使用最小二乘法进行回归分析。由于对原变量的综合,就可以起到克服多重共线性所造成的信息重叠的作用,从而消除多重共线性对回归建模的影响。
4.偏最小二乘法
偏最小二乘法不仅可以用单变量回归分析方法,也可以用于多变量回归分析方法,一般情况下处理样本量相对较小,自变量多的数据。
如果数据中存在极端异常值,有时会导致模型构建与真实情况产生区别,使得原本应该显著的自变量不显著。
解决方法:
查看数据中是否有异常值,可通过比如描述分析、箱线图、散点图等查看,找出异常值,并且处理掉异常值(SPSSAU用户可使用“异常值”功能)。
也或者使用稳健回归(Robust回归进行分析,Robust回归是专门处理异常值情况下的回归模型)。
处理异方差问题有三种办法,分别是数据处理、稳健标准误回归、FGLS回归(可行广义最小二乘法回归)。分别如下:
针对连续且大于0的原始自变量X和因变量Y,进行取自然对数(或10为底对数)操作,如果是定类数据则不处理。取对数可以将原始数据的大小进行‘压缩’,这样会减少异方差问题。事实上多数研究时默认就进行此步骤处理,而不需要先异方差检验发现有异方差再进行处理。负数不能直接取对数,如果数据中有负数,研究人员可考虑先对小于0的负数,先取其绝对值再求对数,然后加上负数符号。操作路径:SPSSAU【数据处理】→【生成变量】;
如果检验显示有异方差问题,可使用Robust稳健标准误回归法进行研究。此种研究方法是当前最为流行也最为有效的处理办法。操作路径:SPSSAU【计量经济学研究】→【OLS回归】;
如果发现有异方差问题,还可使用FGLS法进行分析,以处理异方差问题。FGLS是这样的一类思路,即对于残差值越大的点,给予越小的权重,从而解决异方差问题,FGLS回归事实上一系列数据处理的过程,并且它是一种思路。
转自本硕毕业论文通关指导微信公众号,仅作学习交流,如有侵权,请联系本站删除!