求分析STATA回归分析的结果

2024-05-10 23:21

1. 求分析STATA回归分析的结果

1.写出拟合方程  Y=0.0439636-0.1104272ret+0.3015505drret+0.0003205vr+0.0130717drvr+0.0061625retvr+0.0501226drretvr
2. 检查参数的符号(正号/负号)是否符合你要建立模型的基本理论
3. 表1   第一列,ss 从上到下分别代表 回归平方和(ESS)、残差平方和(RSS)、总离差平方和(TSS)       第二列为自由度  第三列不记得了
4. 表2  分别为 观测值、F值、P{P>F}值、R^2、调整后的R^2 、残差标准差hatδ,我觉得可以看调整后的R^2,但影响不大。  你的P值=0,说明不是联合显著
5. 表3  第一列为参数值,我已经给你写出。 第二列为标准误,一般在输出结果时要在参数下用括号写出标准误。第三列为t值,第四列为P值,看它是否显著应先看t在临界值之内还是之外、再看P值吧。你的t值全都小于1.96,好像是在95%的显著水平上不显著的吧。你查查表。 最后两列表示95%的置信区间哦。
6. 你可以截屏放在word里,我一直是这样做的
7. 你的估计参数是不是有点多了呢,我觉得需要改进下,提高显著性

求分析STATA回归分析的结果

2. STATA线性回归分析

总体平方和:在你整个回归结果的左上角部分,SS和total所确定的数值就是,也就是9.00072(没写全,后面部分我没抄,你如果需要更高精度回上表看……)
残差平方和:在你整个回归结果的左上角部分,SS和residual所确定的数值就是,也就是0.1374
解释平方和:在你整个回归结果的左上角部分,SS和model所确定的数值就是,也就是8.8698
F检验值:在你整个回归结果的右上角部分,F(2,7)对应的值225.94——这个值越大越好,回归总体越显著
F检验P值:在你整个回归结果的右上角部分,P>F对应的值0——这个值越小越好,0说明回归总体而言非常显著
判定系数:应该就是R方吧,右上角那个R-squared 0.9847——这个值是解释平方和除以总体平方和得出的,越大则回归的拟合度越高
调整的判定系数:右上角那个adj-R-squared 0.9804——这个值是将变量数目考虑后略加变动所计算出的R方(需要这个是因为当解释变量很多时,即使拟合度没有区别,R方也会很高),同样是越大回归的拟合度越高
均方根误差:右上角那个root-MSE0.1401,它是左上角Residual-MS的开方
 
变量系数:下面方框里coef所对应的项——越大则“实际显著性”越高(就是说影响在绝对值上越大)
标准误差:下面方框里std.err所对应的项——比较小更好,因为说明估计值越集中
 t检验值:下面方框t对应的项,这项是coef/std.err得出——绝对值越大越好,因为越大,取到这个t值就更不可能,从而原假设(系数=0)被否定,则这个变量在回归中越显著,越应该留在回归里
 t检验P值:下面方框里p》t那个对应的——越小越好,是做双边检验,P小说明了t大,0是最好的
置信区间:下面方框里那个95%conf interval,两个值是coef加减std.err*97.5%t分布所对应的值,代表“真实的系数”有95%可能落在这个区间里(因为我们OLS假设这是一个抽样,是一个样本的估计值的系数,而还有一个真实规律所对应的系数)。

3. 跪求STATA回归分析数据分析!

1. 一般回归方程就是把显著的自变量的非标准化beta系数作为自变量的系数,加常数,加未能预测的随机变量(那个希腊字母打不来,伊普斯隆差不多是这么念的,你应该知道的)

2.标准化的回归方程就是用标准化的beta系数做系数,其它不变

3.
adj R²就是调整R²,就是你的模型拟合度,由于R²在小样本中会引起拟合度的高估,所以大家一般都用adj R²说明问题
coef.就是coefficient,系数的意思,全称就是beta coefficient(你这个地方可能是unstanderised),beta系数,就是1.和2.里面我说的那个东西
P>|t|就是t值显著性,是一个概率,表示自变量是否的确在影响因变量的一个值,社会学中通常认为P>.05是比较显著,大于.01是一般显著,>.001是非常显著
beta前面那个符号看不清楚,不知道是不是sd,估计就是标准化之后的回归系数
std. error就是标准误,这个自己百度百科讲得比我清楚多了!

跪求STATA回归分析数据分析!

4. 如何用stata做稳健回归

如何用stata做稳健回归
大量的线性回归模型是基于最小二乘法实现的,但其仍存在一些局限性。比如说,样本点出现许多异常点时,传统的最小二乘法将不再适用,此时则可以使用稳健回归(robust regression)代替最小二乘法。
操作
下面的稳健回归使用的是犯罪数据,该数据来自Alan Agresti和Barbara Finlay的《社会科学统计方法》。变量包括美国各州编号(sid)、州名(state)、每10万人犯罪案件数量(crime)、生活在贫困线以下人口的百分比(poverty)和单亲人口百分比(single)等。我们选择使用贫穷率和单状况来预测犯罪率。
获取数据
use https://stats.idre.ucla.edu/stat/stata/dae/crime, clear
summarize crime poverty single

导入数据,并描述各个变量的统计结果,输出表格中包含样本容量、平均数、标准差、最小值和最大值。
 
OLS回归
在稳健回归之前,我们先进行OLS回归,输出结果如下。
regress crime poverty single
 
样本点分析
首先我们通过“lvr2plot”绘制残差杠杆图,通过识别离群点和高杠杆值点(杠杆点)进而识别强影响点。假如存在杠杆点的话,要确定哪些是bad leverage point,对于这些离群点我们要评估它对拟合模型的影响。
lvr2plot, mlabel(state)

由图中我们可以看出,dc、ms、fl三个点残差较大或者杠杆值比较高。库克距离是杠杆值与残差大小的综合效应,一般而言,库克距离大于1,则可认为该样本点为强影响点。接下来我们计算各点的库克距离(Cook’s Distance),并输出结果。
predict d1, cooksdclist state crime poverty single d1ifd1>4/51, noobs

由结果可以看出,dc点库克距离大于1,表明dc这一样本点对于回归结果会产生较强的影响,在之后的稳健回归中我们会对dc点进行特殊处理。
接下来我们分析数据的残差。使用rstandard这一命令,它表示标准化残差的绝对值。
predict r1, rstandardgen absr1 = abs(r1)gsort -absr1clist state absr1in1/10, noobs
 
稳健回归
我们使用“rreg”命令进行稳健回归,并输出结果如下。
rreg crime poverty single, gen(weight)

对比最开始的OLS回归,我们发现两者差异较大。并且稳健回归中的样本点数量是50,OLS回归中为51,这是因为经过前面的分析,由于dc这一异常值点对回归结果影响较强,因此在稳健回归中我们将其舍去。下面的操作表明在稳健回归中,dc样本点所占权重为零。
clist state weightifstate =="dc", noobs

下面的命令展示了其他权重较小的观察值,一般而言,残差较大的观察值权重较小,例如我们之前提到的ms点。在OLS回归中,所有样本点的权重都是1,因此稳健回归中越多的样本点权重是1,其回归结果与OLS结果越相近。
sort weightclist sid state weight absr1 d1in1/10, noobs

我们还可以通过绘制圆圈的方式形象地展现这一关系。下图中横坐标表示单亲率,纵坐标表示犯罪率,每一个圆圈表示一个样本点,圆心为该样本点在坐标中的位置,圆圈直径越大,表示该样本点权重越大。
twoway  (scatter crime single [weight=weight], msymbol(oh))ifstate !="dc"
 
拓展
我们在稳健回归分析之后,可以使用许多后续估计命令,比如test、margin等。下面的操作是我们控制贫困率之后,在不同的单亲率下预测犯罪率。我们发现,随着单亲率的提高,犯罪率也相应地上升。
margins, at(single=(8(2)22)) vsquish

5. stata怎么做回归分析?

用reg命令就可以了,例:reg X Y Z J U
回车就可得到结果。其中x是因变量,自变量列于因变量后面,可以进行各种检验。
如果在回归分析中,只包括一个自变量和一个因变量,且二者的关系可用一条直线近似表示,这种回归分析称为一元线性回归分析。如果回归分析中包括两个或两个以上的自变量,且自变量之间存在线性相关,则称为多重线性回归分析。

统计功能
Stata的统计功能很强,除了传统的统计分析方法外,还收集了近20年发展起来的新方法,如Cox比例风险回归,指数与Weibull回归,多类结果与有序结果的logistic回归,Poisson回归,负二项回归及广义负二项回归,随机效应模型等。具体说, Stata具有如下统计分析能力:
数值变量资料的一般分析:参数估计,t检验,单因素和多因素的方差分析,协方差分析,交互效应模型,平衡和非平衡设计,嵌套设计,随机效应,多个均数的两两比较,缺项数据的处理,方差齐性检验,正态性检验,变量变换等。
以上内容参考:百度百科-stata

stata怎么做回归分析?

6. 求高手分析stata回归分析结果

上面左侧的表是用来计算下面数据的,分析过程中基本不用提到
右侧从上往下
1.Number of obs 是样本容量
2.F是模型的F检验值,用来计算下面的P>F
3.P>F是模型F检验落在小概率事件区间的概率,你的模型置信水平是0.05,也就是说P>F值如果大于0.05,那么模型就有足够高的概率落在F函数的小概率区间,简单的说,如果这个值大于0.05你这个模型设定有就问题,要重新设定模型
4.R-squard也就是模型的R²值,拟合优度,这个数越大你的模型和实际值的拟合度就越高,模型越好
5.Adj .R-squard 这个是调整过的R²,跟上面R²差不多,关注一个就行了
6.Root mse 是残差标准差,值越大残差波动越大,模型越不稳定(这个值我分析的时候一般不太关注)
下侧表格
coef.是估计得到的系数值
std.err是标准差,这个数有重要意义,一般论文里都要求把标准差表示出来,这个数越大模型越不精确,越小越好
t是t检验值,t检验是用来检验某个系数是否显著区别于0的,在分析中这个值一般没什么意义,主要用来计算P>t
P>t,这个值是观察某个解释变量是否有效的主要参数,还是对于你设置的0.05的置信水平,如果这个值大于0.05说明对应的解释变量不能通过t检验,在模型中是不合格的,就需要作调整
后面两个就是置信区间了,95%的置信区间,一般在论文中意义也不大
然后分析就选取你有用的参数做了,我学经济的,一般最有用的参数就是P>F,coef,P>t,se等等,还有BIC,VIF这些,在简单回归里这些是不会计算的,需要其他命令

7. stata如何回归

1、生成一个自变量和一个因变量。

2、点击Statistics|linear model and related|linear regression菜单。

3、在弹出的regress中设置相关变量,然后再点确定。

4、在结果界面中,_cons为.5205279表示回归截距,说明回归方程具有统计学意义。R-squared和Adj R-squared分别为0.9905和0.9893,说明回归方程拟合效果很好。

5、回归拟合图。点击Statistics|linear model and related|Regression diagnostics|Added-variable plot。

6、在弹出的avplot/avplots中,选择“all variables”,点确定。

7、结果如下图。

stata如何回归

8. stata回归分析结果怎么看?

stata回归分析结果可以这样看:
1、看到Sig.P数值,如果数值小于0.05则说明有显著影响。
2、找到R Square数值,该自变量能够解释异变数的变异值,如显示0.763则表示两者76.3%的概率相关联。
3、找到线性值DW,查DW分布表,找到DW属于1.240~1.556之间。例如DW=1.589大于1.556,则说明不存在相关性。

回归分析使用条件:
1、线性趋势:因变量与自变量存在线性关系,一般通过散点图卡宴看出呈现一条直线。
2、满足独立性条件:因变量和因变量之间需要相互独立。
3、满足正态性:对自变量的任一个线性组合,因变量均服从正态分布。
4、满足方差齐性:方差不齐可进行加权的最小二乘法。
最新文章
热门文章
推荐阅读