回归直线


回归直线

文章插图
回归直线提到回归直线,首先要知道变数的相关性 。变数与变数之间的关係常见的有两类:一类是确定性的函式关係,像正方形的边长a和面积S的关係;另一类是变数间确实存在关係,但又不具备函式关係所要求的确定性,它们的关係是随机性的 。当两个相互关係的量具有这两种变数关係的时候,就称两个变数具有相关关係 。
【回归直线】在此基础上,可以画出y随x变化的图形,将已知的数据在所作的直角坐标系中进行描点 。这样的图形叫做散点图 。
在回归分析中,用来描述具有线性关係的因变数y与自变数xi的关係曲线,其一般表达式是y=a+∑bixi,i=1,2,…,n 。
基本介绍中文名:回归直线
外文名:straight line of regression
一类:确定性的函式关係
另一类:变数间确实存在关係
定义回归直线方程是根据样本资料通过回归分析所得到的反映一个变数(因变数)对另一个或一组变数(自变数)的回归关係的数学表达式 。指在一组具有相关关係的变数的数据(x与Y)间,一条最好地反映x与Y之间的关係直线 。离差作为表示xi对应的回归直线纵坐标y与观察值yi的差,其几何意义可用点与其在回归直线竖直方向上的投影间的距离来描述 。数学表达:yi-y^=yi-a-bxi.总离差不能用n个离差之和来表示,通常是用离差的平方和即(yi-a-bxi)^2计算 。原理如果散点图中点的分布从整体看大致在一条直线附近,我们就称这两个变数之间具有线性相关关係,这条直线叫做回归直线 。根据不同的标準,可以画出不同的直线来近似表示这种线性相关关係 。比如可以连线最左侧点和最右侧点得到一条直线,或者让画出的直线上方的点和下方的点数目相等 。当所有数据点都分布在一条直线附近,显然这样的直线还可以画出许多条,而我们希望找出其中的一条,它能最好地反映x与Y的关係,换言之,我们要找出一条直线,使这条直线“最贴近”已知的数据点 。记此直线方程为y^=a+bx 。这里在y的上方加记号“^”是为了区分Y的实际值y,表示x取值xi(i=1,2,3……,n)时,Y相应的观察值为yi,而直线上对应于xi的纵坐标是yi^=a+bxi(i为x右下角的数值) 。y^=a+bx式叫做Y对x的回归直线方程,b叫回归係数 。要确定回归直线方程,只要确定a与回归係数b 。
回归直线

文章插图
回归直线用例在回归分析中,用来描述具有线性关係的因变数y与自变数xi的关係曲线,其一般表达式是y=a+∑bixi,i=1,2,…,n 。
回归直线

文章插图
回归直线起源“回归”这个词是由英国着名的统计学家 Francils Galton 提出来的 。1889年,他在研究祖先与后代身高之间的关係时发现,身材较高的父母,他们的孩子也较高,但这些孩子的平均身高并没有他们父母的平均身高高;身材较矮的父母,他们的孩子也较矮,但这些孩子的平均身高却比他们父母平均身高高 。Galton 把这种后代的身高向中间值靠近的趋势称为“回归现象” 。后来,人们把由一个变数的变化去推测另一个变数的变化的方法叫做回归方法 。