最小二乘法( 二 )


最小二乘法

文章插图
(式1-1)其中:a0、a1 是任意实数为建立这直线方程就要确定a0和a1,套用《最小二乘法原理》,将实测值Yi与利用计算值Yj(Yj=a0+a1Xi)(式1-1)的离差(Yi-Yj)的平方和
最小二乘法

文章插图
最小为“最佳化判据” 。令:φ =
最小二乘法

文章插图
(式1-2)把(式1-1)代入(式1-2)中得:φ =
最小二乘法

文章插图
(式1-3)当
最小二乘法

文章插图
最小时,可用函式 φ 对a0、a1求偏导数,令这两个偏导数等于零 。∑2(a0 + a1*Xi - Yi)=0(式1-4)∑2Xi(a0 +a1*Xi - Yi)=0(式1-5)亦即:na0 + (∑Xi ) a1 = ∑Yi (式1-6)(∑Xi ) a0 + (∑Xi^2 ) a1 = ∑(Xi*Yi) (式1-7)得到的两个关于a0、 a1为未知数的两个方程组,解这两个方程组得出:a0 = (∑Yi) / n - a1(∑Xi) / n (式1-8)a1 = [n∑(Xi Yi) - (∑Xi ∑Yi)] / (n∑Xi^2 -∑Xi∑Xi)(式1-9)这时把a0、a1代入(式1-1)中, 此时的(式1-1)就是我们回归的一元线性方程即:数学模型 。在回归过程中,回归的关联式不可能全部通过每个回归数据点(x1,y1. x2,y2...xm,ym),为了判断关联式的好坏,可藉助相关係数“R”,统计量“F”,剩余标準偏差“S”进行判断;“R”越趋近于 1 越好;“F”的绝对值越大越好;“S”越趋近于 0 越好 。R = [∑XiYi - m (∑Xi / m)(∑Yi / m)]/ SQR{[∑Xi2 - m (∑Xi / m)2][∑Yi2 - m (∑Yi / m)2]} (式1-10) *在(式1-10)中,m为样本容量,即实验次数;Xi、Yi分别为任意一组实验数据X、Y的数值 。方法以最简单的一元线性模型来解释最小二乘法 。什幺是一元线性模型呢?监督学习中,如果预测的变数是离散的,我们称其为分类(如决策树,支持向量机等),如果预测的变数是连续的,我们称其为回归 。回归分析中,如果只包括一个自变数和一个因变数,且二者的关係可用一条直线近似表示,这种回归分析称为一元线性回归分析 。如果回归分析中包括两个或两个以上的自变数,且因变数和自变数之间是线性关係,则称为多元线性回归分析 。对于二维空间线性是一条直线;对于三维空间线性是一个平面,对于多维空间线性是一个超平面 。对于一元线性回归模型, 假设从总体中获取了n组观察值(X1,Y1),(X2,Y2), …,(Xn,Yn) 。对于平面中的这n个点,可以使用无数条曲线来拟合 。要求样本回归函式儘可能好地拟合这组值 。综合起来看,这条直线处于样本数据的中心位置最合理 。选择最佳拟合曲线的标準可以确定为:使总的拟合误差(即总残差)达到最小 。有以下三个标準可以选择:(1)用“残差和最小”确定直线位置是一个途径 。但很快发现计算“残差和”存在相互抵消的问题 。(2)用“残差绝对值和最小”确定直线位置也是一个途径 。但绝对值的计算比较麻烦 。(3)最小二乘法的原则是以“残差平方和最小”确定直线位置 。用最小二乘法除了计算比较方便外,得到的估计量还具有优良特性 。这种方法对异常值非常敏感 。最常用的是普通最小二乘法( Ordinary Least Square,OLS):所选择的回归模型应该使所有观察值的残差平方和达到最小 。(Q为残差平方和)- 即採用平方损失函式 。样本回归模型:
最小二乘法

文章插图
其中ei为样本(Xi,Yi)的误差 。平方损失函式: