机器学习实战教程(十一):线性回归基础篇之预测鲍鱼年龄

  • A+
所属分类:机器学习
摘要

前面的文章介绍了很多分类算法,分类的目标变量是标称型数据,而本文将会对连续型的数据做出预测。主要讲解简单的线性回归和局部加权线性回归,并通过预测鲍鱼年龄的实例进行实战演练。

机器学习实战教程(十一):线性回归基础篇之预测鲍鱼年龄

一、前言

好久没有更新了,最近中耳炎,晚上耳鸣,一度影响正常工作,慢慢吃药调理中。在学习之余,记得加强体育锻炼!

前面的文章介绍了很多分类算法,分类的目标变量是标称型数据,而本文将会对连续型的数据做出预测。主要讲解简单的线性回归和局部加权线性回归,并通过预测鲍鱼年龄的实例进行实战演练。

二、什么是回归?

回归的目的是预测数值型的目标值。最直接的办法是依据输入写出一个目标值的计算公式。假如你想预测小姐姐男友汽车的功率,可能会这么计算:

HorsePower = 0.0015 * annualSalary - 0.99 * hoursListeningToPublicRadio

写成中文就是:

小姐姐男友汽车的功率 = 0.0015 * 小姐姐男友年薪 - 0.99 * 收听公共广播的时间

这就是所谓的回归方程(regression equation),其中的0.0015和-0.99称为回归系数(regression weights),求这些回归系数的过程就是回归。一旦有了这些回归系数,再给定输入,做预测就非常容易了。具体的做法是用回归系数乘以输入值,再将结果全部加在一起,就得到了预测值。

说到回归,一般都是指线性回归(linear regression),所以本文里的回归和线性回归代表同一个意思。线性回归意味着可以将输入项分别乘以一些常量,再将结果加起来得到输出。需要说明的是,存在另一种成为非线性回归的回归模型,该模型不认同上面的做法,比如认为输出可能是输入的乘积。这样,上面的功率计算公式也可以写做:

HorsePower = 0.0015 * annualSalary / hoursListeningToPublicRadio

这就是一个非线性回归的例子,本文对此不做深入讨论。

三、揭开回归的神秘面纱

1、用线性回归找到最佳拟合直线

应该怎么从一大堆数据里求出回归方程呢?假定输入数据存放在矩阵X中,结果存放在向量y中: 机器学习实战教程(十一):线性回归基础篇之预测鲍鱼年龄

而回归系数存放在向量w中:

机器学习实战教程(十一):线性回归基础篇之预测鲍鱼年龄

那么对于给定的数据x1,即矩阵X的第一列数据,预测结果u1将会通过如下公式给出:

机器学习实战教程(十一):线性回归基础篇之预测鲍鱼年龄

现在的问题是,手里有数据矩阵X和对应的标签向量y,怎么才能找到w呢?一个常用的方法就是找出使误差最小的w。这里的误差是指预测u值和真实y值之间的差值,使用该误差的简单累加将使得正差值和负差值相互抵消,所以我们采用平方误差。

平方误差和可以写做:

机器学习实战教程(十一):线性回归基础篇之预测鲍鱼年龄

用矩阵表示还可以写做:

机器学习实战教程(十一):线性回归基础篇之预测鲍鱼年龄

为啥能这么变化,记住一个前提:若x为向量,则默认x为列向量,x^T为行向量。将上述提到的数据矩阵X和标签向量y带进去,就知道为何这么变化了。

在继续推导之前,我们要先明确一个目的:找到w,使平方误差和最小。因为我们认为平方误差和越小,说明线性回归拟合效果越好。

现在,我们用矩阵表示的平方误差和对w进行求导:

机器学习实战教程(十一):线性回归基础篇之预测鲍鱼年龄

如果对于矩阵求不熟悉的,可以移步这里:点击查看

令上述公式等于0,得到:

机器学习实战教程(十一):线性回归基础篇之预测鲍鱼年龄

w上方的小标记表示,这是当前可以估计出的w的最优解。从现有数据上估计出的w可能并不是数据中的真实w值,所以这里使用了一个"帽"符号来表示它仅是w的一个最佳估计。

值得注意的是,上述公式中包含逆矩阵,也就是说,这个方程只在逆矩阵存在的时候使用,也即是这个矩阵是一个方阵,并且其行列式不为0。

述的最佳w求解是统计学中的常见问题,除了矩阵方法外还有很多其他方法可以解决。通过调用NumPy库里的矩阵方法,我们可以仅使用几行代码就完成所需功能。该方法也称作OLS, 意思是“普通小二乘法”(ordinary least squares)。

我们先看下数据集,数据下载地址:数据集下载

机器学习实战教程(十一):线性回归基础篇之预测鲍鱼年龄

第一列都为1.0,即x0。第二列为x1,即x轴数据。第三列为x2,即y轴数据。首先绘制下数据,看下数据分布。编写代码如下:

运行代码如下:

机器学习实战教程(十一):线性回归基础篇之预测鲍鱼年龄

通过可视化数据,我们可以看到数据的分布情况。接下来,让我们根据上文中推导的回归系数计算方法,求出回归系数向量,并根据回归系数向量绘制回归曲线,编写代码如下:

运行代码如下:

机器学习实战教程(十一):线性回归基础篇之预测鲍鱼年龄

如何判断拟合曲线的拟合效果的如何呢?当然,我们可以根据自己的经验进行观察,除此之外,我们还可以使用corrcoef方法,来比较预测值和真实值的相关性。编写代码如下:

运行结果如下:

机器学习实战教程(十一):线性回归基础篇之预测鲍鱼年龄

可以看到,对角线上的数据是1.0,因为yMat和自己的匹配是完美的,而YHat和yMat的相关系数为0.98。

最佳拟合直线方法将数据视为直线进行建模,具有十分不错的表现。数据当中似乎还存在其他的潜在模式。那么如何才能利用这些模式呢?我们可以根据数据来局部调整预测,下面就会介绍这种方法。

2、局部加权线性回归

线性回归的一个问题是有可能出现欠拟合现象,因为它求的是具有小均方误差的无偏估 计。显而易见,如果模型欠拟合将不能取得好的预测效果。所以有些方法允许在估计中引入一 些偏差,从而降低预测的均方误差。

其中的一个方法是局部加权线性回归(Locally Weighted Linear Regression,LWLR)。在该方法中,我们给待预测点附近的每个点赋予一定的权重。与kNN一样,这种算法每次预测均需要事先选取出对应的数据子集。该算法解除回归系数W的形式如下:

机器学习实战教程(十一):线性回归基础篇之预测鲍鱼年龄

其中W是一个矩阵,这个公式跟我们上面推导的公式的区别就在于W,它用来给每个店赋予权重。

LWLR使用"核"(与支持向量机中的核类似)来对附近的点赋予更高的权重。核的类型可以自由选择,最常用的核就是高斯核,高斯核对应的权重如下:

机器学习实战教程(十一):线性回归基础篇之预测鲍鱼年龄

这样我们就可以根据上述公式,编写局部加权线性回归,我们通过改变k的值,可以调节回归效果,编写代码如下:

运行结果如下:

机器学习实战教程(十一):线性回归基础篇之预测鲍鱼年龄

可以看到,当k越小,拟合效果越好。但是当k过小,会出现过拟合的情况,例如k等于0.003的时候。

四、预测鲍鱼的年龄

接下来,我们将回归用于真是数据。在abalone.txt文件中记录了鲍鱼(一种水生物→__→)的年龄,这个数据来自UCI数据集合的数据。鲍鱼年龄可以从鲍鱼壳的层数推算得到。

数据集下载地址:数据集下载

数据集的数据如下:

机器学习实战教程(十一):线性回归基础篇之预测鲍鱼年龄

可以看到,数据集是多维的,所以我们很难画出它的分布情况。每个维度数据的代表的含义没有给出,不过没有关系,我们只要知道最后一列的数据是y值就可以了,最后一列代表的是鲍鱼的真实年龄,前面几列的数据是一些鲍鱼的特征,例如鲍鱼壳的层数等。我们不做数据清理,直接用上所有特征,测试下我们的局部加权回归。

新建abalone.py文件,添加rssError函数,用于评价最后回归结果。编写代码如下:

运行结果如下:

机器学习实战教程(十一):线性回归基础篇之预测鲍鱼年龄

可以看到,当k=0.1时,训练集误差小,但是应用于新的数据集之后,误差反而变大了。这就是经常说道的过拟合现象。我们训练的模型,我们要保证测试集准确率高,这样训练出的模型才可以应用于新的数据,也就是要加强模型的普适性。可以看到,当k=1时,局部加权线性回归和简单的线性回归得到的效果差不多。这也表明一点,必须在未知数据上比较效果才能选取到最佳模型。那么最佳的核大小是10吗?或许是,但如果想得到更好的效果,应该用10个不同的样本集做10次测试来比较结果。

本示例展示了如何使用局部加权线性回归来构建模型,可以得到比普通线性回归更好的效果。局部加权线性回归的问题在于,每次必须在整个数据集上运行。也就是说为了做出预测,必须保存所有的训练数据。

五、总结

  • 本文主要介绍了简单的线性回归和局部加权线性回归。
  • 训练的模型要在测试集比较它们的效果,而不是在训练集上。
  • 在局部加权线性回归中,过小的核可能导致过拟合现象,即训练集表现良好,测试集表现就渣渣了。
  • 下篇文章将继续讲解回归,会介绍另一种提高预测精度的方法。
  • 如有问题,请留言。如有错误,还望指正,谢谢!

 

PS: 如果觉得本篇本章对您有所帮助,欢迎关注、评论、赞!

本文出现的所有代码和数据集,均可在我的github上下载,欢迎Follow、Star:点击查看

参考资料:

 

 

Jack Cui

发表评论

:?: :razz: :sad: :evil: :!: :smile: :oops: :grin: :eek: :shock: :???: :cool: :lol: :mad: :twisted: :roll: :wink: :idea: :arrow: :neutral: :cry: :mrgreen:

目前评论:23   其中:访客  13   博主  10

    • avatar skldecsdn 来自天朝的朋友 谷歌浏览器 Windows 7 湖北省武汉市 电信 4

      博主,一直看你的博客,此处有点疑问:那么对于给定的数据x1,即矩阵X的第一列数据,预测结果u1将会通过如下公式给出:(文章提到的)。我觉得是不是应该是这样的呢:那么对于给定的数据x1,即矩阵X的第一行数据,预测结果u1将会通过如下公式给出:(x11,x12,x13)1*3的矩阵乘以(w1,w2,w3)3*1的矩阵得到预测结果:u1。有点迷糊了,是不是我搞错了呢?

        • avatar Jack Cui Admin 来自天朝的朋友 谷歌浏览器 Windows 10 辽宁省沈阳市 联通

          @skldecsdn 就是矩阵X乘w的第一个结果。就是X矩阵的第一行数据,乘以w系数。

            • avatar skldecsdn 来自天朝的朋友 谷歌浏览器 Windows 7 湖北省武汉市 电信 4

              @Jack Cui 恩恩,好的,明白啦 :wink:

          • avatar 小张 来自天朝的朋友 谷歌浏览器 Windows 7 上海市 鹏博士长城宽带 2

            请问在实际项目中一堆数据需要做 回归,事先怎么知道选择用哪个 回归模型呢?还是都试一遍……

              • avatar Jack Cui Admin 来自天朝的朋友 谷歌浏览器 Windows 10 北京市 百度网讯科技联通节点

                @小张 这个就是经验问题了,用一些现成的成熟模型测试即可。