[W2]多参数线性回归相关问题

多参数线性回归

通过第一周的学习,我们知道了什么是单参数线性回归,那么多参数线性回归也就不难理解了,就是一个含多个参数的一阶函数,定义公式如下图

qq%e6%88%aa%e5%9b%be20161116173954
这个公式又可以表示为两个矩阵的乘积,如下图
qq%e6%88%aa%e5%9b%be20161116174219

代价函数

类似单变量的代价函数,同样是测量值与实际值之差的平方和的平均值

qq%e6%88%aa%e5%9b%be20161116174829

特征值的规范化

在课程原话中关于特征值的规范化是这样说的

We can speed up gradient descent by having each of our input values in roughly the same range. This is because θ will descend quickly on small ranges and slowly on large ranges, and so will oscillate inefficiently down to the optimum when the variables are very uneven.
大意就是,规范化特征值的范围可以加速我们使用梯度下降法寻找代价函数的最小点从而获得理想的参数序列。
具体的方法主要有两种,特征缩放和均值化

特征缩放

把每个特征值都除以其最大值减去最小值的差

均值化

均值化具体描述如下

qq%e6%88%aa%e5%9b%be20161117093440
先让特征值减去平均值,再除以特征值的最大值与最小值之差
下面是一个例子
qq%e6%88%aa%e5%9b%be20161117094039

u3coding

A software developer

Leave a Comment

Your email address will not be published. Required fields are marked *

*