[W5]神经网络的学习

代价函数 首先需要定义几个变量 L = 这个神经网络的总层数 sl= 第L层的单元数量 K = 输出层的单元数量 在神经网络中,我们的输出节点不止一个,我们用hΘ(x)k 来表示第k个输出 还记得逻辑回归的代价函数吗? 对于神经网络来说,代价函数更加复杂一些 反向传播算法[......]Rea...

[W4]神经网络的表示

非线性假设 前面我们提到过线性假设,我们可以理解为在这种情况下,我们的函数在平面上的图形是一条直线 而非线性假设的函数表达,并非直线,其中一个例子如下 我们大脑中的神经元 在我们大脑中,有许多叫做神经元的神奇的小东西,它有多个输入,多个输出,一个个的联结起来,构成了我们的神经系统。[......]Re...

[W3]逻辑回归以及正则化

布尔分类 在这样的分类种,只有两种情况,0或者1,类似于计算机中常用的布尔变量 逻辑回归 前面已经提到过线性回归,那么什么是逻辑回归呢,其实是一个关于自然底数e的函数,其定义和图像如下图 决策边界 有了上面两个部分的介绍,我们可以引出一个新的概念——决策边界 当一个数大于我们的[......]Re...

[W2]多参数线性回归相关问题

多参数线性回归 通过第一周的学习,我们知道了什么是单参数线性回归,那么多参数线性回归也就不难理解了,就是一个含多个参数的一阶函数,定义公式如下图 这个公式又可以表示为两个矩阵的乘积,如下图 代价函数 类似单变量的代价函数,同样是测量值与实际值之差的平方和的平均值 [......]Read ...