抱歉,您的浏览器无法访问本站

本页面需要浏览器支持(启用)JavaScript


了解详情 >

blaire

👩🏻‍💻ブレア🥣

这次我们要学习专项课程中第二门课 Improving Deep Neural Networks

学完这门课之后,你将会:

  • 能够高效地使用神经网络通用的技巧,包括 初始化、L2和dropout正则化、Batch归一化、梯度检验
  • 能够实现并应用各种优化算法,例如 Mini-batch、Momentum、RMSprop、Adam,并检查它们的收敛程度
  • 理解深度学习时代关于如何 构建训练/开发/测试集 以及 偏差/方差分析 最新最有效的方法.
  • 能够用TensorFlow实现一个神经网络

这门课将会详尽地介绍深度学习的基本原理,而不仅仅只进行理论概述.

本周主要内容包括:

  1. Data set partition
  2. Bias / Variance
  3. Regularization
  4. Normalization
  5. Gradient Checking

1. Train/dev/test

在上一周的内容中, 介绍了神经网络中的常用符号以及各种变量的维度. 不清楚的可以回顾上周的笔记内容.

1.1 Data set partition

在训练完一个模型时, 我们需要知道这个模型预测的效果. 此时就需要一个额外的数据集, 我们称为 dev/hold out/validation set, 这里我们就统一称之为验证集.

如果我们需要知道模型最终效果的无偏估计, 那么我们还需要一个测试集.

在以往传统的机器学习中, 我们通常按照 70/30 来数据集分为 Train set/Validation set, 或者按照 60/20/20 的比例分为 Train/Validation/Test.

但在今天机器学习问题中, 我们可用的数据集的量级非常大 (例如有 100W 个样本). 这时我们就不需要给验证集和测试集太大的比例, 例如 98/1/1.

image

1.2 Data src distribution

在划分数据集中, 有一个比较常见的错误就是不小心使得在训练集中的数据和验证测试集中的数据来自于不同的分布. 例如我们想要做一个猫的分类器, 在划分数据的时候发现训练集中的图片全都是来自于网页, 而验证集测试集中的数据全都来自于用户. 这是一种完全错误的做法, 在实际中一定要杜绝.

image

2. Bias / Variance

关于 Bias / Variance 相比大家都很熟悉了, 在机器学习的课程中也已经学习到. 下面祭出 Andrew Ng 经典的图例解释:

image

我们该如何定位模型所处的问题? 如下图所示, 这里举了四中情况下的训练集和验证集误差.

  • 当 训练误差很小, 验证误差很大时 为 High Variance
  • 当 训练误差 和 验证误差 接近 且 都很大 时为 High Bias
  • 当 训练误差很大, 验证误差更大时为 High Variance && High Bias
  • 当 训练误差 和 验证误差接近且都很小时为 Low Variance && Low Bias
image

关于高方差高偏差可能是第一次听过, 如下图所示, 整体上模型处于高偏差, 但是对于一些噪声又拟合地很好. 此时就处于高偏差高方差的状态.

image

当我们学会定位模型的问题后, 那么该怎样解决对应的问题呢? 见下图:

image

High bias, 我们可以增加模型的复杂度例如使用一个”更大”的网络结构或者训练更久一点.
High variance, 我们可以想办法 get more data, 或者使用接下来我们要讲的 Regularization.

3. Regularization

为什么正则化没有加 λ2mb2\frac{\lambda}{2m} b^2:

因为 ww 通常是一个高维参数矢量, 已经可以表达 High bias 的问题, ww 可能含有很多参数,我们不可能拟合所有参数, 而 bb 只是单个数字, 所以 ww 几乎覆盖了所有参数,而不是 bb, 如果加了 bb 也没有影响,因为 bb 只是众多参数中的一个.

关于 L1 regularization :

如果用的是 L1 regularization, then ww will end up being sprase 稀疏的, 也就是说 ww 向量中有很多 0. 有人说这样有利于压缩模型,但是我觉得不是很合适. 越来越多的人使用 L2.

Notes: 不称为:矩阵 L2 范数, 按照惯例我们称为: Frobenius norm of a matrix, 其实就是 : 矩阵 L2 范数。

3.1 L2 regularization

L2 regularization 下的 Cost Function 如下所示, 只需要添加正则项 λ2m_l=1Lw[l]2_F\frac{\lambda}{2m}\sum\_{l=1}^L||w^{[l]}||^2\_F, 其中 F 代表 Frobenius Norm. 在添加了正则项之后, 相应的梯度也要变化, 所以在更新参数的时候需要加上对应的项. 这里注意一点, 我们只对参数 ww 正则, 而不对 bb. 因为对于每一层来说, ww 有很高的维度, 而 bb 只是一个标量. ww 对整个模型的影响远大于 bb.

image

下面给出添加 regularization 为什么能防止过拟合给出直观的解释. 如下图所示:

当我们的 λ 比较大的时候, 模型就会加大对 w 的惩罚, 这样有些 w 就会变得很小 (L2 Regularization 也叫权重衰减, weights decay). 从下图左边的神经网络来看, 效果就是整个神经网络变得简单了(一些隐藏层甚至 ww 趋向于 0), 从而降低了过拟合的风险.

那些 隐藏层 并没有被消除,只是影响变得更小了,神经网络变得简单了.

image

从另一个角度来看. 以 tanh激活函数 为例, 当 λλ 增加时, ww 会偏小, 这样 z=wa+bz = wa +b 也会偏小, 此时的激活函数大致是线性的. 这样模型的复杂度也就降低了, 即降低了过拟合的风险.

如果神经网络每层都是线性的,其实整个还是一个线性的, 即使是一个很深的网络,因为线性激活函数的特征,最终我们只能计算线性函数.

image

3.2 Dropout

dropout 也是一种正则化的手段, 在训练时以 1-keep_prob 随机地”丢弃”一些节点. 如下图所示.

image

具体可参考如下实现方式, 在前向传播时将 aa 中的某些值置为0, 为了保证大概的大小不受添加 dropout 影响, 再将处理后的 aa 除以 keep_prob.

image

dropout 将产生收缩权重的平方范数的效果, 和 L2 类似,实施 dropout 的结果是它会压缩权重,并完成一些预防过拟合的外层正则化,事实证明 dropout 被正式地作为一种正则化的替代形式

L2 对不同权重的衰减是不同的,它取决于倍增的激活函数的大小.

dropout 的功能类似于 L2 正则化. 甚至 dropout 更适用于不同的输入范围.

image

Notes: 每一层的 keep_prob 可能是不同的, keep_prob 取 1, 则是该层保留所有单元.

输出层的 keep_prob 经常设置为 1,有时候也可以设置为 1.9 (>1). < 1 通常在输出层是不太可能的.

输入层的 keep_prob 经常设置为 1,有时候也可以设置为 0.9, 如果是 0.5 消减一半,通常是不可能的.

其他 : 计算机视觉的人员非常钟情 dropout 函数.

Notes: dropout 的一大缺点就是 J 不会被明确定义. 每次迭代都会被随机删除一些节点. 如果再三检查梯度下降的性能,实际上是很难复查的.

定义明确的代价函数,每次迭代都会下降. 因为 dropout 使得 J 没有被明确定义,或者在某种程度上很难计算. 所以我们失去了调试工具,我通常会关闭 dropout. keep_prob 设置为 1, 运行代码,确保 J 函数单调递减, 然后在打开 dropout, 在 dropout 的过程中,代码并未引入bug.

实现代码(未完成)

3.3 Other Regularization

  • Data augmentation
image
  • Early stopping
image

W 开始是变小的,之后会随着迭代越来越大. early stopping 就是在中间点停止迭代过程.

Notes:

  1. early stopping 缺点是 提早停止,w 是防止了过拟合,但是 J 没有被继续下降.
  2. L2 正则化 的缺点是,要用大量精力搜索合适的 λ .

我个人也是更倾向于使用 L2,如果你可以负担大量的计算代价.

4. Normalization

image
  1. 0 均值化
  2. 归一化 方差

上图2, 特征 x1 的方差 比 特征 x2 的方差 大很多
上图3, 特征 x1 和 特征 x2 的 方差 都是 1

注意: 不论 训练集 和 测试集,都是通过相同的 μ\muσ2{\sigma}^2 定义的相同数据转换, 其中 μ\muσ2{\sigma}^2 是由训练数据计算而来.

image

5. Vanishing/Exploding gradients

Vanishing/Exploding gradients 指的是随着前向传播不断地进行, 激活单元的值会逐层指数级地增加或减小, 从而导致梯度无限增大或者趋近于零, 这样会严重影响神经网络的训练. 如下图.

image

为了直观理解梯度消失和梯度爆炸,我们假设所有激活函数为线性激活函数,即 g(z)=zg(z)=z。 并假设前 L−1 个权重矩阵都相等, 即为 W_linearW\_{linear},所以可以得到 y_hat=W_linearL1W_LXy\_{hat}=W\_{linear}^{L-1}W\_{L}X

假设 W_linearW\_{linear} 都等于这个:

那么则有 y_hat=1.5L1W_LXy\_{hat}=1.5^{L-1}W\_LX,很显然当 L 很大时则会出现梯度爆炸。

同理若将权重的值设置为小于1,那么则会出现梯度消失。

一个可以减小这种情况发生的方法, 就是用有效的参数初始化 (该方法并不能完全解决这个问题). 但是也是有意义的

image

设置合理的权重,希望你设置的权重矩阵,既不会增长过快,也不会下降过快到 0.

想更加了解如何初始化权重可以看下这篇文章 神经网络权重初始化问题,其中很详细的介绍了权重初始化问题。

6. Gradient checking implementation

image
image
image

很难用梯度检验来双重检验 dropout 的计算, 所以我不同时使用梯度检验和 dropout,除非 dropout keep.prob 设置为 1.

我建议关闭 dropout 用梯度检验进行双重检查.

在没有 dropout 的情况下,确保你的算法是正确的,然后再打开 dropout.

现实中 几乎不会出现, 当 w 和 b 接近 0 时,梯度下降的实施是正确的.

8. Reference

Comments