🎨
Bible-DeepLearning
  • Introduction
  • 第6章 深度前馈网络
    • 6.1 例子:学习XOR
    • 6.2 基于梯度的学习
      • 6.2.1 代价函数
        • 6.2.1.1 使用最大似然学习条件分布
        • 6.2.1.2 学习条件统计量
      • 6.2.2 输出单元
        • 6.2.2.1 用于高斯输出分布的线性神单元
        • 6.2.2.2 用于Bernoulli输出分布的sigmoid单元
        • 6.2.2.3 用于Multinoulli输出分布的softmax单元
    • 6.3 隐藏单元
      • 6.3.1 ReLU及其扩展
      • 6.3.2 logistic sigmoid与双曲正切函数
      • 6.3.3 其他隐藏单元
      • 李宏毅补充 SELU
    • 6.4 架构设计
    • 6.5 反向传播和其他的微分算法
      • 6.5.1 计算图
      • 6.5.2 微积分中的链式法则
      • 6.5.3 递归地使用链式法则来实现反向传播
      • 6.5.4 全连接MLP中的反向传播计算
      • 6.5.5 符号到符号的导数
      • 6.5.6 一般化的反向传播
      • 6.5.7 实例:用于MLP 训练的反向传播
      • 6.5.8 复杂化
  • 第7章 深度学习中的正则化
    • 7.1 参数范数惩罚
      • 7.1.1 L2参数正则化
      • 7.1.2 L1参数正则化
    • 7.2 作为约束的范数惩罚
    • 7.3 正则化和欠约束问题
    • 7.4 数据集增强
    • 7.5 噪声鲁棒性
    • 7.6 半监督学习
    • 7.7 多任务学习
    • 7.8 提前终止
    • 7.9 参数绑定和参数共享
    • 7.10 稀疏表示
    • 7.11 Bagging 和其他集成方法
    • 7.12 Dropout
    • 7.13 对抗训练
    • 7.14 切面距离、正切传播和流形正切分类器
    • Ag补充 一些能用于提升比赛成绩的方法
  • 第8章 深度模型中的优化
    • 8.1 学习和纯优化有什么不同
      • 8.1.1 经验风险最小化
      • 8.1.2 代理损失函数和提前终止
      • 8.1.3 批量算法和小批量算法
    • 8.2 神经网络优化中的挑战
      • 8.2.1 病态
      • 8.2.2 局部极小值
      • 8.2.3 8.2.3 高原、鞍点和其他平坦区域
      • 8.2.4 悬崖和梯度爆炸
      • 8.2.5 长期依赖
      • 8.2.6 非精确梯度
    • 8.3 基本算法
      • 8.3.1 随机梯度下降
      • 8.3.2 动量
      • 8.3.3 Nesterov 动量
    • 8.4 参数初始化策略
    • 8.5 自适应学习率算法
      • 8.5.1 AdaGrad
      • 8.5.2 RMSProp
      • 8.5.3 Adam
      • 8.5.4 选择正确的优化算法
    • 8.6 二阶近似方法
      • 8.6.1 牛顿法
      • 8.6.2 共轭梯度
      • 8.6.3 BFGS
    • 8.7 优化策略和元算法
      • 8.7.1 批标准化
      • 8.7.2 坐标下降
      • 8.7.3 Polyak 平均
      • 8.7.4 监督预训练
      • 8.7.5 设计有助于优化的模型
  • 第9章 卷积网络
    • 9.1 卷积运算
    • 9.2 动机
    • 9.3 池化
    • 9.4 卷积与池化作为一种无限强的先验
    • 9.5 基本卷积函数的变体
    • 9.6 结构化输出
    • 9.7 数据类型
  • 第10章 序列建模:循环和递归网络
    • 10.1 展开计算图
    • 10.2 循环神经网络
      • 10.2.1 导师驱动过程和输出循环网络
      • 10.2.2 计算循环神经网络的梯度
      • 10.2.3 作为有向图模型的循环网络
      • 10.2.4 基于上下文的RNN序列建模
    • 10.3 双向RNN
    • 10.4 基于编码 - 解码的序列到序列架构
    • 10.5 深度循环网络
    • 10.6 递归神经网络
    • 10.7 长期依赖的挑战
    • 10.9 渗漏单元和其他多时间尺度的策略
    • 10.10 长短期记忆和其他门控RNN
      • 10.10.1 LSTM
      • 10.10.2 其他门控RNN
    • 10.11 优化长期依赖
      • 10.11.1 梯度截断
      • 10.11.2 引导信息流的正则化
    • 10.12 外显记忆
  • 第11章 实践方法论
    • 11.1 性能度量
    • 11.2 默认的基准模型
    • 11.3 决定是否收集更多数据
    • 11.4 选择超参数
      • 11.4.1 手动选择超参数
      • 11.4.3 网络搜索
      • 11.4.4 随机搜索
    • 11.5 调试策略
Powered by GitBook
On this page
  • 将噪声作用于输入
  • 将噪声作用于隐藏单元
  • 将噪声作用于权重
  • 将噪声作用于输出

Was this helpful?

  1. 第7章 深度学习中的正则化

7.5 噪声鲁棒性

Previous7.4 数据集增强Next7.6 半监督学习

Last updated 5 years ago

Was this helpful?

将噪声作用于输入

[success] 这种方法等价于“对权重施加范数惩罚”。

\secref{sec:dataset_augmentation_chap7}已经提出将噪声作用于输入,作为数据集增强策略。 对于某些模型而言,向输入添加方差极小的噪声等价于对权重施加范数惩罚\citep{Bishop1995,bishop95training}。

将噪声作用于隐藏单元

[success] 效果强大。例如

在一般情况下,注入噪声远比简单地收缩参数强大,特别是噪声被添加到隐藏单元时会更加强大。 向隐藏单元添加噪声是值得单独讨论重要的话题;在\secref{sec:dropout}所述Dropout算法是这种做法的主要发展方向。

将噪声作用于权重

[success] 主要用于RNN。 因为它推动模型进入对权重小的变化相对不敏感的区域,找到的点不只是极小点

另一种正则化模型的噪声使用方式是将其加到权重。 这项技术主要用于循环神经网络\citep{JimGilesHorne1996,Graves-2011}。 这可以被解释为关于权重的贝叶斯推断的随机实现。

[warning] [?] 关于权重的贝叶斯推断的随机实现

贝叶斯学习过程将权重视为不确定的,并且可以通过概率分布表示这种不确定性。

[success] 权重不是一个值,而是关于所有可能的值的分布。

向权重添加噪声是反映这种不确定性的一种实用的随机方法。

在某些假设下,施加于权重的噪声可以被解释为与更传统的正则化形式等同,鼓励要学习的函数保持稳定。 我们研究回归的情形,也就是训练将一组特征$x$映射成一个标量的函数$\hat y(x)$,并使用最小二乘代价函数衡量模型预测值$\hat y(x)$与真实值$y$的误差:

J=Ep(x,y)[(y^(x)−y)2].\begin{aligned} J = \Bbb E_{p(x,y)}[(\hat y(x) - y)^2]. \end{aligned}J=Ep(x,y)​[(y^​(x)−y)2].​

训练集包含$m$对标注样例${(x^{(1)}, y^{(1)}),\cdots,(x^{(m)}, y^{(m)})}$。

现在我们假设对每个输入表示,网络权重添加随机扰动$\epsilon{w} \sim \Bbb N(\epsilon;0, \eta I \, )$。 想象我们有一个标准的$l$层MLP。 我们将扰动模型记为$\hat y{\epsilon_{W}} (x)$。 尽管有噪声注入,我们仍然希望减少网络输出误差的平方。 因此目标函数变为:

J~W=Ep(x,y,ϵW)[(y^ϵW(x)−y)2]=Ep(x,y,ϵW)[y^ϵW2(x)−2yy^ϵW(x)+y2].\begin{aligned} \tilde J_{W} &= \Bbb E_{p(x,y,\epsilon_{W})}[(\hat y_{\epsilon_{W}}(x) - y)^2] \\ &= \Bbb E_{p(x,y,\epsilon_{W})}[\hat y_{\epsilon_{W}}^2(x) - 2y\hat y_{\epsilon_{W}} (x)+ y^2] . \end{aligned}J~W​​=Ep(x,y,ϵW​)​[(y^​ϵW​​(x)−y)2]=Ep(x,y,ϵW​)​[y^​ϵW​2​(x)−2yy^​ϵW​​(x)+y2].​

[warning] 上面公式中,${\epsilon_{W}}$体现在哪?

对于小的$\eta$,最小化带权重噪声(方差为$\eta I$\,)的$J$等同于最小化附加正则化项: $ \eta \Bbb E{p(x,y)}[||\nabla{W}\hat y(x)||^2]$的$J$。 这种形式的正则化鼓励参数进入权重小扰动对输出相对影响较小的参数空间区域。 换句话说,它推动模型进入对权重小的变化相对不敏感的区域,找到的点不只是极小点,还是由平坦区域所包围的极小点\citep{Hochreiter95}。 在简化的线性回归中(例如,$\hat y(x) = w^\top x + b$),正则项退化为$ \eta \Bbb E{p(x)}[||x||^2]$,这与函数的参数无关,因此不会对$\tilde J{w}$关于模型参数的梯度有影响。

将噪声作用于输出

[success] 这种方法假设标签y有一定的错误。 因此显式地对标签上的噪声进行建模。

大多数数据集的$y$标签都有一定错误。 错误的$y$不利于最大化$\log p(y \mid x)$。 避免这种情况的一种方法是显式地对标签上的噪声进行建模。 例如,我们可以假设,对于一些小常数$\epsilon$,训练集标记$y$是正确的概率是$1-\epsilon$,(以$\epsilon$的概率)任何其他可能的标签也可能是正确的。

[success] 假设y有错误,且错误率是$\epsilon$

这个假设很容易就能解析地与代价函数结合,而不用显式地抽取噪声样本。 例如,标签平滑(label smoothing)通过把确切分类目标从0和1替换成$\frac{\epsilon}{k-1}$和$1-\epsilon$,正则化具有$k$个输出的softmax函数的模型。

[success] 原目标:0和1 新目标:$\frac{\epsilon}{k-1}$和$1-\epsilon$ 原softmax:无正则化的softmax 新softmax:正则化的softmax 代价函数:交叉熵代价函数 [?] 怎么正则化softmax?

标准交叉熵损失可以用在这些非确切目标的输出上。 使用softmax函数和明确目标的最大似然学习可能永远不会收敛—— softmax函数永远无法真正预测0概率或1概率,因此它会继续学习越来越大的权重,使预测更极端。

[success] 原目标+原softmax = 权重越来越大,预测更极端

使用如权重衰减等其他正则化策略能够防止这种情况。 标签平滑的优势是能够防止模型追求确切概率而不影响模型学习正确分类。

[success] 新目标+新softmax = 防止模型追求确切概率而不影响模型学习正确分类

这种策略自20世纪80年代就已经被使用,并在现代神经网络继续保持显著特色\citep{Szegedy-et-al-2015}。

dropout