🎨
Bible-DeepLearning
  • Introduction
  • 第6章 深度前馈网络
    • 6.1 例子:学习XOR
    • 6.2 基于梯度的学习
      • 6.2.1 代价函数
        • 6.2.1.1 使用最大似然学习条件分布
        • 6.2.1.2 学习条件统计量
      • 6.2.2 输出单元
        • 6.2.2.1 用于高斯输出分布的线性神单元
        • 6.2.2.2 用于Bernoulli输出分布的sigmoid单元
        • 6.2.2.3 用于Multinoulli输出分布的softmax单元
    • 6.3 隐藏单元
      • 6.3.1 ReLU及其扩展
      • 6.3.2 logistic sigmoid与双曲正切函数
      • 6.3.3 其他隐藏单元
      • 李宏毅补充 SELU
    • 6.4 架构设计
    • 6.5 反向传播和其他的微分算法
      • 6.5.1 计算图
      • 6.5.2 微积分中的链式法则
      • 6.5.3 递归地使用链式法则来实现反向传播
      • 6.5.4 全连接MLP中的反向传播计算
      • 6.5.5 符号到符号的导数
      • 6.5.6 一般化的反向传播
      • 6.5.7 实例:用于MLP 训练的反向传播
      • 6.5.8 复杂化
  • 第7章 深度学习中的正则化
    • 7.1 参数范数惩罚
      • 7.1.1 L2参数正则化
      • 7.1.2 L1参数正则化
    • 7.2 作为约束的范数惩罚
    • 7.3 正则化和欠约束问题
    • 7.4 数据集增强
    • 7.5 噪声鲁棒性
    • 7.6 半监督学习
    • 7.7 多任务学习
    • 7.8 提前终止
    • 7.9 参数绑定和参数共享
    • 7.10 稀疏表示
    • 7.11 Bagging 和其他集成方法
    • 7.12 Dropout
    • 7.13 对抗训练
    • 7.14 切面距离、正切传播和流形正切分类器
    • Ag补充 一些能用于提升比赛成绩的方法
  • 第8章 深度模型中的优化
    • 8.1 学习和纯优化有什么不同
      • 8.1.1 经验风险最小化
      • 8.1.2 代理损失函数和提前终止
      • 8.1.3 批量算法和小批量算法
    • 8.2 神经网络优化中的挑战
      • 8.2.1 病态
      • 8.2.2 局部极小值
      • 8.2.3 8.2.3 高原、鞍点和其他平坦区域
      • 8.2.4 悬崖和梯度爆炸
      • 8.2.5 长期依赖
      • 8.2.6 非精确梯度
    • 8.3 基本算法
      • 8.3.1 随机梯度下降
      • 8.3.2 动量
      • 8.3.3 Nesterov 动量
    • 8.4 参数初始化策略
    • 8.5 自适应学习率算法
      • 8.5.1 AdaGrad
      • 8.5.2 RMSProp
      • 8.5.3 Adam
      • 8.5.4 选择正确的优化算法
    • 8.6 二阶近似方法
      • 8.6.1 牛顿法
      • 8.6.2 共轭梯度
      • 8.6.3 BFGS
    • 8.7 优化策略和元算法
      • 8.7.1 批标准化
      • 8.7.2 坐标下降
      • 8.7.3 Polyak 平均
      • 8.7.4 监督预训练
      • 8.7.5 设计有助于优化的模型
  • 第9章 卷积网络
    • 9.1 卷积运算
    • 9.2 动机
    • 9.3 池化
    • 9.4 卷积与池化作为一种无限强的先验
    • 9.5 基本卷积函数的变体
    • 9.6 结构化输出
    • 9.7 数据类型
  • 第10章 序列建模:循环和递归网络
    • 10.1 展开计算图
    • 10.2 循环神经网络
      • 10.2.1 导师驱动过程和输出循环网络
      • 10.2.2 计算循环神经网络的梯度
      • 10.2.3 作为有向图模型的循环网络
      • 10.2.4 基于上下文的RNN序列建模
    • 10.3 双向RNN
    • 10.4 基于编码 - 解码的序列到序列架构
    • 10.5 深度循环网络
    • 10.6 递归神经网络
    • 10.7 长期依赖的挑战
    • 10.9 渗漏单元和其他多时间尺度的策略
    • 10.10 长短期记忆和其他门控RNN
      • 10.10.1 LSTM
      • 10.10.2 其他门控RNN
    • 10.11 优化长期依赖
      • 10.11.1 梯度截断
      • 10.11.2 引导信息流的正则化
    • 10.12 外显记忆
  • 第11章 实践方法论
    • 11.1 性能度量
    • 11.2 默认的基准模型
    • 11.3 决定是否收集更多数据
    • 11.4 选择超参数
      • 11.4.1 手动选择超参数
      • 11.4.3 网络搜索
      • 11.4.4 随机搜索
    • 11.5 调试策略
Powered by GitBook
On this page
  • 什么是dropout
  • 怎样生成子模型
  • 怎样训练子模型
  • 怎样集成子模型
  • 权重比例推断规则
  • Dropout的优点
  • 优点1:计算开销小
  • 优点2:计算方便
  • 优点3:不怎么限制适用的模型或训练过程
  • Dropout的代价
  • 必须增大模型规模
  • 训练样本极少时效果不好
  • ???
  • Dropout的随机性
  • Dropout的理论依据

Was this helpful?

  1. 第7章 深度学习中的正则化

7.12 Dropout

Previous7.11 Bagging 和其他集成方法Next7.13 对抗训练

Last updated 4 years ago

Was this helpful?

什么是dropout

[success] dropout训练的整体过程 (1)Unit采样,去掉部分unit及相应的weight,生成新的子模型 (2)用一个batch训练这个模型 (3)unit恢复 (4)go to step (1)

怎样生成子模型

具体而言,Dropout训练的集成包括所有从基础网络除去非输出单元后形成的子网络,如图7.6所示。 最先进的神经网络基于一系列仿射变换和非线性变换,我们只需将一些单元的输出乘零就能有效地删除一个单元。

[success] Dropout的实现 --- Inverted Dropout 根据p生成这一层单元的掩码向量d,其中di为这一层第i个unit是否存在。 这一层单元的输出向量为h h = h * z h = h / p(这一步被称为Inverted Dropout。如果不这么做,h的期望就后改变,导致测试的时候计算期望比较复杂。如果有了这一步,测试时就不需要做任何改变)。

这个过程需要对模型(如径向基函数网络,单元的状态和参考值之间存在一定区别)进行一些修改。

[warning] [?] 单元的状态和参考值是指什么?为什么说径向基网络的单元状态和参考值存在区别?需要怎么dropout?

为了简单起见,我们在这里提出乘零的简单Dropout算法,但是它被简单修改后,可以与从网络中移除单元的其他操作结合使用。

[warning] [?] 移除单元的其他操作

回想一下Bagging学习,我们定义kkk个不同的模型,从训练集有放回采样构造kkk个不同的数据集,然后在训练集iii上训练模型iii。 Dropout的目标是在指数级数量的神经网络上近似这个过程。 具体来说,在训练中使用Dropout时,我们会使用基于小批量产生较小步长的学习算法,如随机梯度下降等。 我们每次在小批量中加载一个样本,然后随机抽样应用于网络中所有输入和隐藏单元的不同二值掩码。

[success] 每次处理一个小批量样本时,针对每一层随机地生成一个二值掩码,将这个小批量样本应用到由这个二值码定义的子网络上。

对于每个单元,掩码是独立采样的。 掩码值为1的采样概率(导致包含一个单元)是训练开始前一个固定的超参数。

[warning] 采样概率,是当前Unit的掩码为1(不被删除)的概率?还是Unit掩码为1的情况下不被删除的概率?

它不是模型当前参数值或输入样本的函数。

[success] 模型当前参数值:与模型状态有关的参数,每一轮迭代都会变化。 输入样本的函数:与输入样本有关的参数,不同样本这个值就不同。 这句话想表达的是:采样概率与迭代状态无关,与输入参数无关,是一开始就确定好的。

通常在每一个小批量训练的神经网络中,一个输入单元被包括的概率为0.80.80.8,一个隐藏单元被包括的概率为$0.5$。

[success] 关于概率p,Ag的建议是: 某一层的W的size大,则p可以小一点。W的size小,p可以大一点。 W大意味着容易发生过拟合。 输入层通常不做dropout

然后,我们运行和之前一样的前向传播、反向传播以及学习更新。 图7.7说明了在Dropout下的前向传播。

怎样训练子模型

[success] dropout和Bagging的区别 (1)在Bagging的情况下,所有模型都是独立的。 在Dropout的情况下,所有模型共享参数,其中每个模型继承父神经网络参数的不同子集。 (2)在Bagging的情况下,每一个模型在其相应训练集上训练到收敛。 在Dropout的情况下,通常大部分模型都没有显式地被训练。取而代之的是,在单个步骤中我们训练一小部分的子网络,参数共享会使得剩余的子网络也能有好的参数设定。

Dropout训练与Bagging训练不太一样。 在Bagging的情况下,所有模型都是独立的。 在Dropout的情况下,所有模型共享参数,其中每个模型继承父神经网络参数的不同子集。 参数共享使得在有限可用的内存下表示指数级数量的模型变得可能。

[success] 这是以廉价的方式训练和评估指数级数量的神经网络的关键。

在Bagging的情况下,每一个模型在其相应训练集上训练到收敛。 在Dropout的情况下,通常大部分模型都没有显式地被训练,因为通常父神经网络会很大,以致于到宇宙毁灭都不可能采样完所有的子网络。 取而代之的是,在单个步骤中我们训练一小部分的子网络,参数共享会使得剩余的子网络也能有好的参数设定。 这些是仅有的区别。 除了这些,Dropout与Bagging算法一样。 例如,每个子网络中遇到的训练集确实是有放回采样的原始训练集的一个子集。

怎样集成子模型

算术平均

集成的预测由这些分布的算术平均值给出,

如果直接对结果做统计,最终结果是False。 如果对分布求算法平均, 再求最终结果,则应该是True。

所有掩码的算术平均值由下式给出

因为这个求和包含多达指数级的项,除非该模型的结构允许某种形式的简化,否则是不可能计算的。

目前为止,无法得知深度神经网络是否允许某种可行的简化。 相反,我们可以通过采样近似推断,即平均许多掩码的输出。

[warning] [?]采样近似推断, 平均许多掩码的输出?

[warning] 怎么把指数级的项简化到10-20个的?

几何平均

然而,一个更好的方法能不错地近似整个集成的预测,且只需一个前向传播的代价。 要做到这一点,我们改用集成成员预测分布的几何平均而不是算术平均。

WardeFarley提出的论点和经验证据表明,在这个情况下几何平均与算术平均表现得差不多。

[warning] [?] 这个情况下是指什么?

多个概率分布的几何平均不能保证是一个概率分布。 为了保证结果是一个概率分布,我们要求没有子模型给某一事件分配概率0,并重新标准化所得分布。

[warning] 如果某一子模式给某一事件分布概率0,会导致这个事件的平均概率变成0. [?] 问题是怎么保证这一点?

通过几何平均直接定义的非标准化概率分布由下式给出

[warning] 问:根号里面的内容为什么不是$\prod_u p(\mu)p(y|x,\mu)$? 答:这里假设所有模型出现的概率为均匀分布。 下面有说明。

[success] 就是有可能被dropout的Unit的个数。 例如有两层网络,第一个使用了dropout这种正则化方式,而第二层没有使用。那么d就是第一层的unit的个数。

[warning] [?] 如果使用非均匀分布,公式怎么写?

为了作出预测,我们必须重新标准化集成:

[success] 归一化,使它符合概率分布。

权重比例推断规则

[success] 假设每个子模型都能计算出$p(y \mid x)$的情况下,根据上面的公式

$p_{\text{ensemble}}(y \mid x)$就是最后集成模型的概率分布。

[warning] 单元i的输出计算为h,被包含的概率即这一层的dropout值,是一个超参数。 这样计算出来的是h的期望。 但是h的期望有什么用呢?具体怎么使用呢? 就是说不需要真的根据dropoup某些unit的网络来训练,只是正确方式训练网络,然后将乘以dropout就可以了?

这个修改的动机是得到从该单元输出的正确期望值。 我们把这种方法称为权重比例推断规则(weight scaling inference rule)。 目前还没有在深度非线性网络上对这种近似推断规则的准确性作任何理论分析,但经验上它表现得很好。

[warning] [?][?] 这一段看不懂

[warning] 这两种训练方式是什么关系? 假设dropout=0.5,上面一段说正确训练网络,只是让h 0.5 这一段又是正常训练网络,只是结束后让weights 0.5

[warning] [?] 单元是状态是什么?

无论哪种方式,我们的目标是确保在测试时一个单元的期望总输入与在训练时该单元的期望总输入是大致相同的(即使近半单位在训练时丢失)。

对许多不具有非线性隐藏单元的模型族而言,权重比例推断规则是精确的。

[warning] 不具有非线性的隐藏单元?

[warning] [?] softmax用于多分类?怎么成了回归分类? 这里要说明的比例推断规则在非线性隐藏单元上的效果,但softmax不是隐藏单元,是输出单元。这有什么关系呢?

集成预测器被定义为重新标准化所有集成成员预测的几何平均:

其中

为了证明权重比例推断规则是精确的,我们简化$\tilde{P}_{\text{ensemble}}$:

[success] 7.60:同7.59 7.61:代入公式7.57 7.62:将softmax公式展开

[success] 假设 y = (y1, y2),那么$\frac{y1}{y1+y2} = \frac{y15}{y15+y2*5}$ 也就是说与y无关的乘法项可以省略。 公式7.63中的分母项与具体的y无关,可以省略。

[success] 7.65基于$\sqrt[n]{e^ae^be^c} = \sqrt[n]{\exp{(a+b+c)}}=\exp{\frac{a+b+c}{n}}$

[warning] 6.54到7.66是怎么推出来的?

[success] 从公式上证明了dropout为0.5的正则化,与正常训练网络后将所有weight乘以0.5的效果是一样的。

权重比例推断规则在其他设定下也是精确的,包括条件正态输出的回归网络以及那些隐藏层不包含非线性的深度网络。

然而,权重比例推断规则对具有非线性的深度模型仅仅是一个近似。 虽然这个近似尚未有理论上的分析,但在实践中往往效果很好。 实验发现,在对集成预测的近似方面,权重比例推断规则比蒙特卡罗近似更好(就分类精度而言)。 即使允许蒙特卡罗近似采样多达1000子网络时也比不过权重比例推断规则。 gal2015bayesian发现一些模型可以通过二十个样本和蒙特卡罗近似获得更好的分类精度。 似乎推断近似的最佳选择是与问题相关的。

[warning] [?] 蒙特卡罗近似?

Dropout的优点

优点1:计算开销小

Srivastava14显示,Dropout比其他标准的计算开销小的正则化方法(如权重衰减、过滤器范数约束和稀疏激活的正则化)更有效。 Dropout也可以与其他形式的正则化合并,得到进一步的提升。

优点2:计算方便

优点3:不怎么限制适用的模型或训练过程

Dropout的另一个显著优点是不怎么限制适用的模型或训练过程。 几乎在所有使用分布式表示且可以用随机梯度下降训练的模型上都表现很好。

[success] [?]使用分布式表示

包括前馈神经网络、概率模型,如受限玻尔兹曼机,以及循环神经网络。

许多效果差不多的其他正则化策略对模型结构的限制更严格。

[warning] 其他正则化策略对模型结构有什么限制?

[success] dropout还有一个特点,即使用接近线性的unit配合dropout效果比较好。 例如ReLU、Maxout

Dropout的代价

必须增大模型规模

虽然Dropout在特定模型上每一步的代价是微不足道的,但在一个完整的系统上使用Dropout的代价可能会是显著的。 因为Dropout是一个正则化技术,它减少了模型的有效容量。 为了抵消这种影响,我们必须增大模型规模。 不出意外的话,使用Dropout时最佳验证集的误差会低很多,但这是以更大的模型和更多训练算法的迭代次数为代价换来的。 对于非常大的数据集,正则化带来的泛化误差减少得很小。 在这些情况下,使用Dropout和更大模型的计算代价可能超过正则化带来的好处。

[success] dropout会使训练效果变差,而泛化能力增强。 为了对抗“训练效果变差”而增大模型规模。

训练样本极少时效果不好

只有极少的训练样本可用时,Dropout不会很有效。

[warning] 什么时候用呢? 训练数据非常大时,dropout的代价超过好处。 训练数据极少时,dropout又不会很有效。

在只有不到5000的样本的数据集上,贝叶斯神经网络比Dropout表现得更好。 当有其他未分类的数据可用时,无监督特征学习也比Dropout更有优势。

[warning] [?]贝叶斯神经网络、有其他未分类的数据可用、无监督特征学习

???

[warning] ? [?] 这一段看不懂

Dropout的随机性

[success] Ag补充:由于dropout的随机性,其J下降的过程难以重复,因此debug时不使用dropout。 对于使用dropout的模型,在debug时先把p设置为1. debug结束再把p设置为真实值。

使用Dropout训练时的随机性不是这个方法成功的必要条件。 它仅仅是近似所有子模型总和的一个方法。 \cite{WangManning-ICML2013-small}导出了近似这种边缘分布的解析解。 他们的近似被称为快速Dropout,减小梯度计算中的随机性而获得更快的收敛速度。 这种方法也可以在测试时应用,能够比权重比例推断规则更合理地(但计算也更昂贵)近似所有子网络的平均。 快速Dropout在小神经网络上的性能几乎与标准的Dropout相当,但在大问题上尚未产生显著改善或尚未应用。

[warning] ? [?] 这一段看不懂

随机性对实现Dropout的正则化效果不是必要的,同时也不是充分的。 为了证明这一点,{WardeFarley+al-ICLR2014}使用一种被称为Dropout Boosting的方法设计了一个对照实验,具有与传统Dropout方法完全相同的噪声掩码, 但缺乏正则化效果。 Dropout Boosting训练整个集成以最大化训练集上的似然。 从传统Dropout类似于Bagging的角度来看,这种方式类似于Boosting。 如预期一样,和单一模型训练整个网络相比,Dropout Boosting几乎没有正则化效果。 这表明,使用Bagging解释Dropout具有使用稳健性噪声解释Dropout之外的额外价值。 只有当随机抽样的集成成员相互独立地训练,才能达到Bagging集成的正则化效果。

[warning] ? [?] 这一段看不懂

Dropout启发其他以随机方法训练指数量级的共享权重的集成。 DropConnect是 Dropout的一个特殊情况,其中一个标量权重和单个隐藏单元状态之间的每个乘积被认为是可以丢弃的一个单元。 随机池化是构造卷积神经网络集成的一种随机化池化的形式(见第9.3节),其中每个卷积网络参与每个特征图的不同空间位置。 目前为止,Dropout仍然是最广泛使用的隐式集成方法。

[warning] ? [?] 这一段看不懂

Dropout的理论依据

[success] 为什么Dropout有用?(Ag的回答) 模型不能依赖于任意一个特征,so have to sptread out weights。即不把赌注放在一个输入上。

目前为止,我们将Dropout介绍为一种纯粹高效近似Bagging的方法。 然而,还有比这更进一步的Dropout观点。 Dropout不仅仅是训练一个Bagging的集成模型, 并且是共享隐藏单元的集成模型。 这意味着无论其他隐藏单元是否在模型中,每个隐藏单元必须都能够表现良好。 隐藏单元必须准备好进行模型之间的交换和互换。 {Hinton-et-al-arxiv2012-small}由生物学的想法受到启发:有性繁殖涉及到两个不同生物体之间交换基因,进化产生的压力使得基因不仅是良好的而且要准备好不同有机体之间的交换。 这样的基因和这些特点对环境的变化是非常稳健的,因为它们一定会正确适应任何一个有机体或模型不寻常的特性。 因此Dropout正则化使得每个隐藏单元不仅要是一个很好的特征,更要在许多情况下是良好的特征。 {WardeFarley+al-ICLR2014}将Dropout与大集成的训练相比并得出结论:相比独立模型集成获得泛化误差改进,Dropout会带来额外的改进。

[success] Ag说dropout在计算机视觉的应用中非常常用。在其它应用中看情况而定。

破坏提取的特征而不是原始值,让破坏过程充分利用该模型迄今获得的关于输入分布的所有知识。

[warning] 乘性噪声?加性噪声?

另一种深度学习算法——批标准化,在训练时向隐藏单元引入加性和乘性噪声重新参数化模型。 批标准化的主要目的是改善优化,但噪声具有正则化的效果,有时没必要再使用Dropout。 批标准化将会在第8.7.1节中被更详细地讨论。

Bagging集成必须根据所有成员的累积投票做一个预测。 在这种背景下,我们将这个过程称为推断。 目前为止,我们在介绍Bagging和Dropout时没有要求模型具有明确的概率。 现在,我们假定该模型的作用是输出一个概率分布。 在Bagging的情况下,每个模型iii产生一个概率分布p(i)(y∣x)p^{(i)}(y \mid x)p(i)(y∣x)。

[success] p(i)p^{(i)}p(i)不是一个单独的符号。 每个模型产生的概率分布都用符号p(y∣x)p(y \mid x)p(y∣x)表示,上标(i)表示这个概率分布是第i个模型产生的。

1k∑i=1kp(i)(y∣x)(7.52)\begin{aligned} \frac{1}{k} \sum_{i=1}^k p^{(i)}(y \mid x) && (7.52) \end{aligned}k1​i=1∑k​p(i)(y∣x)​​(7.52)​

[success] 并不是简单粗暴的最终结果投票。每个模型都直接产生它认为的最终结果,然后选择最终结果中出现次数最多的。不是这样的。 实际上每个模型不直接给出各自最终结果,而是给出它对所有结果的概率预测。由集成模型根据每个模型的概率分布计算出最终的概率分布,然后得到最终结果。 图: 例如有三个模型,分别对某一个样本的预测分布与结果如下:

TrueFalseresultmodelA0.490.51FalsemodelB0.490.51FalsemodelC0.990.01Trueaveragemodel1.9731.033True\begin{aligned} && True && False && result \\ model A && 0.49 && 0.51 && False \\ model B && 0.49 && 0.51 && False \\ model C && 0.99 && 0.01 && True \\ average model && \frac{1.97}{3} && \frac{1.03}{3} && True \end{aligned}modelAmodelBmodelCaveragemodel​​True0.490.490.9931.97​​​False0.510.510.0131.03​​​resultFalseFalseTrueTrue​

在Dropout的情况下,通过掩码 μ\muμ定义每个子模型的概率分布p(y∣x,μ)p(y \mid x, \mu)p(y∣x,μ)。

[success] 问:dropout情况下不会显式地训练每个子模型,怎么计算子模型的概率分布? 答:这里不是真的要把每个μ\muμ对应有概率分布计算出来,只是定义一个符号。 Dropout每个p(y∣x,μ)p(y \mid x, \mu)p(y∣x,μ)相当于Bagging中的每个p(y∣x)(i)p(y \mid x)^{(i)}p(y∣x)(i) Dropout中的每个子模型由μ\muμ来区分。而Bagging中的每个子模型由子模型编号i区分。

∑μp(μ)p(y∣x,μ)(7.53)\begin{aligned} \sum_{\mu} p(\mu) p(y \mid x, \mu) && (7.53) \end{aligned}μ∑​p(μ)p(y∣x,μ)​​(7.53)​

其中p(μ)p(\mu)p(μ)是训练时采样μ\muμ的概率分布。

[success] 可以对比Bagging来理解。 在公式7.52计算Bagging的算术平均分布时,认为每个子模型出现的概率是相等,都是1k\frac{1}{k}k1​。 而在公式7.53计算dropout的算法平均分布时,认为每个子模型出现的概率与它的掩码μ\muμ有关,定义为p(μ)p(\mu)p(μ)。

[success] 有多少种μ\muμ就有多少种子模型,就有多少项。

即使是10−2010-2010−20个掩码就足以获得不错的表现。

[success]

p~ensemble(y∣x)=∏μp(y∣x,μ)2d(7.54)\begin{aligned} \tilde{p}_{\text{ensemble}}(y \mid x) = \sqrt[2^d]{\prod_{\mu} p(y \mid x, \mu)} && (7.54) \end{aligned}p~​ensemble​(y∣x)=2d​μ∏​p(y∣x,μ)​​​(7.54)​

其中ddd是可被丢弃的单元数。

这里为简化介绍,我们使用均匀分布的μ\muμ,但非均匀分布也是可以的。

pensemble(y∣x)=p~ensemble(y∣x)∑y′p~ensemble(y′∣x)(7.55)\begin{aligned} p_{\text{ensemble}}(y \mid x) = \frac{\tilde{p}_{\text{ensemble}}(y \mid x)} {\sum_{y'}\tilde{p}_{\text{ensemble}}(y' \mid x) } && (7.55) \end{aligned}pensemble​(y∣x)=∑y′​p~​ensemble​(y′∣x)p~​ensemble​(y∣x)​​​(7.55)​

[success] 这几段没怎么看懂,但总体意思是说: 训练时使用dropout,使用超参数p,训练得到的参数为w。 预测时不使用dropout,使用的参数为w(1-p) 问:为什么预测时使用的参数为w(1-p) 答:

涉及Dropout的一个重要观点是,我们可以通过评估模型中p(y∣x)p(y \mid x)p(y∣x)来近似pensemblep_{\text{ensemble}}pensemble​:

p(y∣x)→p~ensemble(y∣x)→pensemble(y∣x)p(y \mid x) \rightarrow \tilde{p}_{\text{ensemble}}(y \mid x) \rightarrow p_{\text{ensemble}}(y \mid x)p(y∣x)→p~​ensemble​(y∣x)→pensemble​(y∣x)

该模型具有所有单元,但我们将单元iii的输出的权重乘以单元iii的被包含概率。

因为我们通常使用12\frac{1}{2}21​的包含概率,权重比例规则一般相当于在训练结束后将权重除222,然后像平常一样使用模型。

实现相同结果的另一种方法是在训练期间将单元的状态乘222。

举个简单的例子,考虑softmax函数回归分类,其中由向量vvv表示nnn个输入变量:

P(y=y∣v)=softmax(W⊤(d⊙v)+b)y\begin{aligned} P(\text{y} = y \mid \text{v}) = \text{softmax}\big(W^\top (d \odot \text{v}) + b\big)_y \end{aligned}P(y=y∣v)=softmax(W⊤(d⊙v)+b)y​​

我们可以根据二值向量ddd逐元素的乘法将一类子模型进行索引:

P(y=y∣v;d)=softmax(W⊤(d⊙v)+b)y\begin{aligned} P(\text{y} = y \mid \text{v}; d) = \text{softmax}\big(W^\top(d \odot \text{v}) + b \big)_y \end{aligned}P(y=y∣v;d)=softmax(W⊤(d⊙v)+b)y​​
Pensemble(y=y∣v)=P~ensemble(y=y∣v)∑y′P~ensemble(y=y′∣v)\begin{aligned} P_{\text{ensemble}}(\text{y} = y \mid \text{v}) = \frac{\tilde{P}_{\text{ensemble}}(\text{y} = y \mid \text{v})} {\sum_{y'}\tilde{P}_{\text{ensemble}}(\text{y} = y' \mid \text{v}) } \end{aligned}Pensemble​(y=y∣v)=∑y′​P~ensemble​(y=y′∣v)P~ensemble​(y=y∣v)​​
P~ensemble(y=y∣v)=∏d∈{0,1}nP(y=y∣v;d)2n.\begin{aligned} \tilde{P}_{\text{ensemble}}(\text{y}=y \mid \text{v}) = \sqrt[2^n]{\prod_{d \in \{0,1\}^n} P(\text{y} = y \mid \text{v}; d)}. \end{aligned}P~ensemble​(y=y∣v)=2n​d∈{0,1}n∏​P(y=y∣v;d)​.​
P~ensemble(y=y∣v)=∏d∈{0,1}nP(y=y∣v;d)2n(7.60)=∏d∈{0,1}nsoftmax(W⊤(d⊙v)+b)y2n(7.61)=∏d∈{0,1}nexp⁡(Wy,:⊤(d⊙v)+by)∑y′exp⁡(Wy′,;⊤(d⊙v)+by′)2n(7.62)=∏d∈{0,1}nexp⁡(Wy,:⊤(d⊙v)+by)2n∏d∈{0,1}n∑y′exp⁡(Wy′,:⊤(d⊙v)+by′)2n(7.63)\begin{aligned} \tilde{P}_{\text{ensemble}}(y=y \mid v) & = & \sqrt[2^n]{\prod_{d \in \{0,1\}^n} P(y = y \mid v; d)} && (7.60)\\ & = & \sqrt[2^n]{\prod_{d \in \{0,1\}^n} \text{softmax}(W^\top(d \odot v) + b)_y} && (7.61)\\ & = & \sqrt[2^n]{\prod_{d \in \{0,1\}^n} \frac{\exp (W_{y,:}^\top(d \odot v) + b_y)} {\sum_{y'}\exp (W_{y',;}^\top(d \odot v) + b_{y'})}} && (7.62)\\ & = & \frac{\sqrt[2^n]{\prod_{d \in \{0,1\}^n}\exp (W_{y,:}^\top(d \odot v) + b_y)}}{\sqrt[2^n] {\prod_{d \in \{0,1\}^n} \sum_{y'}\exp (W_{y',:}^\top(d \odot v) + b_{y'})}} && (7.63) \end{aligned}P~ensemble​(y=y∣v)​====​2n​d∈{0,1}n∏​P(y=y∣v;d)​2n​d∈{0,1}n∏​softmax(W⊤(d⊙v)+b)y​​2nd∈{0,1}n∏​∑y′​exp(Wy′,;⊤​(d⊙v)+by′​)exp(Wy,:⊤​(d⊙v)+by​)​​2n∏d∈{0,1}n​∑y′​exp(Wy′,:⊤​(d⊙v)+by′​)​2n∏d∈{0,1}n​exp(Wy,:⊤​(d⊙v)+by​)​​​​(7.60)(7.61)(7.62)(7.63)​

由于P~\tilde PP~将被标准化,我们可以放心地忽略那些相对yyy不变的乘法:

P~ensemble(y=y∣v)∝∏d∈{0,1}nexp⁡(Wy,:⊤(d⊙v)+by)2n(7.64)=exp⁡(12n∑d∈{0,1}nWy,;⊤(d⊙v)+by)(7.65)=exp⁡(12Wy,:⊤v+by)(7.66)\begin{aligned} \tilde{P}_{\text{ensemble}}(y=y \mid v) &\propto \sqrt[2^n]{\prod_{d \in \{0,1\}^n} \exp (W_{y,:}^\top(d \odot v) + b_y)} && (7.64)\\ & = \exp \Bigg(\frac{1}{2^n} \sum_{d \in \{0,1\}^n} W_{y,;}^\top(d \odot v) + b_y \Bigg) && (7.65)\\ & = \exp \Big(\frac{1}{2}W_{y,:}^\top v + b_y \Big) && (7.66) \end{aligned}P~ensemble​(y=y∣v)​∝2n​d∈{0,1}n∏​exp(Wy,:⊤​(d⊙v)+by​)​=exp(2n1​d∈{0,1}n∑​Wy,;⊤​(d⊙v)+by​)=exp(21​Wy,:⊤​v+by​)​​(7.64)(7.65)(7.66)​

将其代入公式7.58,我们得到了一个权重为12W\frac{1}{2}W21​W的softmax函数分类器。

[success]

计算方便是Dropout的一个优点。 训练过程中使用Dropout产生nnn个随机二进制数与状态相乘,每个样本每次更新只需O(n)O(n)O(n)的计算复杂度。 根据实现,也可能需要O(n)O(n)O(n)的存储空间来持续保存这些二进制数(直到反向传播阶段)。 使用训练好的模型推断时,计算每个样本的代价与不使用Dropout是一样的,尽管我们必须在开始运行推断前将权重除以2。

[warning] [?]概率模型、受限玻尔兹曼机、

{Wager+al-2013}表明,当Dropout作用于线性回归时,相当于每个输入特征具有不同权重衰减系数的L2L^2L2权重衰减。 每个特征的权重衰减系数的大小是由其方差来确定的。 其他线性模型也有类似的结果。 而对于深度模型而言,Dropout与权重衰减是不等同的。

一个关于Dropout的重要见解是,通过随机行为训练网络并平均多个随机决定进行预测,实现了一种参数共享的Bagging形式。 早些时候,我们将Dropout描述为通过包括或排除单元形成模型集成的Bagging。 然而,这种参数共享策略不一定要基于包括和排除。 原则上,任何一种随机的修改都是可接受的。 在实践中,我们必须选择让神经网络能够学习对抗的修改类型。 在理想情况下,我们也应该使用可以快速近似推断的模型族。 我们可以认为由向量μ\muμ参数化的任何形式的修改,是对μ\muμ所有可能的值训练p(y∣x,μ)p(y \mid x, \mu)p(y∣x,μ)的集成。 注意,这里不要求μ\muμ具有有限数量的值。 例如,μ\muμ可以是实值。 {Srivastava14}表明,权重乘以μ∼N(1,I)\mu \sim N({1}, I)μ∼N(1,I)比基于二值掩码Dropout表现得更好。 由于E[μ]=1E[\mu] = 1E[μ]=1,标准网络自动实现集成的近似推断,而不需要权重比例推断规则。

Dropout强大的大部分原因来自施加到隐藏单元的掩码噪声,了解这一事实是重要的。 这可以看作是对输入内容的信息高度智能化、自适应破坏的一种形式,而不是对输入原始值的破坏。 例如,如果模型学得通过鼻检测脸的隐藏单元 hih_ihi​,那么丢失hih_ihi​对应于擦除图像中有鼻子的信息。 模型必须学习另一种hih_ihi​,要么是鼻子存在的冗余编码,要么是像嘴这样的脸部的另一特征。 传统的噪声注入技术,在输入端加非结构化的噪声不能够随机地从脸部图像中抹去关于鼻子的信息,除非噪声的幅度大到几乎能抹去图像中所有的信息。

Dropout的另一个重要方面是噪声是乘性的。 如果是固定规模的加性噪声,那么加了噪声ϵ\epsilonϵ的整流线性隐藏单元可以简单地学会使hih_ihi​变得很大(使增加的噪声ϵ\epsilonϵ变得不显著)。 乘性噪声不允许这样病态地解决噪声鲁棒性问题。

算术平均、几何平均
正态输出的回归网络
前馈神经网络
循环神经网络
径向基函数网络