🎨
Bible-DeepLearning
  • Introduction
  • 第6章 深度前馈网络
    • 6.1 例子:学习XOR
    • 6.2 基于梯度的学习
      • 6.2.1 代价函数
        • 6.2.1.1 使用最大似然学习条件分布
        • 6.2.1.2 学习条件统计量
      • 6.2.2 输出单元
        • 6.2.2.1 用于高斯输出分布的线性神单元
        • 6.2.2.2 用于Bernoulli输出分布的sigmoid单元
        • 6.2.2.3 用于Multinoulli输出分布的softmax单元
    • 6.3 隐藏单元
      • 6.3.1 ReLU及其扩展
      • 6.3.2 logistic sigmoid与双曲正切函数
      • 6.3.3 其他隐藏单元
      • 李宏毅补充 SELU
    • 6.4 架构设计
    • 6.5 反向传播和其他的微分算法
      • 6.5.1 计算图
      • 6.5.2 微积分中的链式法则
      • 6.5.3 递归地使用链式法则来实现反向传播
      • 6.5.4 全连接MLP中的反向传播计算
      • 6.5.5 符号到符号的导数
      • 6.5.6 一般化的反向传播
      • 6.5.7 实例:用于MLP 训练的反向传播
      • 6.5.8 复杂化
  • 第7章 深度学习中的正则化
    • 7.1 参数范数惩罚
      • 7.1.1 L2参数正则化
      • 7.1.2 L1参数正则化
    • 7.2 作为约束的范数惩罚
    • 7.3 正则化和欠约束问题
    • 7.4 数据集增强
    • 7.5 噪声鲁棒性
    • 7.6 半监督学习
    • 7.7 多任务学习
    • 7.8 提前终止
    • 7.9 参数绑定和参数共享
    • 7.10 稀疏表示
    • 7.11 Bagging 和其他集成方法
    • 7.12 Dropout
    • 7.13 对抗训练
    • 7.14 切面距离、正切传播和流形正切分类器
    • Ag补充 一些能用于提升比赛成绩的方法
  • 第8章 深度模型中的优化
    • 8.1 学习和纯优化有什么不同
      • 8.1.1 经验风险最小化
      • 8.1.2 代理损失函数和提前终止
      • 8.1.3 批量算法和小批量算法
    • 8.2 神经网络优化中的挑战
      • 8.2.1 病态
      • 8.2.2 局部极小值
      • 8.2.3 8.2.3 高原、鞍点和其他平坦区域
      • 8.2.4 悬崖和梯度爆炸
      • 8.2.5 长期依赖
      • 8.2.6 非精确梯度
    • 8.3 基本算法
      • 8.3.1 随机梯度下降
      • 8.3.2 动量
      • 8.3.3 Nesterov 动量
    • 8.4 参数初始化策略
    • 8.5 自适应学习率算法
      • 8.5.1 AdaGrad
      • 8.5.2 RMSProp
      • 8.5.3 Adam
      • 8.5.4 选择正确的优化算法
    • 8.6 二阶近似方法
      • 8.6.1 牛顿法
      • 8.6.2 共轭梯度
      • 8.6.3 BFGS
    • 8.7 优化策略和元算法
      • 8.7.1 批标准化
      • 8.7.2 坐标下降
      • 8.7.3 Polyak 平均
      • 8.7.4 监督预训练
      • 8.7.5 设计有助于优化的模型
  • 第9章 卷积网络
    • 9.1 卷积运算
    • 9.2 动机
    • 9.3 池化
    • 9.4 卷积与池化作为一种无限强的先验
    • 9.5 基本卷积函数的变体
    • 9.6 结构化输出
    • 9.7 数据类型
  • 第10章 序列建模:循环和递归网络
    • 10.1 展开计算图
    • 10.2 循环神经网络
      • 10.2.1 导师驱动过程和输出循环网络
      • 10.2.2 计算循环神经网络的梯度
      • 10.2.3 作为有向图模型的循环网络
      • 10.2.4 基于上下文的RNN序列建模
    • 10.3 双向RNN
    • 10.4 基于编码 - 解码的序列到序列架构
    • 10.5 深度循环网络
    • 10.6 递归神经网络
    • 10.7 长期依赖的挑战
    • 10.9 渗漏单元和其他多时间尺度的策略
    • 10.10 长短期记忆和其他门控RNN
      • 10.10.1 LSTM
      • 10.10.2 其他门控RNN
    • 10.11 优化长期依赖
      • 10.11.1 梯度截断
      • 10.11.2 引导信息流的正则化
    • 10.12 外显记忆
  • 第11章 实践方法论
    • 11.1 性能度量
    • 11.2 默认的基准模型
    • 11.3 决定是否收集更多数据
    • 11.4 选择超参数
      • 11.4.1 手动选择超参数
      • 11.4.3 网络搜索
      • 11.4.4 随机搜索
    • 11.5 调试策略
Powered by GitBook
On this page

Was this helpful?

  1. 第10章 序列建模:循环和递归网络

10.7 长期依赖的挑战

Previous10.6 递归神经网络Next10.9 渗漏单元和其他多时间尺度的策略

Last updated 4 years ago

Was this helpful?

学习循环网络长期依赖的数学挑战在第8.2.5节中引入。

[success] Ag补充 The cat, ..., was full. The cats, ..., were full. 两个句子中,中间的省略号可能很长。cat/cats对was/were的影响就是长期依赖。 由于梯度消失问题的存在,很难让NN意识到它要记住前面看到的是单数名词还是复数名词,并在后面使用正确的单复数形式。

[success] RNN的loss曲线很有可能是这样的: 问:为什么RNN的loss会剧烈地抖动? 答:RNN的error surface要么很平(梯度消失),要么很陡(梯度爆炸),陡峭的地方称为悬崖。 问:梯度消失有什么问题? 梯度变得很小,不能指导优化的方向。 解决方法:可存储记忆。 问:梯度爆炸有什么问题? 答:如果从悬崖下面update到悬崖上面,loss就会陡增。 如果点正好落在悬崖上,梯度会突然非常大,然后参数就飞出去了。 解决方法:梯度截断 问:为什么LSTM能解决梯度消失的问题?20'15'' 答:RNN和LSTM处理memory cell的操作不同。 在RNN中,t时刻计算出的值直接存入memory cell中,覆盖t-1时刻的值。 而在LSTM中,新memory = 旧memory * Gate + input。 可见,只有Forget Gate不关闭,weight对memory的影响将永远存在。 因此在实际训练过程中,应该将forget Gate设计为,在大多数情况下,forget gate都是开着的。

根本问题是,经过许多阶段传播后的梯度倾向于消失(大部分情况)或爆炸(很少,但对优化过程影响很大)。

[success] 梯度爆炸更容易发现,因为它会导致参数太大而崩溃。 梯度爆炸可以使用梯度截断clipping来解决。 相比之下,梯度消失的问题更难发现和解决。

即使我们假设循环网络是参数稳定的(可存储记忆,且梯度不爆炸),但长期依赖的困难来自比短期相互作用指数小的权重(涉及许多Jacobian相乘)。

[warning] 可存储记忆可解决梯度消失问题。既然假设梯度消失已解决,梯度爆炸不存在,还讨论啥?“比短期相互作用指数小的权重”是什么?

许多资料提供了更深层次的讨论{cite?}。 在这一节中,我们会更详细地描述该问题。 其余几节介绍克服这个问题的方法。

循环网络涉及相同函数的多次组合,每个时间步一次。 这些组合可以导致极端非线性行为,如\fig?所示。

特别地,循环神经网络所使用的函数组合有点像矩阵乘法。 我们可以把如下的循环联系

h(t)=W⊤h(t−1)\begin{aligned} h^{(t)} = W^\top h^{(t-1)} \end{aligned}h(t)=W⊤h(t−1)​

看做是一个非常简单的、缺少非线性激活函数和输入$x$的循环神经网络。 如\sec?描述,这种循环关系本质上描述了幂法。 它可以被简化为

h(t)=(Wt)⊤h(0),\begin{aligned} h^{(t)} = (W^t)^\top h^{(0)}, \end{aligned}h(t)=(Wt)⊤h(0),​

而当$W$符合下列形式的特征分解

W=QΛQ⊤,\begin{aligned} W = Q \Lambda Q^\top, \end{aligned}W=QΛQ⊤,​

其中$Q$正交,循环性可进一步简化为

h(t)=Q⊤LambdatQh(0).\begin{aligned} h^{(t)} = Q^\top Lambda^t Q h^{(0)}. \end{aligned}h(t)=Q⊤LambdatQh(0).​

特征值提升到$t$次后,导致幅值不到一的特征值衰减到零,而幅值大于一的就会激增。 任何不与最大特征向量对齐的$h^{(0)}$的部分将最终被丢弃。

这个问题是针对循环网络的。

在标量情况下,想象多次乘一个权重$w$。 该乘积$w^t$消失还是爆炸取决于$w$的幅值。 然而,如果每个时刻使用不同权重$w^{(t)}$的非循环网络,情况就不同了。 如果初始状态给定为$1$,那么时刻$t$的状态可以由$\prod_t w^{(t)}$给出。 假设$w^{(t)}$的值是随机生成的,各自独立,且有$0$均值$v$方差。 乘积的方差就为$\Bbb O(v^n)$。 为了获得某个期望的方差$v^$,我们可以选择让单个权重的方差为$v=\sqrt[n]{v^}$。 因此,非常深的前馈网络通过精心设计的比例可以避免梯度消失和爆炸问题,如{Sussillo14}所主张的。

[success] 非循环网络每个时刻的$w^{(t)}$不同,通过合理设计$w^{(t)}$,可以避免梯度消失和爆炸问题。

RNN梯度消失和爆炸问题是由不同研究人员独立发现{cite?}。 有人可能会希望通过简单地停留在梯度不消失或爆炸的参数空间来避免这个问题。 不幸的是,为了储存记忆并对小扰动具有鲁棒性,RNN必须进入参数空间中的梯度消失区域{cite?}。 具体来说,每当模型能够表示长期依赖时,长期相互作用的梯度幅值就会变得指数级小(相比短期相互作用的梯度幅值)。 这并不意味着这是不可能学习的,由于长期依赖关系的信号很容易被短期相关性产生的最小波动隐藏,因而学习长期依赖可能需要很长的时间。 实践中,{Bengio1994ITNN}的实验表明,当我们增加了需要捕获的依赖关系的跨度,基于梯度的优化变得越来越困难,SGD在长度仅为10或20的序列上成功训练传统RNN的概率迅速变为0。

[warning] 这一整段看不懂

将循环网络作为动力系统更深入探讨的资料见{Doya93,Bengio1994ITNN,Siegelmann+Sontag-1995}及 {Pascanu-et-al-ICML2013}的回顾。 本章的其余部分将讨论目前已经提出的降低学习长期依赖(在某些情况下,允许一个RNN学习横跨数百步的依赖)难度的不同方法,但学习长期依赖的问题仍是深度学习中的一个主要挑战。

[success] 问:为什么循环网络会有这样的问题? 解释一:因为sigmoid unit?老师说不是这个原因。 在前馈网络中,在hidden layer中使用sigmoid unit会导致这种情况。sigmoid unit->ReLU就能解决这个问题。 解释二:推导BPTT的公式可以分析出来原因。老师没有展开讲这部分内容。 解释三:直观分析 假设有这样一个toy example。 w的梯度= $\delta w$ 对$\delta C$的影响。 构造图中这样的一个简单的RNN,令unit的输入w为1,输出w为1,只在t0时刻有一个输入,值为1。观察unit的transition weight对C的影响。 令w=1,则y1000=1 w=1.01, y1000=20000 -- 悬崖 w=0.99, y1000=0 --- 平坦 w一但有影响,影响就是天崩地裂。这是因为同样的w在transition过程中反复使用。放大了它的作用。 解决方法LSTM。 LSTM只能解决梯度消失的问题,不能解决梯度爆炸的问题。悬崖仍然存在,通常将lr设置得比较小。