🎨
Bible-DeepLearning
  • Introduction
  • 第6章 深度前馈网络
    • 6.1 例子:学习XOR
    • 6.2 基于梯度的学习
      • 6.2.1 代价函数
        • 6.2.1.1 使用最大似然学习条件分布
        • 6.2.1.2 学习条件统计量
      • 6.2.2 输出单元
        • 6.2.2.1 用于高斯输出分布的线性神单元
        • 6.2.2.2 用于Bernoulli输出分布的sigmoid单元
        • 6.2.2.3 用于Multinoulli输出分布的softmax单元
    • 6.3 隐藏单元
      • 6.3.1 ReLU及其扩展
      • 6.3.2 logistic sigmoid与双曲正切函数
      • 6.3.3 其他隐藏单元
      • 李宏毅补充 SELU
    • 6.4 架构设计
    • 6.5 反向传播和其他的微分算法
      • 6.5.1 计算图
      • 6.5.2 微积分中的链式法则
      • 6.5.3 递归地使用链式法则来实现反向传播
      • 6.5.4 全连接MLP中的反向传播计算
      • 6.5.5 符号到符号的导数
      • 6.5.6 一般化的反向传播
      • 6.5.7 实例:用于MLP 训练的反向传播
      • 6.5.8 复杂化
  • 第7章 深度学习中的正则化
    • 7.1 参数范数惩罚
      • 7.1.1 L2参数正则化
      • 7.1.2 L1参数正则化
    • 7.2 作为约束的范数惩罚
    • 7.3 正则化和欠约束问题
    • 7.4 数据集增强
    • 7.5 噪声鲁棒性
    • 7.6 半监督学习
    • 7.7 多任务学习
    • 7.8 提前终止
    • 7.9 参数绑定和参数共享
    • 7.10 稀疏表示
    • 7.11 Bagging 和其他集成方法
    • 7.12 Dropout
    • 7.13 对抗训练
    • 7.14 切面距离、正切传播和流形正切分类器
    • Ag补充 一些能用于提升比赛成绩的方法
  • 第8章 深度模型中的优化
    • 8.1 学习和纯优化有什么不同
      • 8.1.1 经验风险最小化
      • 8.1.2 代理损失函数和提前终止
      • 8.1.3 批量算法和小批量算法
    • 8.2 神经网络优化中的挑战
      • 8.2.1 病态
      • 8.2.2 局部极小值
      • 8.2.3 8.2.3 高原、鞍点和其他平坦区域
      • 8.2.4 悬崖和梯度爆炸
      • 8.2.5 长期依赖
      • 8.2.6 非精确梯度
    • 8.3 基本算法
      • 8.3.1 随机梯度下降
      • 8.3.2 动量
      • 8.3.3 Nesterov 动量
    • 8.4 参数初始化策略
    • 8.5 自适应学习率算法
      • 8.5.1 AdaGrad
      • 8.5.2 RMSProp
      • 8.5.3 Adam
      • 8.5.4 选择正确的优化算法
    • 8.6 二阶近似方法
      • 8.6.1 牛顿法
      • 8.6.2 共轭梯度
      • 8.6.3 BFGS
    • 8.7 优化策略和元算法
      • 8.7.1 批标准化
      • 8.7.2 坐标下降
      • 8.7.3 Polyak 平均
      • 8.7.4 监督预训练
      • 8.7.5 设计有助于优化的模型
  • 第9章 卷积网络
    • 9.1 卷积运算
    • 9.2 动机
    • 9.3 池化
    • 9.4 卷积与池化作为一种无限强的先验
    • 9.5 基本卷积函数的变体
    • 9.6 结构化输出
    • 9.7 数据类型
  • 第10章 序列建模:循环和递归网络
    • 10.1 展开计算图
    • 10.2 循环神经网络
      • 10.2.1 导师驱动过程和输出循环网络
      • 10.2.2 计算循环神经网络的梯度
      • 10.2.3 作为有向图模型的循环网络
      • 10.2.4 基于上下文的RNN序列建模
    • 10.3 双向RNN
    • 10.4 基于编码 - 解码的序列到序列架构
    • 10.5 深度循环网络
    • 10.6 递归神经网络
    • 10.7 长期依赖的挑战
    • 10.9 渗漏单元和其他多时间尺度的策略
    • 10.10 长短期记忆和其他门控RNN
      • 10.10.1 LSTM
      • 10.10.2 其他门控RNN
    • 10.11 优化长期依赖
      • 10.11.1 梯度截断
      • 10.11.2 引导信息流的正则化
    • 10.12 外显记忆
  • 第11章 实践方法论
    • 11.1 性能度量
    • 11.2 默认的基准模型
    • 11.3 决定是否收集更多数据
    • 11.4 选择超参数
      • 11.4.1 手动选择超参数
      • 11.4.3 网络搜索
      • 11.4.4 随机搜索
    • 11.5 调试策略
Powered by GitBook
On this page

Was this helpful?

  1. 第10章 序列建模:循环和递归网络

10.1 展开计算图

Previous第10章 序列建模:循环和递归网络Next10.2 循环神经网络

Last updated 5 years ago

Was this helpful?

计算图是形式化一组计算结构的方式,如那些涉及将输入和参数映射到输出和损失的计算。 综合的介绍请参考。 本节,我们对展开递归或循环计算得到的重复结构进行解释,这些重复结构通常对应于一个事件链。 展开(unfolding)这个计算图将导致深度网络结构中的参数共享。

例如,考虑动态系统的经典形式:

s(t)=f(s(t−1);θ)(10.1)\begin{aligned} s^{(t)} = f(s^{(t-1)}; \theta) && (10.1) \end{aligned}s(t)=f(s(t−1);θ)​​(10.1)​

其中$ s^{(t)}$称为系统的状态。

$s$在时刻$t$的定义需要参考时刻$t-1$时同样的定义,因此公式(10.1)是循环的。

对有限时间步$\tau$, $\tau-1$次应用这个定义可以展开这个图。 例如$\tau = 3$,我们对公式(10.1)展开,可以得到:

s(3)=f(s(2);θ)=f(f(s(1);θ);θ)(10.3)\begin{aligned} s^{(3)} &= f(s^{(2)}; \theta) \\ & = f(f(s^{(1)}; \theta) ; \theta) && (10.3) \end{aligned}s(3)​=f(s(2);θ)=f(f(s(1);θ);θ)​​(10.3)​

以这种方式重复应用定义,展开等式,就能得到不涉及循环的表达。 现在我们可以使用传统的有向无环计算图呈现这样的表达。

公式(10.1)和公式(10.3)的展开计算图如图所示。

作为另一个例子,让我们考虑由外部信号$x^{(t)}$驱动的动态系统,

s(t)=f(s(t−1),x(t);θ)\begin{aligned} s^{(t)} = f(s^{(t-1)}, x^{(t)} ; \theta) \end{aligned}s(t)=f(s(t−1),x(t);θ)​

我们可以看到,当前状态包含了整个过去序列的信息。

循环神经网络可以通过许多不同的方式建立。 就像几乎所有函数都可以被认为是前馈网络,本质上任何涉及循环的函数都可以被认为是一个循环神经网络。

很多循环神经网络使用公式(10.)或类似的公式定义隐藏单元的值。 为了表明状态是网络的隐藏单元,我们使用变量$h$代表状态重写公式(10.):

h(t)=f(h(t−1),x(t);θ)\begin{aligned} h^{(t)} = f(h^{(t-1)}, x^{(t)} ; \theta) \end{aligned}h(t)=f(h(t−1),x(t);θ)​

如图所示,典型RNN会增加额外的架构特性,如读取状态信息$h$进行预测的输出层。

当训练循环网络根据过去预测未来时,网络通常要学会使用$h^{(t)}$作为过去序列(直到$t$)与任务相关方面的有损摘要。 此摘要一般而言一定是有损的,因为其映射任意长度的序列$(x^{(t)},x^{(t-1)}, x^{(t-2)},\cdots,x^{(2)}, x^{(1)})$到一固定长度的向量$h^{(t)}$。 根据不同的训练准则,摘要可能选择性地精确保留过去序列的某些方面。 例如,如果在统计语言建模中使用的RNN,通常给定前一个词预测下一个词,可能没有必要存储时刻$t$前输入序列中的所有信息;而仅仅存储足够预测句子其余部分的信息。 最苛刻的情况是我们要求$h^{(t)}$足够丰富,并能大致恢复输入序列,如自编码器框架(\chap?)。

公式(10.)可以用两种不同的方式来绘制。 一种绘制RNN的方式是用循环图,对于可能存在于模型的物理实现中的每个组件,都在图中包含其对应的节点。这种方式的一个示例是生物神经网络。 在这种视角下,网络定义了实时操作的回路,如图的左侧,其当前状态可以影响其未来的状态。 在本章中,我们使用回路图中的黑色方块表示单个时间步延时所发生的交互,即从时刻$t$的状态到时刻$t+1$的状态的变化。

[warning] 单个时间步延时所发生的交互?

另一种绘制RNN的方式是用展开的计算图,其中每一个组件由许多不同的变量表示,每个时间步一个变量,用来表示组件在该时间点的状态。 每个时间步的每个变量绘制为计算图的一个独立节点,如图的右侧。 我们所说的展开是将左图中的回路映射为右图中包含重复组件的计算图的操作。 这样,展开图的大小取决于序列长度。

我们可以用一个函数$g^{(t)}$代表经$t$步展开后的循环:

h(t)=g(t)(x(t),x(t−1),x(t−2),⋯ ,x(2),x(1))=f(h(t−1),x(t);θ).\begin{aligned} h^{(t)} &=g^{(t)}(x^{(t)},x^{(t-1)}, x^{(t-2)},\cdots,x^{(2)}, x^{(1)}) \\ & = f(h^{(t-1)}, x^{(t)} ; \theta) . \end{aligned}h(t)​=g(t)(x(t),x(t−1),x(t−2),⋯,x(2),x(1))=f(h(t−1),x(t);θ).​

函数$g^{(t)}$将全部的过去序列$(x^{(t)},x^{(t-1)}, x^{(t-2)},\cdots,x^{(2)}, x^{(1)})$作为输入来生成当前状态,但是展开的循环架构允许我们将$g^{(t)}$分解为函数$f$的重复应用。 因此,展开过程引入两个主要优点:

[warning] 为什么说这是“展开”的优点?图左不展开这也有这些优点呀?

  • 无论序列的长度,学成的模型始终具有相同的输入大小,因为它指定的是从一种状态到另一种状态的转移, 而不是在可变长度的历史状态上操作。

  • 我们可以在每个时间步使用相同参数的相同转移函数$f$。

    这两个因素使得学习在所有时间步和所有序列长度上操作单一的模型$f$是可能的,而不需要在所有可能时间步学习独立的模型$g^{(t)}$。

    学习单一的共享模型允许泛化到没有见过的序列长度(没有出现在训练集中),并且估计模型所需的训练样本远远少于不带参数共享的模型。

无论是循环图和展开图都有其用途。 循环图简洁。 展开图能够明确描述其中的计算流程。 展开图还通过显式的信息流动路径帮助说明信息在时间上向前(计算输出和损失)和向后(计算梯度)的思想。

第6.5.1节