🎨
Bible-DeepLearning
  • Introduction
  • 第6章 深度前馈网络
    • 6.1 例子:学习XOR
    • 6.2 基于梯度的学习
      • 6.2.1 代价函数
        • 6.2.1.1 使用最大似然学习条件分布
        • 6.2.1.2 学习条件统计量
      • 6.2.2 输出单元
        • 6.2.2.1 用于高斯输出分布的线性神单元
        • 6.2.2.2 用于Bernoulli输出分布的sigmoid单元
        • 6.2.2.3 用于Multinoulli输出分布的softmax单元
    • 6.3 隐藏单元
      • 6.3.1 ReLU及其扩展
      • 6.3.2 logistic sigmoid与双曲正切函数
      • 6.3.3 其他隐藏单元
      • 李宏毅补充 SELU
    • 6.4 架构设计
    • 6.5 反向传播和其他的微分算法
      • 6.5.1 计算图
      • 6.5.2 微积分中的链式法则
      • 6.5.3 递归地使用链式法则来实现反向传播
      • 6.5.4 全连接MLP中的反向传播计算
      • 6.5.5 符号到符号的导数
      • 6.5.6 一般化的反向传播
      • 6.5.7 实例:用于MLP 训练的反向传播
      • 6.5.8 复杂化
  • 第7章 深度学习中的正则化
    • 7.1 参数范数惩罚
      • 7.1.1 L2参数正则化
      • 7.1.2 L1参数正则化
    • 7.2 作为约束的范数惩罚
    • 7.3 正则化和欠约束问题
    • 7.4 数据集增强
    • 7.5 噪声鲁棒性
    • 7.6 半监督学习
    • 7.7 多任务学习
    • 7.8 提前终止
    • 7.9 参数绑定和参数共享
    • 7.10 稀疏表示
    • 7.11 Bagging 和其他集成方法
    • 7.12 Dropout
    • 7.13 对抗训练
    • 7.14 切面距离、正切传播和流形正切分类器
    • Ag补充 一些能用于提升比赛成绩的方法
  • 第8章 深度模型中的优化
    • 8.1 学习和纯优化有什么不同
      • 8.1.1 经验风险最小化
      • 8.1.2 代理损失函数和提前终止
      • 8.1.3 批量算法和小批量算法
    • 8.2 神经网络优化中的挑战
      • 8.2.1 病态
      • 8.2.2 局部极小值
      • 8.2.3 8.2.3 高原、鞍点和其他平坦区域
      • 8.2.4 悬崖和梯度爆炸
      • 8.2.5 长期依赖
      • 8.2.6 非精确梯度
    • 8.3 基本算法
      • 8.3.1 随机梯度下降
      • 8.3.2 动量
      • 8.3.3 Nesterov 动量
    • 8.4 参数初始化策略
    • 8.5 自适应学习率算法
      • 8.5.1 AdaGrad
      • 8.5.2 RMSProp
      • 8.5.3 Adam
      • 8.5.4 选择正确的优化算法
    • 8.6 二阶近似方法
      • 8.6.1 牛顿法
      • 8.6.2 共轭梯度
      • 8.6.3 BFGS
    • 8.7 优化策略和元算法
      • 8.7.1 批标准化
      • 8.7.2 坐标下降
      • 8.7.3 Polyak 平均
      • 8.7.4 监督预训练
      • 8.7.5 设计有助于优化的模型
  • 第9章 卷积网络
    • 9.1 卷积运算
    • 9.2 动机
    • 9.3 池化
    • 9.4 卷积与池化作为一种无限强的先验
    • 9.5 基本卷积函数的变体
    • 9.6 结构化输出
    • 9.7 数据类型
  • 第10章 序列建模:循环和递归网络
    • 10.1 展开计算图
    • 10.2 循环神经网络
      • 10.2.1 导师驱动过程和输出循环网络
      • 10.2.2 计算循环神经网络的梯度
      • 10.2.3 作为有向图模型的循环网络
      • 10.2.4 基于上下文的RNN序列建模
    • 10.3 双向RNN
    • 10.4 基于编码 - 解码的序列到序列架构
    • 10.5 深度循环网络
    • 10.6 递归神经网络
    • 10.7 长期依赖的挑战
    • 10.9 渗漏单元和其他多时间尺度的策略
    • 10.10 长短期记忆和其他门控RNN
      • 10.10.1 LSTM
      • 10.10.2 其他门控RNN
    • 10.11 优化长期依赖
      • 10.11.1 梯度截断
      • 10.11.2 引导信息流的正则化
    • 10.12 外显记忆
  • 第11章 实践方法论
    • 11.1 性能度量
    • 11.2 默认的基准模型
    • 11.3 决定是否收集更多数据
    • 11.4 选择超参数
      • 11.4.1 手动选择超参数
      • 11.4.3 网络搜索
      • 11.4.4 随机搜索
    • 11.5 调试策略
Powered by GitBook
On this page
  • 时间维度的跳跃连接
  • 渗漏单元和一系列不同时间尺度
  • 删除连接

Was this helpful?

  1. 第10章 序列建模:循环和递归网络

10.9 渗漏单元和其他多时间尺度的策略

处理长期依赖的一种方法是设计工作在多个时间尺度的模型,使模型的某些部分在细粒度时间尺度上操作并能处理小细节,而其他部分在粗时间尺度上操作并能把遥远过去的信息更有效地传递过来。 存在多种同时构建粗细时间尺度的策略。 这些策略包括在时间轴增加跳跃连接,"渗漏单元"使用不同时间常数整合信号,以及去除一些用于建模细粒度时间尺度的连接。

[success] 问:为什么要构建多时间尺度的模型? 答:不同的时间尺度有不同的作用: 细粒度:处理小细节 粗粒度:能把遥远过去的信息更有效地传递过来 以下是构建多时间尺度的模型的方法。

时间维度的跳跃连接

增加从遥远过去的变量到目前变量的直接连接是得到粗时间尺度的一种方法。 使用这样跳跃连接的想法可以追溯到{Lin-ieeetnn96},紧接是向前馈网络引入延迟的想法{cite?}。

[warning] 为什么这里会提到前馈网络?

在普通的循环网络中,循环从时刻$t$的单元连接到时刻$t+1$单元。 构造较长的延迟循环网络是可能的{cite?}。

正如我们在\sec?看到,梯度可能\emph{关于时间步数}呈指数消失或爆炸。 {cite?}引入了$d$延时的循环连接以减轻这个问题。 现在导数指数减小的速度与$\frac{\tau}{d}$相关而不是$\tau$。 既然同时存在延迟和单步连接,梯度仍可能成$t$指数爆炸。 这允许学习算法捕获更长的依赖性,但不是所有的长期依赖都能在这种方式下良好地表示。

[success] 优点: (1)减轻梯度消失/爆炸问题。 (2)捕获更长的依赖

渗漏单元和一系列不同时间尺度

获得导数乘积接近1的另一方式是设置\emph{线性}自连接单元,并且这些连接的权重接近1。

我们对某些$v$值应用更新$\mu^{(t)} \gets \alpha \mu^{(t-1)} + (1-\alpha) v^{(t)}$累积一个滑动平均值$\mu^{(t)}$,其中$\alpha$是一个从$\mu^{(t-1)}$到$\mu^{(t)}$线性自连接的例子。 当$\alpha$接近1时,滑动平均值能记住过去很长一段时间的信息,而当$\alpha$接近0,关于过去的信息被迅速丢弃。

[success] $\mu^{(t-1)}$代表历史信息,$v^t$代表当前信息。 a接近1相当于粗粒度,a接近0相当于细粒度。

线性自连接的隐藏单元可以模拟滑动平均的行为。 这种隐藏单元称为渗漏单元。

$d$时间步的跳跃连接可以确保单元总能被$d$个时间步前的那个值影响。 使用权重接近1的线性自连接是确保该单元可以访问过去值的不同方式。 线性自连接通过调节实值$\alpha$(而不是调整整数值的跳跃长度)更平滑灵活地调整这种效果。

这个想法由{Mozer-nips92}和{ElHihi+Bengio-nips8}提出。 在回声状态网络中,渗漏单元也被发现很有用{cite?}。

我们可以通过两种基本策略设置渗漏单元使用的时间常数。

[success] 1.设置为常量2.自己学习

一种策略是手动将其固定为常数,例如在初始化时从某些分布采样它们的值。 另一种策略是使时间常数成为自由变量,并学习出来。 在不同时间尺度使用这样的渗漏单元似乎能帮助学习长期依赖{cite?}。

删除连接

处理长期依赖另一种方法是在多个时间尺度组织RNN状态的想法{cite?},信息在较慢的时间尺度上更容易长距离流动。

这个想法与之前讨论的时间维度上的跳跃连接不同,因为它涉及主动\emph{删除}长度为一的连接并用更长的连接替换它们。 以这种方式修改的单元被迫在长时间尺度上运作。 而通过时间跳跃连接是\emph{添加}边。 收到这种新连接的单元,可能会学习在长时间尺度上运作,但也可能选择专注于自己其他的短期连接。

强制一组循环单元在不同时间尺度上运作有不同的方式。 一种选择是使循环单元变成渗漏单元,但不同的单元组关联不同的固定时间尺度。 这由{Mozer-nips92}提出,并被成功应用于{Pascanu+al-ICML2013-small}。 另一种选择是使显式且离散的更新发生在不同的时间,不同的单元组有不同的频率。 这是{ElHihi+Bengio-nips8}和{Koutnik-et-al-ICML2014}的方法。 它在一些基准数据集上表现不错。

[warning] 这一段没看懂。

Previous10.7 长期依赖的挑战Next10.10 长短期记忆和其他门控RNN

Last updated 5 years ago

Was this helpful?