🎨
Bible-DeepLearning
  • Introduction
  • 第6章 深度前馈网络
    • 6.1 例子:学习XOR
    • 6.2 基于梯度的学习
      • 6.2.1 代价函数
        • 6.2.1.1 使用最大似然学习条件分布
        • 6.2.1.2 学习条件统计量
      • 6.2.2 输出单元
        • 6.2.2.1 用于高斯输出分布的线性神单元
        • 6.2.2.2 用于Bernoulli输出分布的sigmoid单元
        • 6.2.2.3 用于Multinoulli输出分布的softmax单元
    • 6.3 隐藏单元
      • 6.3.1 ReLU及其扩展
      • 6.3.2 logistic sigmoid与双曲正切函数
      • 6.3.3 其他隐藏单元
      • 李宏毅补充 SELU
    • 6.4 架构设计
    • 6.5 反向传播和其他的微分算法
      • 6.5.1 计算图
      • 6.5.2 微积分中的链式法则
      • 6.5.3 递归地使用链式法则来实现反向传播
      • 6.5.4 全连接MLP中的反向传播计算
      • 6.5.5 符号到符号的导数
      • 6.5.6 一般化的反向传播
      • 6.5.7 实例:用于MLP 训练的反向传播
      • 6.5.8 复杂化
  • 第7章 深度学习中的正则化
    • 7.1 参数范数惩罚
      • 7.1.1 L2参数正则化
      • 7.1.2 L1参数正则化
    • 7.2 作为约束的范数惩罚
    • 7.3 正则化和欠约束问题
    • 7.4 数据集增强
    • 7.5 噪声鲁棒性
    • 7.6 半监督学习
    • 7.7 多任务学习
    • 7.8 提前终止
    • 7.9 参数绑定和参数共享
    • 7.10 稀疏表示
    • 7.11 Bagging 和其他集成方法
    • 7.12 Dropout
    • 7.13 对抗训练
    • 7.14 切面距离、正切传播和流形正切分类器
    • Ag补充 一些能用于提升比赛成绩的方法
  • 第8章 深度模型中的优化
    • 8.1 学习和纯优化有什么不同
      • 8.1.1 经验风险最小化
      • 8.1.2 代理损失函数和提前终止
      • 8.1.3 批量算法和小批量算法
    • 8.2 神经网络优化中的挑战
      • 8.2.1 病态
      • 8.2.2 局部极小值
      • 8.2.3 8.2.3 高原、鞍点和其他平坦区域
      • 8.2.4 悬崖和梯度爆炸
      • 8.2.5 长期依赖
      • 8.2.6 非精确梯度
    • 8.3 基本算法
      • 8.3.1 随机梯度下降
      • 8.3.2 动量
      • 8.3.3 Nesterov 动量
    • 8.4 参数初始化策略
    • 8.5 自适应学习率算法
      • 8.5.1 AdaGrad
      • 8.5.2 RMSProp
      • 8.5.3 Adam
      • 8.5.4 选择正确的优化算法
    • 8.6 二阶近似方法
      • 8.6.1 牛顿法
      • 8.6.2 共轭梯度
      • 8.6.3 BFGS
    • 8.7 优化策略和元算法
      • 8.7.1 批标准化
      • 8.7.2 坐标下降
      • 8.7.3 Polyak 平均
      • 8.7.4 监督预训练
      • 8.7.5 设计有助于优化的模型
  • 第9章 卷积网络
    • 9.1 卷积运算
    • 9.2 动机
    • 9.3 池化
    • 9.4 卷积与池化作为一种无限强的先验
    • 9.5 基本卷积函数的变体
    • 9.6 结构化输出
    • 9.7 数据类型
  • 第10章 序列建模:循环和递归网络
    • 10.1 展开计算图
    • 10.2 循环神经网络
      • 10.2.1 导师驱动过程和输出循环网络
      • 10.2.2 计算循环神经网络的梯度
      • 10.2.3 作为有向图模型的循环网络
      • 10.2.4 基于上下文的RNN序列建模
    • 10.3 双向RNN
    • 10.4 基于编码 - 解码的序列到序列架构
    • 10.5 深度循环网络
    • 10.6 递归神经网络
    • 10.7 长期依赖的挑战
    • 10.9 渗漏单元和其他多时间尺度的策略
    • 10.10 长短期记忆和其他门控RNN
      • 10.10.1 LSTM
      • 10.10.2 其他门控RNN
    • 10.11 优化长期依赖
      • 10.11.1 梯度截断
      • 10.11.2 引导信息流的正则化
    • 10.12 外显记忆
  • 第11章 实践方法论
    • 11.1 性能度量
    • 11.2 默认的基准模型
    • 11.3 决定是否收集更多数据
    • 11.4 选择超参数
      • 11.4.1 手动选择超参数
      • 11.4.3 网络搜索
      • 11.4.4 随机搜索
    • 11.5 调试策略
Powered by GitBook
On this page

Was this helpful?

  1. 第10章 序列建模:循环和递归网络
  2. 10.10 长短期记忆和其他门控RNN

10.10.2 其他门控RNN

Previous10.10.1 LSTMNext10.11 优化长期依赖

Last updated 4 years ago

Was this helpful?

LSTM架构中哪些部分是真正必须的? 还可以设计哪些其他成功架构允许网络动态地控制不同单元的时间尺度和遗忘行为?

最近关于门控RNN的工作给出了这些问题的某些答案,其单元也被称为门控循环单元或GRU{cite?}。 与LSTM的主要区别是,单个门控单元同时控制遗忘因子和更新状态单元的决定。

[success]

更新公式如下:

hi(t)=ui(t−1)hi(t−1)+(1−ui(t−1))σ(bi+∑jUi,jxj(t)+∑jWi,jrj(t−1)hj(t−1)),\begin{aligned} h_i^{(t)} = u_i^{(t-1)} h_i^{(t-1)} + (1 - u_i^{(t-1)}) \sigma \Big( b_i + \sum_j U_{i,j} x_j^{(t)} + \sum_j W_{i,j} r_j^{(t-1)} h_j^{(t-1)} \Big), \end{aligned}hi(t)​=ui(t−1)​hi(t−1)​+(1−ui(t−1)​)σ(bi​+j∑​Ui,j​xj(t)​+j∑​Wi,j​rj(t−1)​hj(t−1)​),​

[success] h = 更新门 h + (1 - 更新门) 输入 更新门相当于遗忘门,(1-更新门)相当于输入门。 更新门将遗忘门与输入门联动,相当于历史信息与当前信息的权衡。两者只有其一能较大的影响新的h。 问:输出门去哪了? 答:GRU中没有输出门。GRU和LSTM的一个区别就是,在GRU中,$a^t=C^t$。在LSTM中,$a^t$ = 输出门 * $C^t$ “输入”中包含了复位门。 在其它操作中,通常把x与t-1的h合成一个大的向量。Gate对这个大的向量整体起作用。 而复位门只对输入起作用。 问:为什么要有复位门? 答:复位门代表了$C^t$与$C^{t-1}$的相关度。

其中$u$代表"更新"门,$r$表示"复位"门。 它们的值就如通常所定义的:

ui(t)=σ(biu+∑jUi,juxj(t)+∑jWi,juhj(t)),\begin{aligned} u_i^{(t)} = \sigma \Big( b_i^u + \sum_j U_{i,j}^u x_j^{(t)} + \sum_j W_{i,j}^u h_j^{(t)} \Big), \end{aligned}ui(t)​=σ(biu​+j∑​Ui,ju​xj(t)​+j∑​Wi,ju​hj(t)​),​

和

ri(t)=σ(bir+∑jUi,jrxj(t)+∑jWi,jrhj(t)).\begin{aligned} r_i^{(t)} = \sigma \Big( b_i^r + \sum_j U_{i,j}^r x_j^{(t)} + \sum_j W_{i,j}^r h_j^{(t)} \Big). \end{aligned}ri(t)​=σ(bir​+j∑​Ui,jr​xj(t)​+j∑​Wi,jr​hj(t)​).​

复位和更新门能独立地"忽略"状态向量的一部分。

[warning] [?] 这一段看不懂

更新门像条件渗漏累积器一样可以线性门控任意维度,从而选择将它复制(在sigmoid的一个极端)或完全由新的"目标状态"值(朝向渗漏累积器的收敛方向)替换并完全忽略它(在另一个极端)。 复位门控制当前状态中哪些部分用于计算下一个目标状态,在过去状态和未来状态之间引入了附加的非线性效应。

[success] 更新门将遗忘门与输入门联动,相当于历史信息与当前信息的权衡。两者只有其一能较大的影响新的h。 当u非常接近0时,$C^t$非常接近$C^{(t-1)}$,因此 C能保留很久以前的信息。 GRU的效果 参数少了1/4,不容易发生过拟合。最终效果差不多。 Ng补充:GRU与LSTM的对比:

GRULSTMC^t=tanh(Wc[r∗Ct−1,xt]+bc)C^t=tanh(Wc[at−1,xt]+bc)u=σ(Wu[Ct−1,xt]+bu)u=σ(Wu[at−1,xt]+bu)r=⋯f=σ(Wf[at−1,xt]+bf)o=σ(Wo[at−1,xt]+bo)Ct=u∗C^t+(1−u)∗Ct−1Ct=u∗C^t+f∗Ct−1at=Ctat=o∗Ct\begin{aligned} \text{GRU} && \text{LSTM} \\ \hat C^t = \text{tanh}(W_c[r*C^{t-1}, x^t] + b_c) && \hat C^t = \text{tanh}(W_c[a^{t-1}, x^t] + b_c) \\ u = \sigma(W_u[C^{t-1}, x^t] + b_u) && u = \sigma(W_u[a^{t-1}, x^t] + b_u) \\ r = \cdots && f = \sigma(W_f[a^{t-1}, x^t] + b_f) \\ && o = \sigma(W_o[a^{t-1}, x^t] + b_o) \\ C^t = u * \hat C^t + (1-u)* C^{t-1} && C^t = u * \hat C^t + f * C^{t-1} \\ a^t = C^t && a^t = o * C^t \end{aligned}GRUC^t=tanh(Wc​[r∗Ct−1,xt]+bc​)u=σ(Wu​[Ct−1,xt]+bu​)r=⋯Ct=u∗C^t+(1−u)∗Ct−1at=Ct​​LSTMC^t=tanh(Wc​[at−1,xt]+bc​)u=σ(Wu​[at−1,xt]+bu​)f=σ(Wf​[at−1,xt]+bf​)o=σ(Wo​[at−1,xt]+bo​)Ct=u∗C^t+f∗Ct−1at=o∗Ct​

围绕这一主题可以设计更多的变种。 例如复位门(或遗忘门)的输出可以在多个隐藏单元间共享。 或者,全局门的乘积(覆盖一整组的单元,例如整一层)和一个局部门(每单元)可用于结合全局控制和局部控制。 然而,一些调查发现这些LSTM和GRU架构的变种,在广泛的任务中难以明显地同时击败这两个原始架构{cite?}。 {Greff-et-al-arxiv2015}发现其中的关键因素是遗忘门,而{Jozefowicz-et-al-ICML2015}发现向LSTM遗忘门加入1的偏置(由{Gers-et-al-2000}提倡)能让LSTM变得与已探索的最佳变种一样健壮。

[success] 各种LSTM变种性能的比较 (1) std LSTM works well (2) 将forget gate和input gate联运,参数变少,平均性能没有下降 (3) 去掉peephold,参数量增加,性能没有明显下降 (4) forget gate和output gate对性能很重要。