🎨
Bible-DeepLearning
  • Introduction
  • 第6章 深度前馈网络
    • 6.1 例子:学习XOR
    • 6.2 基于梯度的学习
      • 6.2.1 代价函数
        • 6.2.1.1 使用最大似然学习条件分布
        • 6.2.1.2 学习条件统计量
      • 6.2.2 输出单元
        • 6.2.2.1 用于高斯输出分布的线性神单元
        • 6.2.2.2 用于Bernoulli输出分布的sigmoid单元
        • 6.2.2.3 用于Multinoulli输出分布的softmax单元
    • 6.3 隐藏单元
      • 6.3.1 ReLU及其扩展
      • 6.3.2 logistic sigmoid与双曲正切函数
      • 6.3.3 其他隐藏单元
      • 李宏毅补充 SELU
    • 6.4 架构设计
    • 6.5 反向传播和其他的微分算法
      • 6.5.1 计算图
      • 6.5.2 微积分中的链式法则
      • 6.5.3 递归地使用链式法则来实现反向传播
      • 6.5.4 全连接MLP中的反向传播计算
      • 6.5.5 符号到符号的导数
      • 6.5.6 一般化的反向传播
      • 6.5.7 实例:用于MLP 训练的反向传播
      • 6.5.8 复杂化
  • 第7章 深度学习中的正则化
    • 7.1 参数范数惩罚
      • 7.1.1 L2参数正则化
      • 7.1.2 L1参数正则化
    • 7.2 作为约束的范数惩罚
    • 7.3 正则化和欠约束问题
    • 7.4 数据集增强
    • 7.5 噪声鲁棒性
    • 7.6 半监督学习
    • 7.7 多任务学习
    • 7.8 提前终止
    • 7.9 参数绑定和参数共享
    • 7.10 稀疏表示
    • 7.11 Bagging 和其他集成方法
    • 7.12 Dropout
    • 7.13 对抗训练
    • 7.14 切面距离、正切传播和流形正切分类器
    • Ag补充 一些能用于提升比赛成绩的方法
  • 第8章 深度模型中的优化
    • 8.1 学习和纯优化有什么不同
      • 8.1.1 经验风险最小化
      • 8.1.2 代理损失函数和提前终止
      • 8.1.3 批量算法和小批量算法
    • 8.2 神经网络优化中的挑战
      • 8.2.1 病态
      • 8.2.2 局部极小值
      • 8.2.3 8.2.3 高原、鞍点和其他平坦区域
      • 8.2.4 悬崖和梯度爆炸
      • 8.2.5 长期依赖
      • 8.2.6 非精确梯度
    • 8.3 基本算法
      • 8.3.1 随机梯度下降
      • 8.3.2 动量
      • 8.3.3 Nesterov 动量
    • 8.4 参数初始化策略
    • 8.5 自适应学习率算法
      • 8.5.1 AdaGrad
      • 8.5.2 RMSProp
      • 8.5.3 Adam
      • 8.5.4 选择正确的优化算法
    • 8.6 二阶近似方法
      • 8.6.1 牛顿法
      • 8.6.2 共轭梯度
      • 8.6.3 BFGS
    • 8.7 优化策略和元算法
      • 8.7.1 批标准化
      • 8.7.2 坐标下降
      • 8.7.3 Polyak 平均
      • 8.7.4 监督预训练
      • 8.7.5 设计有助于优化的模型
  • 第9章 卷积网络
    • 9.1 卷积运算
    • 9.2 动机
    • 9.3 池化
    • 9.4 卷积与池化作为一种无限强的先验
    • 9.5 基本卷积函数的变体
    • 9.6 结构化输出
    • 9.7 数据类型
  • 第10章 序列建模:循环和递归网络
    • 10.1 展开计算图
    • 10.2 循环神经网络
      • 10.2.1 导师驱动过程和输出循环网络
      • 10.2.2 计算循环神经网络的梯度
      • 10.2.3 作为有向图模型的循环网络
      • 10.2.4 基于上下文的RNN序列建模
    • 10.3 双向RNN
    • 10.4 基于编码 - 解码的序列到序列架构
    • 10.5 深度循环网络
    • 10.6 递归神经网络
    • 10.7 长期依赖的挑战
    • 10.9 渗漏单元和其他多时间尺度的策略
    • 10.10 长短期记忆和其他门控RNN
      • 10.10.1 LSTM
      • 10.10.2 其他门控RNN
    • 10.11 优化长期依赖
      • 10.11.1 梯度截断
      • 10.11.2 引导信息流的正则化
    • 10.12 外显记忆
  • 第11章 实践方法论
    • 11.1 性能度量
    • 11.2 默认的基准模型
    • 11.3 决定是否收集更多数据
    • 11.4 选择超参数
      • 11.4.1 手动选择超参数
      • 11.4.3 网络搜索
      • 11.4.4 随机搜索
    • 11.5 调试策略
Powered by GitBook
On this page

Was this helpful?

  1. 第10章 序列建模:循环和递归网络
  2. 10.2 循环神经网络

10.2.1 导师驱动过程和输出循环网络

仅在一个时间步的输出和下一个时间步的隐藏单元间存在循环连接的网络(示于\fig?)确实没有那么强大(因为缺乏隐藏到隐藏的循环连接)。 例如,它不能模拟通用图灵机。 因为这个网络缺少隐藏到隐藏的循环,它要求输出单元捕捉用于预测未来的关于过去的所有信息。 因为输出单元明确地训练成匹配训练集的目标,它们不太能捕获关于过去输入历史的必要信息,除非用户知道如何描述系统的全部状态,并将它作为训练目标的一部分。 消除隐藏到隐藏循环的优点在于,任何基于比较时刻$t$的预测和时刻$t$的训练目标的损失函数中的所有时间步都解耦了。 因此训练可以并行化,即在各时刻$t$分别计算梯度。 没有必要先计算前一时刻的输出,因为训练集提供了前一时刻输出的理想值。

[success] 这一段在比较图10.3和图10.4这两种网络的优缺点: 图10.3是“有隐藏到隐藏的循环连接(h->h)”的RNN架构。 它的优点是有t-1时刻的h作为t时刻的输入,而t-1时刻的h能够很好地包含“用于预测未来的关于过去的所有信息”,所以更加强大(能模拟通用图灵机)。[?]但我不明白为什么作者一定要把RNN和图灵机比较。 与之对比的(y->h)使用t-1的y作为输入,t-1的y是努力拟合设计者要求它成为的样子,而不是“捕捉过去的信息”。 图10.4是“消除隐藏到隐藏循环(y->h)”的架构。 它的优点是可以通过“导师驱动”方法(下文会介绍这种方法)使得t时刻与t-1时刻能够同时计算,包括正向求值和反向求导都能在所有时刻实现并行计算。 而h->h无法做到并行计算,必须先计算出t-1的h,才能计算t。

由输出反馈到模型而产生循环连接的模型可用导师驱动过程(teacher forcing)进行训练。 导师驱动过程是从最大似然准则派生出来的一个训练过程,训练模型时,在时刻$t+1$接收真实值$y^{(t)}$作为输入。

[success] 时间步解耦 令$\hat y$为某个时刻的预测输出,y为某个时间的期望输出。 $\hat y$是要在特定时刻算出来的,y是一开始就知道的。 t时刻的计算要依赖t-1时刻的$\hat y$。因此要t-1时刻算完了得到$\hat y$了才能做t时刻的计算。 已知$\hat y$的目标是模拟y,所以直接用y代替$\hat y$作为t时刻的输入。 y是一开始就知道的,不需要等到t-1时刻的计算。 因此t时刻与t-1时刻能够并行计算。

我们可以通过检查两个时间步的序列看清楚这一点。 条件最大似然准则是

[success] 最大似然原则,是要选择最合适的$y^{(2)}$,使得公式10.15达到最大。 在这里$y^{(1)}$、$y^{(2)}$是预测值,即上文中的$\hat y$ 但又为了并行计算,把$\hat y^{(2)}$又替换成了真正的$y^{(2)}$

log⁡p(y(1),y(2)∣x(1),x(2))=log⁡p(y(2)∣y(1),x(1),x(2))+log⁡p(y(1)∣x(1),x(2))(10.15)\begin{aligned} &\log p(y^{(1)},y^{(2)} \mid x^{(1)}, x^{(2)} ) \\ &= \log p(y^{(2)} \mid y^{(1)}, x^{(1)}, x^{(2)} ) + \log p(y^{(1)} \mid x^{(1)}, x^{(2)}) && (10.15) \end{aligned}​logp(y(1),y(2)∣x(1),x(2))=logp(y(2)∣y(1),x(1),x(2))+logp(y(1)∣x(1),x(2))​​(10.15)​

[warning] 这里的y是对应上一节非归一化的对数概率o还是归一化的对数概率$\hat y$? 从名字上看应该是后者。 但在后面的图上,计算L时又用的是o。

在这个例子中,\emph{同时}给定迄今为止的$x$序列和来自训练集的前一$y$值,我们可以看到在时刻$t=2$时,模型被训练为最大化$y^{(2)}$的条件概率。 因此最大似然在训练时指定使用正确的目标值作为反馈,而不是将自己的输出反馈到模型。 如\fig?所示。

我们使用导师驱动过程的最初动机是为了在缺乏隐藏到隐藏连接的模型中避免通过时间反向传播。

[warning] [?]在缺乏隐藏到隐藏连接的模型中避免通过时间反向传播

对于那些存在隐藏到隐藏连接的模型,只要模型一个时间步的输出与下一时间步计算的值存在连接,导师驱动过程仍然可以适用。 只不过,只要隐藏单元成为较早时间步的函数,BPTT算法就是必要的。 因此训练某些模型时可能要同时使用导师驱动过程和BPTT。

[success] 模型中存在y->h,就可以使用导师驱动过程。 模型中存在?->h(?代表t-1时刻的某个输出,而且这个输出只能等t-1时刻算完了才知道,这种场景无法并行计算),就需要使用BPTT。 模型中同时存在y->h和?->h,就会同时使用导师驱动过程和BPTT。

如果之后网络在开环(open-loop)模式下使用,即网络输出(或输出分布的样本)反馈作为输入,那么完全使用导师驱动过程进行训练的缺点就会出现。

[warning] 训练时使用y->h,预测时使用$\hat y$ -> h,这样会出什么问题?

在这种情况下,训练期间该网络看到的输入与测试时看到的会有很大的不同。 减轻此问题的一种方法是同时使用导师驱动过程和自由运行的输入进行训练,例如在展开循环的输出到输入路径上预测若干个步骤之后的正确目标值。

[success] 开环模型:测试时$\hat y$ -> h 导师驱动:训练时y->h 自由运行:训练时$\hat y$ -> h 为了解决“训练期间该网络看到的输入与测试时看到的会有很大的不同”的问题,作者建议结合使用导师驱动和自由运行。即结合使用y和$\hat y$。

[warning] 结合方式1,没看懂。

通过这种方式,网络可以学会考虑在训练时没有接触到的输入条件(如自由运行模式下,自身生成自身),以及将状态映射回使网络几步之后生成正确输出的状态。 另外一种方式{cite?}是通过随机选择生成值或真实的数据值作为输入以减小训练时和测试时看到的输入之间的差别。 这种方法利用了课程学习策略,逐步使用更多生成值作为输入。

[success] 结合方式2,随机的使用y和$\hat y$

Previous10.2 循环神经网络Next10.2.2 计算循环神经网络的梯度

Last updated 5 years ago

Was this helpful?