🎨
Bible-DeepLearning
  • Introduction
  • 第6章 深度前馈网络
    • 6.1 例子:学习XOR
    • 6.2 基于梯度的学习
      • 6.2.1 代价函数
        • 6.2.1.1 使用最大似然学习条件分布
        • 6.2.1.2 学习条件统计量
      • 6.2.2 输出单元
        • 6.2.2.1 用于高斯输出分布的线性神单元
        • 6.2.2.2 用于Bernoulli输出分布的sigmoid单元
        • 6.2.2.3 用于Multinoulli输出分布的softmax单元
    • 6.3 隐藏单元
      • 6.3.1 ReLU及其扩展
      • 6.3.2 logistic sigmoid与双曲正切函数
      • 6.3.3 其他隐藏单元
      • 李宏毅补充 SELU
    • 6.4 架构设计
    • 6.5 反向传播和其他的微分算法
      • 6.5.1 计算图
      • 6.5.2 微积分中的链式法则
      • 6.5.3 递归地使用链式法则来实现反向传播
      • 6.5.4 全连接MLP中的反向传播计算
      • 6.5.5 符号到符号的导数
      • 6.5.6 一般化的反向传播
      • 6.5.7 实例:用于MLP 训练的反向传播
      • 6.5.8 复杂化
  • 第7章 深度学习中的正则化
    • 7.1 参数范数惩罚
      • 7.1.1 L2参数正则化
      • 7.1.2 L1参数正则化
    • 7.2 作为约束的范数惩罚
    • 7.3 正则化和欠约束问题
    • 7.4 数据集增强
    • 7.5 噪声鲁棒性
    • 7.6 半监督学习
    • 7.7 多任务学习
    • 7.8 提前终止
    • 7.9 参数绑定和参数共享
    • 7.10 稀疏表示
    • 7.11 Bagging 和其他集成方法
    • 7.12 Dropout
    • 7.13 对抗训练
    • 7.14 切面距离、正切传播和流形正切分类器
    • Ag补充 一些能用于提升比赛成绩的方法
  • 第8章 深度模型中的优化
    • 8.1 学习和纯优化有什么不同
      • 8.1.1 经验风险最小化
      • 8.1.2 代理损失函数和提前终止
      • 8.1.3 批量算法和小批量算法
    • 8.2 神经网络优化中的挑战
      • 8.2.1 病态
      • 8.2.2 局部极小值
      • 8.2.3 8.2.3 高原、鞍点和其他平坦区域
      • 8.2.4 悬崖和梯度爆炸
      • 8.2.5 长期依赖
      • 8.2.6 非精确梯度
    • 8.3 基本算法
      • 8.3.1 随机梯度下降
      • 8.3.2 动量
      • 8.3.3 Nesterov 动量
    • 8.4 参数初始化策略
    • 8.5 自适应学习率算法
      • 8.5.1 AdaGrad
      • 8.5.2 RMSProp
      • 8.5.3 Adam
      • 8.5.4 选择正确的优化算法
    • 8.6 二阶近似方法
      • 8.6.1 牛顿法
      • 8.6.2 共轭梯度
      • 8.6.3 BFGS
    • 8.7 优化策略和元算法
      • 8.7.1 批标准化
      • 8.7.2 坐标下降
      • 8.7.3 Polyak 平均
      • 8.7.4 监督预训练
      • 8.7.5 设计有助于优化的模型
  • 第9章 卷积网络
    • 9.1 卷积运算
    • 9.2 动机
    • 9.3 池化
    • 9.4 卷积与池化作为一种无限强的先验
    • 9.5 基本卷积函数的变体
    • 9.6 结构化输出
    • 9.7 数据类型
  • 第10章 序列建模:循环和递归网络
    • 10.1 展开计算图
    • 10.2 循环神经网络
      • 10.2.1 导师驱动过程和输出循环网络
      • 10.2.2 计算循环神经网络的梯度
      • 10.2.3 作为有向图模型的循环网络
      • 10.2.4 基于上下文的RNN序列建模
    • 10.3 双向RNN
    • 10.4 基于编码 - 解码的序列到序列架构
    • 10.5 深度循环网络
    • 10.6 递归神经网络
    • 10.7 长期依赖的挑战
    • 10.9 渗漏单元和其他多时间尺度的策略
    • 10.10 长短期记忆和其他门控RNN
      • 10.10.1 LSTM
      • 10.10.2 其他门控RNN
    • 10.11 优化长期依赖
      • 10.11.1 梯度截断
      • 10.11.2 引导信息流的正则化
    • 10.12 外显记忆
  • 第11章 实践方法论
    • 11.1 性能度量
    • 11.2 默认的基准模型
    • 11.3 决定是否收集更多数据
    • 11.4 选择超参数
      • 11.4.1 手动选择超参数
      • 11.4.3 网络搜索
      • 11.4.4 随机搜索
    • 11.5 调试策略
Powered by GitBook
On this page

Was this helpful?

  1. 第10章 序列建模:循环和递归网络

10.2 循环神经网络

Previous10.1 展开计算图Next10.2.1 导师驱动过程和输出循环网络

Last updated 4 years ago

Was this helpful?

基于\sec?中的图展开和参数共享的思想,我们可以设计各种循环神经网络。

循环神经网络中一些重要的设计模式包括以下几种:

  • 每个时间步都有输出,并且隐藏单元之间有循环连接的循环网络,如\fig?所示。

    [success] Elam Network

  • 每个时间步都产生一个输出,只有当前时刻的输出到下个时刻的隐藏单元之间有循环连接的循环网络,如\fig?所示。

    [success] Jordan Network Jordan Network的效果优于Elam Network,因为作为输出的y比h好控制。

  • 隐藏单元之间存在循环连接,但读取整个序列后产生单个输出的循环网络,如\fig?所示。 图10.3是非常具有代表性的例子,我们将会在本章大部分涉及这个例子。

    [success] RNN训练方法: t-1时刻得到的h(有的地方记作a)存在memory中,供t时刻的计算过程使用。 t-1时刻的h和t时刻的x共同决定t时刻的h。 对于t=0时刻,只有x,没有t-1时刻的h,此时要给h一个初值。

[info] 图10.3 计算循环网络 (将$x$值的输入序列映射到输出值$o$的对应序列)训练损失的计算图。 损失$L$衡量每个$o$与相应的训练目标$y$的距离。 当使用softmax输出时,我们假设$o$是未归一化的对数概率。 损失$L$内部计算$\hat{y} = \text{softmax}(o)$,并将其与目标$y$比较。 RNN输入到隐藏的连接由权重矩阵$U$参数化,隐藏到隐藏的循环连接由权重矩阵$W$参数化以及隐藏到输出的连接由权重矩阵$V$参数化。 \eqn?定义了该模型中的前向传播。 \emph{(左)}使用循环连接绘制的RNN和它的损失。 \emph{(右)}同一网络被视为展开的计算图,其中每个节点现在与一个特定的时间实例相关联。

任何图灵可计算的函数都可以通过这样一个有限维的循环网络计算,在这个意义上\fig?和\eqn?的循环神经网络是万能的。 RNN经过若干时间步后读取输出,这与由图灵机所用的时间步是渐近线性的,与输入长度也是渐近线性的{cite?}。 由图灵机计算的函数是离散的,所以这些结果都是函数的具体实现,而不是近似。 RNN作为图灵机使用时,需要一个二进制序列作为输入,其输出必须离散化以提供二进制输出。 利用单个有限大小的特定RNN计算在此设置下的所有函数是可能的({Siegelmann+Sontag-1995}用了886个单元)。 图灵机的"输入"是要计算函数的详细说明(specification),所以模拟此图灵机的相同网络足以应付所有问题。 用于证明的理论RNN可以通过激活和权重(由无限精度的有理数表示)来模拟无限堆栈。

[warning] 图灵机这一段没看懂

现在我们研究\fig?中RNN的前向传播公式。 这个图没有指定隐藏单元的激活函数。 我们假设使用双曲正切激活函数。 此外,图中没有明确指定何种形式的输出和损失函数。 我们假定输出是离散的,如用于预测词或字符的RNN。 表示离散变量的常规方式是把输出$o$作为每个离散变量可能值的非标准化对数概率。

[success] 如果第i个词的概率是$p_i$,不要求$\sum p_i=1$。 o一个向量,$o_i = \log p_i$

然后,我们可以应用softmax函数后续处理后,获得标准化后概率的输出向量$\hat y$。 RNN从特定的初始状态$h^{(0)}$开始前向传播。 从$t= 1$到$t = \tau$的每个时间步,我们应用以下更新方程:

[success] 这里和符号和Ng课程里的符号不太一样。 Ng的公式里没有h,Ng的a就是这里的h。

其中的参数的偏置向量$b$和$c$连同权重矩阵$U$、$V$和$W$,分别对应于输入到隐藏、隐藏到输出和隐藏到隐藏的连接。 这个循环网络将一个输入序列映射到相同长度的输出序列。

[success] $\tau$个输入产生$\tau$个输出。

与$x$序列配对的$y$的总损失就是所有时间步的损失之和。 例如,$L^{(t)}$为给定的$x^{(1)}, \cdots, x^{(t)}$后$y^{(t)}$的负对数似然,则

[success] 这个公式是怎么推出来的?

其中$p_{\text{model}} \big( y^{(t)} \mid { x^{(1)}, \cdots, x^{(t)} } \big) $需要读取模型输出向量$\hat y^{(t)}$中对应于$y^{(t)}$的项。 关于各个参数计算这个损失函数的梯度是计算成本很高的操作。 梯度计算涉及执行一次前向传播(如在\fig?展开图中从左到右的传播),接着是由右到左的反向传播。 运行时间是$O(\tau)$,并且不能通过并行化来降低,因为前向传播图是固有循序的;每个时间步只能一前一后地计算。 前向传播中的各个状态必须保存,直到它们反向传播中被再次使用,因此内存代价也是$O(\tau)$。 应用于展开图且代价为$O(\tau)$的反向传播算法称为通过时间反向传播(back-propagation through time, BPTT),将在\sec?进一步讨论。 因此隐藏单元之间存在循环的网络非常强大但训练代价也很大。 我们是否有其他选择呢?

a(t)=b+Wh(t−1)+Ux(t),h(t)=tanh⁡(a(t)),o(t)=c+Vh(t),y^(t)=softmax(o(t)),\begin{aligned} a^{(t)} &= b + W h^{(t-1)} + U x^{(t)}, \\ h^{(t)} &= \tanh(a^{(t)} ), \\ o^{(t)} &= c + V h^{(t)}, \\ \hat y^{(t)} &= \text{softmax}(o^{(t)}), \end{aligned}a(t)h(t)o(t)y^​(t)​=b+Wh(t−1)+Ux(t),=tanh(a(t)),=c+Vh(t),=softmax(o(t)),​
L({x(1),⋯ ,x(τ)},{y(1),⋯ ,y(τ)})=∑tL(t)=−∑tlog⁡pmodel(y(t)∣{x(1),⋯ ,x(t)}),\begin{aligned} & L\big( \{ x^{(1)}, \cdots, x^{(\tau)} \}, \{ y^{(1)}, \cdots, y^{(\tau)} \} \big) \\ & = \sum_t L^{(t)} \\ & = - \sum_t \log p_{\text{model}} \big( y^{(t)} \mid \{ x^{(1)}, \cdots, x^{(t)} \} \big) , \end{aligned}​L({x(1),⋯,x(τ)},{y(1),⋯,y(τ)})=t∑​L(t)=−t∑​logpmodel​(y(t)∣{x(1),⋯,x(t)}),​