🎨
Bible-DeepLearning
  • Introduction
  • 第6章 深度前馈网络
    • 6.1 例子:学习XOR
    • 6.2 基于梯度的学习
      • 6.2.1 代价函数
        • 6.2.1.1 使用最大似然学习条件分布
        • 6.2.1.2 学习条件统计量
      • 6.2.2 输出单元
        • 6.2.2.1 用于高斯输出分布的线性神单元
        • 6.2.2.2 用于Bernoulli输出分布的sigmoid单元
        • 6.2.2.3 用于Multinoulli输出分布的softmax单元
    • 6.3 隐藏单元
      • 6.3.1 ReLU及其扩展
      • 6.3.2 logistic sigmoid与双曲正切函数
      • 6.3.3 其他隐藏单元
      • 李宏毅补充 SELU
    • 6.4 架构设计
    • 6.5 反向传播和其他的微分算法
      • 6.5.1 计算图
      • 6.5.2 微积分中的链式法则
      • 6.5.3 递归地使用链式法则来实现反向传播
      • 6.5.4 全连接MLP中的反向传播计算
      • 6.5.5 符号到符号的导数
      • 6.5.6 一般化的反向传播
      • 6.5.7 实例:用于MLP 训练的反向传播
      • 6.5.8 复杂化
  • 第7章 深度学习中的正则化
    • 7.1 参数范数惩罚
      • 7.1.1 L2参数正则化
      • 7.1.2 L1参数正则化
    • 7.2 作为约束的范数惩罚
    • 7.3 正则化和欠约束问题
    • 7.4 数据集增强
    • 7.5 噪声鲁棒性
    • 7.6 半监督学习
    • 7.7 多任务学习
    • 7.8 提前终止
    • 7.9 参数绑定和参数共享
    • 7.10 稀疏表示
    • 7.11 Bagging 和其他集成方法
    • 7.12 Dropout
    • 7.13 对抗训练
    • 7.14 切面距离、正切传播和流形正切分类器
    • Ag补充 一些能用于提升比赛成绩的方法
  • 第8章 深度模型中的优化
    • 8.1 学习和纯优化有什么不同
      • 8.1.1 经验风险最小化
      • 8.1.2 代理损失函数和提前终止
      • 8.1.3 批量算法和小批量算法
    • 8.2 神经网络优化中的挑战
      • 8.2.1 病态
      • 8.2.2 局部极小值
      • 8.2.3 8.2.3 高原、鞍点和其他平坦区域
      • 8.2.4 悬崖和梯度爆炸
      • 8.2.5 长期依赖
      • 8.2.6 非精确梯度
    • 8.3 基本算法
      • 8.3.1 随机梯度下降
      • 8.3.2 动量
      • 8.3.3 Nesterov 动量
    • 8.4 参数初始化策略
    • 8.5 自适应学习率算法
      • 8.5.1 AdaGrad
      • 8.5.2 RMSProp
      • 8.5.3 Adam
      • 8.5.4 选择正确的优化算法
    • 8.6 二阶近似方法
      • 8.6.1 牛顿法
      • 8.6.2 共轭梯度
      • 8.6.3 BFGS
    • 8.7 优化策略和元算法
      • 8.7.1 批标准化
      • 8.7.2 坐标下降
      • 8.7.3 Polyak 平均
      • 8.7.4 监督预训练
      • 8.7.5 设计有助于优化的模型
  • 第9章 卷积网络
    • 9.1 卷积运算
    • 9.2 动机
    • 9.3 池化
    • 9.4 卷积与池化作为一种无限强的先验
    • 9.5 基本卷积函数的变体
    • 9.6 结构化输出
    • 9.7 数据类型
  • 第10章 序列建模:循环和递归网络
    • 10.1 展开计算图
    • 10.2 循环神经网络
      • 10.2.1 导师驱动过程和输出循环网络
      • 10.2.2 计算循环神经网络的梯度
      • 10.2.3 作为有向图模型的循环网络
      • 10.2.4 基于上下文的RNN序列建模
    • 10.3 双向RNN
    • 10.4 基于编码 - 解码的序列到序列架构
    • 10.5 深度循环网络
    • 10.6 递归神经网络
    • 10.7 长期依赖的挑战
    • 10.9 渗漏单元和其他多时间尺度的策略
    • 10.10 长短期记忆和其他门控RNN
      • 10.10.1 LSTM
      • 10.10.2 其他门控RNN
    • 10.11 优化长期依赖
      • 10.11.1 梯度截断
      • 10.11.2 引导信息流的正则化
    • 10.12 外显记忆
  • 第11章 实践方法论
    • 11.1 性能度量
    • 11.2 默认的基准模型
    • 11.3 决定是否收集更多数据
    • 11.4 选择超参数
      • 11.4.1 手动选择超参数
      • 11.4.3 网络搜索
      • 11.4.4 随机搜索
    • 11.5 调试策略
Powered by GitBook
On this page

Was this helpful?

  1. 第6章 深度前馈网络
  2. 6.5 反向传播和其他的微分算法

6.5.3 递归地使用链式法则来实现反向传播

Previous6.5.2 微积分中的链式法则Next6.5.4 全连接MLP中的反向传播计算

Last updated 5 years ago

Was this helpful?

使用链式规则,我们可以直接写出某个标量关于计算图中任何产生该标量的节点的梯度的代数表达式。 然而,实际在计算机中计算该表达式时会引入一些额外的考虑。

具体来说,许多子表达式可能在梯度的整个表达式中重复若干次。 任何计算梯度的程序都需要选择是存储这些子表达式还是重新计算它们几次。 图6.9给出了一个例子来说明这些重复的子表达式是如何出现的。 在某些情况下,计算两次相同的子表达式纯粹是浪费。 在复杂图中,可能存在指数多的这种计算上的浪费,使得简单的链式法则不可实现。 在其他情况下,计算两次相同的子表达式可能是以较高的运行时间为代价来减少内存开销的有效手段。

[success] 基于计算图前向传播计算偏微分 假设要根据上图计算b对e的偏微分$\frac{\partial e}{\partial b}$,可以这样做: (1)依次求出b、c、d、e上的值。 (2)依次求出b到e的链路上任意两个相邻结点的偏微分 $\frac{\partial e}{\partial c}$、$\frac{\partial e}{\partial d}$、$\frac{\partial c}{\partial b}$、$\frac{\partial d}{\partial b}$ (3) 令b上的值为1,记作{b}(不是b的值)、代表b对该结点的微分。 (4) 用计算{c}、{d}、{e} (5) {e}就是要求的b对e的微分。 假如现在要求a对e的偏微分$\frac{\partial e}{\partial a}$,可以继续使用上面过程中(1)、(2)的结果,然后令{a}=1,重新计算出{e} 在分别求$\frac{\partial e}{\partial a}$和$\frac{\partial e}{\partial b}$的过程中,虽然重复使用了(1)、(2)的结果, 但分别计算{e}时仍存在重复的计算,比如由{c}计算{e}的这一步。 在实际的前馈网络求参数偏导的过程中,一般都是这种情况,偏导的分子相同,分母不同。 如果所有参数偏导的计算都使用以上过程,都产生大量的重复计算。

我们首先给出一个版本的反向传播算法,它指明了梯度的直接计算方式(算法6.2以及相关的正向计算的算法6.1),按照它实际完成的顺序并且递归地使用链式法则。

[success] 基于计算图反向传播计算偏微分 (1)依次求出a、b、c、d、e上的值。 (2)依次求出b到e的链路上任意两个相邻结点的偏微分 $\frac{\partial e}{\partial c}$、$\frac{\partial e}{\partial d}$、$\frac{\partial c}{\partial b}$、$\frac{\partial d}{\partial b}$ (3) 令e上的值为1,记作{e}(不是e的值)、代表该结点对e的微分。 (4) 用计算{c}、{d}、{b}、{a} (5) {a}、{b}分别是a、b对e的微分。 这样就一次性求出了多个偏微分。

我们可以直接执行这些计算或者将算法的描述视为用于计算反向传播的计算图的符号表示。 然而,这些公式并没有明确地操作和构造用于计算梯度的符号图。 这些公式将在后面的第6.5.6节和算法6.5中给出,其中我们还推广到了包含任意张量的节点。

[warning] ?[?] 这一段看不懂

首先考虑描述如何计算单个标量$u^{(n)}$(例如训练样本上的损失函数)的计算图。 我们想要计算这个标量对$n_i$个输入节点$u^{(1)}$到$u^{(n_i)}$的梯度。

[success] 看到这里时,先不要把前馈网络中的Backproc算法联系起来。这里只是将“根据计算图计算梯度“的过程描述得更具体一些。 这部分的内容是为了给backprop算法做铺垫的,但不要混淆。 感觉这段文字把算法6.1讲复杂了,其实就是上面例子中的过程。

换句话说,我们希望对所有的$i\in{1,2,\ldots,n_i}$计算$\frac{\partial u^{(n)}}{\partial u^{(i)}}$。 在使用反向传播计算梯度来实现参数的梯度下降时,$u^{(n)}$将对应单个或者小批量实例的代价函数,而$u^{(1)}$到$u^{(n_i)}$则对应于模型的参数。

我们假设图的节点已经以一种特殊的方式被排序,使得我们可以一个接一个地计算他们的输出,从$u^{(n_i+1)}$开始,一直上升到$u^{(n)}$。 如算法6.1中所定义的,每个节点$u^{(i)}$与操作$f^{(i)}$相关联,并且通过对以下函数求值来得到

u(i)=f(A(i)),\begin{aligned} u^{(i)} = f(A^{(i)}), \end{aligned}u(i)=f(A(i)),​

其中$A^{(i)}$是$u^{(i)}$所有父节点的集合。

[success] 以上图作为例子。假设所有结点按照上图的方式排列。 以$i=c$为例,那么$A^{(i)} = {a,b}$ $u^{(i)} = f({a, b}) = a + b$

[success] 算法6.1 正向传播算法 已知$F^L = f^L(f^{L-1}(f^{\cdots}(f^1(x))))$ 可知,要计算$F^L$,先要得到x,并计算$F^1(x), F^2(x), \cdots$ 正向传播就是信息从x传递到$F^L$的过程。 同理,在计算$F^{L-1}$时也要先$F^1(x), F^2(x), \cdots$ 算法6.1想说明的是: 不需要每次都从$F^1(x), F^2(x), \cdots$开始计算。 可以按照层递进,沿着正向一层一层地往前算,每算完一层就把这一层的结果记下来。 计算下一层时直接在上一层结果的基础上进行计算。 每一层的中间结果存下来,增加了内存的消耗。 但避免重复计算,减少了运行时间。

该算法详细说明了前向传播的计算,我们可以将其放入图$G$中。 为了执行反向传播,我们可以构造一个依赖于$G$并添加额外一组节点的计算图。 这形成了一个子图$B$,它的每个节点都是$G$的节点。

[warning] 图B和图G在哪?

$B$中的计算和$G$中的计算顺序完全相反,而且$B$中的每个节点计算导数$\frac{\partial u^{(n)}}{\partial u^{(i)}}$与前向图中的节点$u^{(i)}$相关联。 这通过对标量输出$u^{(n)}$使用链式法则来完成:

[warning] 这个公式是不是有点总是?i怎么会属于$Pa(u^{(i)})$呢?

[success] 仍以上图为例。并假设j=b,在原图的反向图中,Pa(j)={c, d} $\frac{\partial e}{\partial b} = \frac{\partial e}{\partial c} \frac{\partial e}{\partial d}$

这在算法6.2中详细说明。 子图$B$恰好包含每一条对应着$G$中从节点$u^{(j)}$到节点$u^{(i)}$的边。 从$u^{(j)}$到$u^{(i)}$的边对应着计算$\frac{\partial u^{(i)}}{\partial u^{(j)}}$。 另外,对于每个节点都要执行一个内积,内积的一个因子是对于$u^{j}$子节点$u^{(i)}$的已经计算的梯度,另一个因子是对于相同子节点$u^{(i)}$ 的偏导数$\frac{\partial u^{(i)}}{\partial u^{(j)}}$组成的向量。

[success] $\frac{\partial e}{\partial c}$和$\frac{\partial e}{\partial d}$都是向量,因此它们的乘法叫内积。

总而言之,执行反向传播所需的计算量与$G$中的边的数量成比例,其中每条边的计算包括计算偏导数(节点关于它的一个父节点的偏导数)以及执行一次乘法和一次加法。 下面,我们将此分析推广到张量值节点,这只是在同一节点中对多个标量值进行分组并能够更高效地实现。

再计算第L-2层的偏导:

不需要继续算到第1层了,仅观察第L-1层和L-2层的偏导,就会发现L-2层的偏导需要用到L-1层的偏导结果。 这与计算$F^L$的过程是非常相似的。 只不过这次是信息从代价函数传递到x的过程,因此称为反向传播。 算法6.2想说明的是: 不需要每次都从第L-1、L-2、...的偏导开始计算。 可以按照层递进,沿着反向一层一层地往后算,每算完一层就把这一层的结果记下来。 计算上一层时直接在下一层结果的基础上进行计算。 每一层的中间结果存下来,增加了内存的消耗。 但避免重复计算,减少了运行时间。

反向传播算法被设计为减少公共子表达式的数量而不考虑存储的开销。 具体来说,它大约对图中的每个节点执行一个Jacobian乘积。 这可以从算法6.2中看出,反向传播算法访问了图中的节点$u^{(j)}$到节点$u^{(i)}$的每条边一次,以获得相关的偏导数$\frac{\partial u^{(i)}}{\partial u^{(j)}}$。 反向传播因此避免了重复子表达式的指数爆炸。 然而,其他算法可能通过对计算图进行简化来避免更多的子表达式,或者也可能通过重新计算而不是存储这些子表达式来节省内存。 我们将在描述完反向传播算法本身后再重新审视这些想法。

∂u(n)∂u(j)=∑i:j∈Pa(u(i))∂u(n)∂u(i)∂u(i)∂u(j)\begin{aligned} \frac{\partial u^{(n)}}{\partial u^{(j)}} = \sum_{i:j \in Pa(u^{(i)})} \frac{\partial u^{(n)} }{ \partial u^{(i)} } \frac{ \partial u^{(i)} }{ \partial u^{(j)} } \end{aligned}∂u(j)∂u(n)​=i:j∈Pa(u(i))∑​∂u(i)∂u(n)​∂u(j)∂u(i)​​

[success] 算法6.2 反向传播算法 Note:中文版中算法6.2的内容跑到6.5.4节去了 反向传播算法和正向传播算法的思想是一样的。 根据来计算每个unit的偏导。 先计算第L-1层的偏导:

∂uL∂uiL−1=(FL)′(uiL−1)\frac{\partial u^L}{\partial u^{L-1}_i} = (F^L)'(u^{L-1}_i)∂uiL−1​∂uL​=(FL)′(uiL−1​)
∂uL∂ujL−2=∑i∂uL∂uiL−1∂uiL−1∂ujL−2\frac{\partial u^L}{\partial u^{L-2}_j} = \sum_i \frac{\partial u^L}{\partial u^{L-1}_i} \frac{\partial u^{L-1}_i}{\partial u^{L-2}_j}∂ujL−2​∂uL​=i∑​∂uiL−1​∂uL​∂ujL−2​∂uiL−1​​

[success] 反向传播的原理: 由可知:偏导可以表示为多个子项相乘的结果。 这些子项可能会被计算多次。对于这些子项,是“1. 作为中间结果存储下来”,还是“2.每次都重新计算”? 选择前者,意味着高内存开销,选择后者,意味着高运行时间。 反向传播算法选择了前者,牺牲一部分内存,减少运行时间。 在实际使用的过程中,根据实际情况,也可以选择牺牲运行时间,减少内存。

微积分中的链式法则
微积分中的链式法则
相乘和相加的计算方法
相乘和相加的计算方法