🎨
Bible-DeepLearning
  • Introduction
  • 第6章 深度前馈网络
    • 6.1 例子:学习XOR
    • 6.2 基于梯度的学习
      • 6.2.1 代价函数
        • 6.2.1.1 使用最大似然学习条件分布
        • 6.2.1.2 学习条件统计量
      • 6.2.2 输出单元
        • 6.2.2.1 用于高斯输出分布的线性神单元
        • 6.2.2.2 用于Bernoulli输出分布的sigmoid单元
        • 6.2.2.3 用于Multinoulli输出分布的softmax单元
    • 6.3 隐藏单元
      • 6.3.1 ReLU及其扩展
      • 6.3.2 logistic sigmoid与双曲正切函数
      • 6.3.3 其他隐藏单元
      • 李宏毅补充 SELU
    • 6.4 架构设计
    • 6.5 反向传播和其他的微分算法
      • 6.5.1 计算图
      • 6.5.2 微积分中的链式法则
      • 6.5.3 递归地使用链式法则来实现反向传播
      • 6.5.4 全连接MLP中的反向传播计算
      • 6.5.5 符号到符号的导数
      • 6.5.6 一般化的反向传播
      • 6.5.7 实例:用于MLP 训练的反向传播
      • 6.5.8 复杂化
  • 第7章 深度学习中的正则化
    • 7.1 参数范数惩罚
      • 7.1.1 L2参数正则化
      • 7.1.2 L1参数正则化
    • 7.2 作为约束的范数惩罚
    • 7.3 正则化和欠约束问题
    • 7.4 数据集增强
    • 7.5 噪声鲁棒性
    • 7.6 半监督学习
    • 7.7 多任务学习
    • 7.8 提前终止
    • 7.9 参数绑定和参数共享
    • 7.10 稀疏表示
    • 7.11 Bagging 和其他集成方法
    • 7.12 Dropout
    • 7.13 对抗训练
    • 7.14 切面距离、正切传播和流形正切分类器
    • Ag补充 一些能用于提升比赛成绩的方法
  • 第8章 深度模型中的优化
    • 8.1 学习和纯优化有什么不同
      • 8.1.1 经验风险最小化
      • 8.1.2 代理损失函数和提前终止
      • 8.1.3 批量算法和小批量算法
    • 8.2 神经网络优化中的挑战
      • 8.2.1 病态
      • 8.2.2 局部极小值
      • 8.2.3 8.2.3 高原、鞍点和其他平坦区域
      • 8.2.4 悬崖和梯度爆炸
      • 8.2.5 长期依赖
      • 8.2.6 非精确梯度
    • 8.3 基本算法
      • 8.3.1 随机梯度下降
      • 8.3.2 动量
      • 8.3.3 Nesterov 动量
    • 8.4 参数初始化策略
    • 8.5 自适应学习率算法
      • 8.5.1 AdaGrad
      • 8.5.2 RMSProp
      • 8.5.3 Adam
      • 8.5.4 选择正确的优化算法
    • 8.6 二阶近似方法
      • 8.6.1 牛顿法
      • 8.6.2 共轭梯度
      • 8.6.3 BFGS
    • 8.7 优化策略和元算法
      • 8.7.1 批标准化
      • 8.7.2 坐标下降
      • 8.7.3 Polyak 平均
      • 8.7.4 监督预训练
      • 8.7.5 设计有助于优化的模型
  • 第9章 卷积网络
    • 9.1 卷积运算
    • 9.2 动机
    • 9.3 池化
    • 9.4 卷积与池化作为一种无限强的先验
    • 9.5 基本卷积函数的变体
    • 9.6 结构化输出
    • 9.7 数据类型
  • 第10章 序列建模:循环和递归网络
    • 10.1 展开计算图
    • 10.2 循环神经网络
      • 10.2.1 导师驱动过程和输出循环网络
      • 10.2.2 计算循环神经网络的梯度
      • 10.2.3 作为有向图模型的循环网络
      • 10.2.4 基于上下文的RNN序列建模
    • 10.3 双向RNN
    • 10.4 基于编码 - 解码的序列到序列架构
    • 10.5 深度循环网络
    • 10.6 递归神经网络
    • 10.7 长期依赖的挑战
    • 10.9 渗漏单元和其他多时间尺度的策略
    • 10.10 长短期记忆和其他门控RNN
      • 10.10.1 LSTM
      • 10.10.2 其他门控RNN
    • 10.11 优化长期依赖
      • 10.11.1 梯度截断
      • 10.11.2 引导信息流的正则化
    • 10.12 外显记忆
  • 第11章 实践方法论
    • 11.1 性能度量
    • 11.2 默认的基准模型
    • 11.3 决定是否收集更多数据
    • 11.4 选择超参数
      • 11.4.1 手动选择超参数
      • 11.4.3 网络搜索
      • 11.4.4 随机搜索
    • 11.5 调试策略
Powered by GitBook
On this page

Was this helpful?

  1. 第6章 深度前馈网络
  2. 6.5 反向传播和其他的微分算法

6.5.4 全连接MLP中的反向传播计算

Previous6.5.3 递归地使用链式法则来实现反向传播Next6.5.5 符号到符号的导数

Last updated 5 years ago

Was this helpful?

损失函数

$L(\hat y, y)$

总代价

J

$J= L(\hat y, y) + \lambda \Omega(\theta)$

正则项

$\Omega(\theta)$

$\theta$包含所有参数(权重和偏置

模型的权重矩阵

$W^l$

模型的偏置参数

$b^l$

程序的输出

x

目标输出

y

实际输出

$\hat y$

网络的深度

L

某一层的输出

$h^l$

同时也是下一层的输入。 书上用的是h,我有时候会写成a

某一层的加权输入

$z^l$

书上用的是a,我更喜欢用z

为了阐明反向传播的上述定义,让我们考虑一个与全连接的多层MLP相关联的特定图。

[success] 这一节是反向传播算法在MLP上的具体应用。 只是主要流程。具体的计算过程涉及到一些数学基础。

算法6.3首先给出了前向传播,它将参数映射到与单个训练样本(输入,目标)$(x,y)$相关联的监督损失函数$L(\hat{y}, y)$,其中$\hat{y}$是当$x$提供输入时神经网络的输出。

[success] 算法6.3通过正向传播计算每一层的unit的加权输入z和激活输出h。

h_0 = x
for l = 1,...,L do:
    z_k = b_k + W_k.dot(h_(k-1))
    h_k = f(z_k)
end for
y_hat = h_L
J = L(y_hat, y) + lambda * omega(theta)

算法6.4随后说明了将反向传播应用于该图所需的相关计算。

ghL=∂L(y^,y)∂hL=∇y^L(y^,y)gzL=∂L(y^,y)∂zL=∂L(y^,y)∂hL∂hL∂zL=ghL⨀f′(zL)∇WLJ=∂L(y^,y)∂WL+∂λΩ(θ)∂WL=∂L(y^,y)∂zL∂zL∂WL+∂λΩ(θ)∂WL=gzL(xL)T+λ∇WLΩ(θ)=gzL(hL−1)T+λ∇WLΩ(θ)∇bLJ=∂L(y^,y)∂bL+∂λΩ(θ)∂bL=∂L(y^,y)∂zL∂zL∂bL+∂λΩ(θ)∂bL=gzL+λ∇bLΩ(θ)\begin{aligned} gh^L & = & \frac{\partial L(\hat y, y)}{\partial h^L} = \nabla_{\hat y}L(\hat y, y)\\ gz^L & = & \frac{\partial L(\hat y, y)}{\partial z^L} = \frac{\partial L(\hat y, y)}{\partial h^L}\frac{\partial h^L}{\partial z^L} = gh^L \bigodot f'(z^L) \\ \nabla_{W^L}J & = & \frac{\partial L(\hat y, y)}{\partial W^L} + \frac{\partial \lambda \Omega(\theta)}{\partial W^L} = \frac{\partial L(\hat y, y)}{\partial z^L} \frac{\partial z^L}{\partial W^L}+ \frac{\partial \lambda \Omega(\theta)}{\partial W^L} \\ & = & gz^L (x^L)^T + \lambda \nabla_{W^L}\Omega(\theta) = gz^L(h^{L-1})^T + \lambda \nabla_{W^L}\Omega(\theta) \\ \nabla_{b^L}J & = & \frac{\partial L(\hat y, y)}{\partial b^L} + \frac{\partial \lambda \Omega(\theta)}{\partial b^L} = \frac{\partial L(\hat y, y)}{\partial z^L} \frac{\partial z^L}{\partial b^L}+ \frac{\partial \lambda \Omega(\theta)}{\partial b^L} \\ & = & gz^L + \lambda \nabla_{b^L}\Omega(\theta) \end{aligned}ghLgzL∇WL​J∇bL​J​======​∂hL∂L(y^​,y)​=∇y^​​L(y^​,y)∂zL∂L(y^​,y)​=∂hL∂L(y^​,y)​∂zL∂hL​=ghL⨀f′(zL)∂WL∂L(y^​,y)​+∂WL∂λΩ(θ)​=∂zL∂L(y^​,y)​∂WL∂zL​+∂WL∂λΩ(θ)​gzL(xL)T+λ∇WL​Ω(θ)=gzL(hL−1)T+λ∇WL​Ω(θ)∂bL∂L(y^​,y)​+∂bL∂λΩ(θ)​=∂zL∂L(y^​,y)​∂bL∂zL​+∂bL∂λΩ(θ)​gzL+λ∇bL​Ω(θ)​

根据定义计算第l层的情况 for l = L-1, ..., 1 do:

ghl=∂L(y^,y)∂hl=∑i∂L(y^,y)∂zil+1∂zil+1∂hl=∑i∂L(y^,y)∂zil+1∂zil+1∂xl+1=(Wl+1)Tgzl+1gzl=∂L(y^,y)∂zl=∂L(y^,y)∂hil∂hl∂zl=ghl⨀f′(zl)∇WlJ=gzl(hl−1)T+λ∇WlΩ(θ)∇blJ=gzl+λ∇blΩ(θ)\begin{aligned} gh^l & = & \frac{\partial L(\hat y, y)}{\partial h^l} = \sum_i \frac{\partial L(\hat y, y)}{\partial z^{l+1}_i}\frac{\partial z^{l+1}_i}{\partial h^l} = \sum_i \frac{\partial L(\hat y, y)}{\partial z^{l+1}_i}\frac{\partial z^{l+1}_i}{\partial x^{l+1}} \\ & = &(W^{l+1})^Tgz^{l+1} \\ gz^l & = & \frac{\partial L(\hat y, y)}{\partial z^l} = \frac{\partial L(\hat y, y)}{\partial h^{l}_i}\frac{\partial h^{l}}{\partial z^l} = gh^l \bigodot f'(z^l) \\ \nabla_{W^l}J & = & gz^l(h^{l-1})^T + \lambda \nabla_{W^l}\Omega(\theta) \\ \nabla_{b^l}J & = & gz^l + \lambda \nabla_{b^l}\Omega(\theta) \end{aligned}ghlgzl∇Wl​J∇bl​J​=====​∂hl∂L(y^​,y)​=i∑​∂zil+1​∂L(y^​,y)​∂hl∂zil+1​​=i∑​∂zil+1​∂L(y^​,y)​∂xl+1∂zil+1​​(Wl+1)Tgzl+1∂zl∂L(y^​,y)​=∂hil​∂L(y^​,y)​∂zl∂hl​=ghl⨀f′(zl)gzl(hl−1)T+λ∇Wl​Ω(θ)gzl+λ∇bl​Ω(θ)​

算法6.3和算法6.4是简单而直观的演示。 然而,它们专门针对特定的问题。

现在的软件实现基于之后第6.5.6节中描述的一般形式的反向传播,它可以通过显式地操作表示符号计算的数据结构,来适应任何计算图。

[success] 算法6.4通过反向传播计算每一层的unit的h的偏导、z的偏导、w的偏导、b的偏导。 书上的g有两个用处,为了区分,我把它的两个用处分别用gh和gz gh为损失函数L(\hat y, y)对输出h^l的偏导。 gz为损失函数L(\hat y, y)对加权输入z^l的偏导。 w的偏导为总代价J对权重矩阵W^l的偏导。 b的偏导为总代价J对偏置参数|b^l的偏导。 根据定义计算第L层的情况 第L层的特殊在于$h^L = \hat y$

公式中的f'(z^l)是主要的计算量。 计算出来的是一个矩阵,称为。

Jacobian矩阵