🎨
Bible-DeepLearning
  • Introduction
  • 第6章 深度前馈网络
    • 6.1 例子:学习XOR
    • 6.2 基于梯度的学习
      • 6.2.1 代价函数
        • 6.2.1.1 使用最大似然学习条件分布
        • 6.2.1.2 学习条件统计量
      • 6.2.2 输出单元
        • 6.2.2.1 用于高斯输出分布的线性神单元
        • 6.2.2.2 用于Bernoulli输出分布的sigmoid单元
        • 6.2.2.3 用于Multinoulli输出分布的softmax单元
    • 6.3 隐藏单元
      • 6.3.1 ReLU及其扩展
      • 6.3.2 logistic sigmoid与双曲正切函数
      • 6.3.3 其他隐藏单元
      • 李宏毅补充 SELU
    • 6.4 架构设计
    • 6.5 反向传播和其他的微分算法
      • 6.5.1 计算图
      • 6.5.2 微积分中的链式法则
      • 6.5.3 递归地使用链式法则来实现反向传播
      • 6.5.4 全连接MLP中的反向传播计算
      • 6.5.5 符号到符号的导数
      • 6.5.6 一般化的反向传播
      • 6.5.7 实例:用于MLP 训练的反向传播
      • 6.5.8 复杂化
  • 第7章 深度学习中的正则化
    • 7.1 参数范数惩罚
      • 7.1.1 L2参数正则化
      • 7.1.2 L1参数正则化
    • 7.2 作为约束的范数惩罚
    • 7.3 正则化和欠约束问题
    • 7.4 数据集增强
    • 7.5 噪声鲁棒性
    • 7.6 半监督学习
    • 7.7 多任务学习
    • 7.8 提前终止
    • 7.9 参数绑定和参数共享
    • 7.10 稀疏表示
    • 7.11 Bagging 和其他集成方法
    • 7.12 Dropout
    • 7.13 对抗训练
    • 7.14 切面距离、正切传播和流形正切分类器
    • Ag补充 一些能用于提升比赛成绩的方法
  • 第8章 深度模型中的优化
    • 8.1 学习和纯优化有什么不同
      • 8.1.1 经验风险最小化
      • 8.1.2 代理损失函数和提前终止
      • 8.1.3 批量算法和小批量算法
    • 8.2 神经网络优化中的挑战
      • 8.2.1 病态
      • 8.2.2 局部极小值
      • 8.2.3 8.2.3 高原、鞍点和其他平坦区域
      • 8.2.4 悬崖和梯度爆炸
      • 8.2.5 长期依赖
      • 8.2.6 非精确梯度
    • 8.3 基本算法
      • 8.3.1 随机梯度下降
      • 8.3.2 动量
      • 8.3.3 Nesterov 动量
    • 8.4 参数初始化策略
    • 8.5 自适应学习率算法
      • 8.5.1 AdaGrad
      • 8.5.2 RMSProp
      • 8.5.3 Adam
      • 8.5.4 选择正确的优化算法
    • 8.6 二阶近似方法
      • 8.6.1 牛顿法
      • 8.6.2 共轭梯度
      • 8.6.3 BFGS
    • 8.7 优化策略和元算法
      • 8.7.1 批标准化
      • 8.7.2 坐标下降
      • 8.7.3 Polyak 平均
      • 8.7.4 监督预训练
      • 8.7.5 设计有助于优化的模型
  • 第9章 卷积网络
    • 9.1 卷积运算
    • 9.2 动机
    • 9.3 池化
    • 9.4 卷积与池化作为一种无限强的先验
    • 9.5 基本卷积函数的变体
    • 9.6 结构化输出
    • 9.7 数据类型
  • 第10章 序列建模:循环和递归网络
    • 10.1 展开计算图
    • 10.2 循环神经网络
      • 10.2.1 导师驱动过程和输出循环网络
      • 10.2.2 计算循环神经网络的梯度
      • 10.2.3 作为有向图模型的循环网络
      • 10.2.4 基于上下文的RNN序列建模
    • 10.3 双向RNN
    • 10.4 基于编码 - 解码的序列到序列架构
    • 10.5 深度循环网络
    • 10.6 递归神经网络
    • 10.7 长期依赖的挑战
    • 10.9 渗漏单元和其他多时间尺度的策略
    • 10.10 长短期记忆和其他门控RNN
      • 10.10.1 LSTM
      • 10.10.2 其他门控RNN
    • 10.11 优化长期依赖
      • 10.11.1 梯度截断
      • 10.11.2 引导信息流的正则化
    • 10.12 外显记忆
  • 第11章 实践方法论
    • 11.1 性能度量
    • 11.2 默认的基准模型
    • 11.3 决定是否收集更多数据
    • 11.4 选择超参数
      • 11.4.1 手动选择超参数
      • 11.4.3 网络搜索
      • 11.4.4 随机搜索
    • 11.5 调试策略
Powered by GitBook
On this page

Was this helpful?

  1. 第8章 深度模型中的优化
  2. 8.6 二阶近似方法

8.6.2 共轭梯度

Previous8.6 二阶近似方法Next8.6.3 BFGS

Last updated 5 years ago

Was this helpful?

共轭梯度法是一种通过迭代下降的共轭方向以有效避免\,Hessian\,矩阵求逆计算的方法。

[warning] 共轭方向?

这种方法的灵感来自于对最速下降方法弱点的仔细研究(详细信息请查看\sec?),其中线搜索迭代地用于与梯度相关的方向上。

[warning] [?] 最速下降法是什么?4.3节说最速下降法就是梯度下降法? 弱点见下文。 [?] 线搜索?

\fig?说明了该方法在二次碗型目标中如何表现的,是一个相当低效的来回往复,锯齿形模式。 这是因为每一个由梯度给定的线搜索方向,都保证正交于上一个线搜索方向。

[warning] 正交于上一个线搜索方向?

假设上一个搜索方向是$d{t-1}$。 在极小值处,也就是(上一次)线搜索终止的地方,方向$d{t-1}$处的方向导数为零:$\nabla{\theta} J(\theta) \cdot d{t-1} = 0$。 因为该点的梯度定义了当前的搜索方向,$dt = \nabla{\theta} J(\theta)$将不会贡献于方向$d{t-1}$。 因此方向$d_t$正交于$d{t-1}$。 最速下降多次迭代中,方向$d_{t-1}$和$d_t$之间的关系如\fig?所示。 如图展示的,下降正交方向的选择不会保持前一搜索方向上的最小值。 这产生了锯齿形的过程。 在当前梯度方向下降到极小值,我们必须重新最小化之前梯度方向上的目标。 因此,通过遵循每次线搜索结束时的梯度,我们在某种程度上撤销了在之前线搜索的方向上取得的进展。

[success] 这就是最速下降法的弱点

共轭梯度法试图解决这个问题。

在共轭梯度法中,我们寻求一个和先前线搜索方向共轭的搜索方向,即它不会撤销该方向上的进展。

[warning] 为什么要计算共轭方向。当前方向与上一方向是正交的,它们本身就是共轭关系。直接把这两个向量加起来就好了。

在训练迭代$t$时,下一步的搜索方向$d_t$的形式如下:

dt=∇θJ(θ)+βtdt−1,\begin{aligned} d_t = \nabla_{\theta} J(\theta) + \beta_t d_{t-1}, \end{aligned}dt​=∇θ​J(θ)+βt​dt−1​,​

其中,系数$\betat$的大小控制我们应沿方向$d{t-1}$加回多少到当前搜索方向上。

[success] 公式中第一项代表当前方向,第二项代表之前方向。通过控制$\beta$实现共轭。

如果$dt^\top H d{t-1} = 0$,其中$H$是\,Hessian\,矩阵,则两个方向$dt$和$d{t-1}$被称为共轭的。

[warning] [?]共轭矩阵?

适应共轭的直接方法会涉及到$H$特征向量的计算以选择$\beta_t$。

[warning] $\beta_t$和H矩阵是什么关系?

这将无法满足我们的开发目标:寻找在大问题比牛顿法计算更加可行的方法。 我们能否不进行这些计算而得到共轭方向? 幸运的是这个问题的答案是肯定的。

两种用于计算$\beta_t$的流行方法是:

[warning] 这两个公式都看不懂

  1. Fletcher-Reeves:

    βt=∇θJ(θt)⊤∇θJ(θt)∇θJ(θt−1)⊤∇θJ(θt−1)\begin{aligned} \beta_t = \frac{ \nabla_{\theta} J(\theta_t)^\top \nabla_{\theta} J(\theta_t) } { \nabla_{\theta} J(\theta_{t-1})^\top \nabla_{\theta} J(\theta_{t-1}) } \end{aligned}βt​=∇θ​J(θt−1​)⊤∇θ​J(θt−1​)∇θ​J(θt​)⊤∇θ​J(θt​)​​
  2. Polak-Ribi`{e}re:

    βt=(∇θJ(θt)−∇θJ(θt−1))⊤∇θJ(θt)∇θJ(θt−1)⊤∇θJ(θt−1)\begin{aligned} \beta_t = \frac{ (\nabla_{\theta} J(\theta_t) - \nabla_{\theta} J(\theta_{t-1}))^\top \nabla_{\theta} J(\theta_t) } { \nabla_{\theta} J(\theta_{t-1})^\top \nabla_{\theta} J(\theta_{t-1}) } \end{aligned}βt​=∇θ​J(θt−1​)⊤∇θ​J(θt−1​)(∇θ​J(θt​)−∇θ​J(θt−1​))⊤∇θ​J(θt​)​​

对于二次曲面而言,共轭方向确保梯度沿着前一方向幅度不会变大。 因此,我们在前一方向上仍然处于极小值。

[warning] 为什么梯度方向不变就仍是极小值?

其结果是,在$k$-维参数空间中,共轭梯度法只需要至多$k$次线搜索就能达到极小值。 共轭梯度法如\alg?所示。

\paragraph{非线性共轭梯度法:} 目前,我们已经讨论了用于二次目标函数的共轭梯度法。 当然,本章我们主要关注于探索训练神经网络和其他相关深度学习模型的优化方法,其对应的目标函数比二次函数复杂得多。

[warning] 是否二次对共轭梯度算法有什么影响?

或许令人惊讶,共轭梯度法在这种情况下仍然是适用的,尽管需要作一些修改。 没有目标是二次的保证,共轭方向也不再保证在以前方向上的目标仍是极小值。 其结果是,\textbf{非线性共轭梯度法}\,算法会包括一些偶尔的重设,共轭梯度法沿未修改的梯度重启线搜索。

[warning] 非线性共轭梯度法?

实践者报告在实践中使用非线性共轭梯度法训练神经网络是合理的,尽管在开始非线性共轭梯度法前使用随机梯度下降迭代若干步来初始化效果更好。 另外,尽管(非线性)共轭梯度法传统上作为批方法,小批量版本已经成功用于训练神经网络~{cite?}。 针对神经网路的共轭梯度法应用早已被提出,例如缩放的共轭梯度法{cite?}。

[warning] 缩放的共轭梯度法?

共轭方向