🎨
Bible-DeepLearning
  • Introduction
  • 第6章 深度前馈网络
    • 6.1 例子:学习XOR
    • 6.2 基于梯度的学习
      • 6.2.1 代价函数
        • 6.2.1.1 使用最大似然学习条件分布
        • 6.2.1.2 学习条件统计量
      • 6.2.2 输出单元
        • 6.2.2.1 用于高斯输出分布的线性神单元
        • 6.2.2.2 用于Bernoulli输出分布的sigmoid单元
        • 6.2.2.3 用于Multinoulli输出分布的softmax单元
    • 6.3 隐藏单元
      • 6.3.1 ReLU及其扩展
      • 6.3.2 logistic sigmoid与双曲正切函数
      • 6.3.3 其他隐藏单元
      • 李宏毅补充 SELU
    • 6.4 架构设计
    • 6.5 反向传播和其他的微分算法
      • 6.5.1 计算图
      • 6.5.2 微积分中的链式法则
      • 6.5.3 递归地使用链式法则来实现反向传播
      • 6.5.4 全连接MLP中的反向传播计算
      • 6.5.5 符号到符号的导数
      • 6.5.6 一般化的反向传播
      • 6.5.7 实例:用于MLP 训练的反向传播
      • 6.5.8 复杂化
  • 第7章 深度学习中的正则化
    • 7.1 参数范数惩罚
      • 7.1.1 L2参数正则化
      • 7.1.2 L1参数正则化
    • 7.2 作为约束的范数惩罚
    • 7.3 正则化和欠约束问题
    • 7.4 数据集增强
    • 7.5 噪声鲁棒性
    • 7.6 半监督学习
    • 7.7 多任务学习
    • 7.8 提前终止
    • 7.9 参数绑定和参数共享
    • 7.10 稀疏表示
    • 7.11 Bagging 和其他集成方法
    • 7.12 Dropout
    • 7.13 对抗训练
    • 7.14 切面距离、正切传播和流形正切分类器
    • Ag补充 一些能用于提升比赛成绩的方法
  • 第8章 深度模型中的优化
    • 8.1 学习和纯优化有什么不同
      • 8.1.1 经验风险最小化
      • 8.1.2 代理损失函数和提前终止
      • 8.1.3 批量算法和小批量算法
    • 8.2 神经网络优化中的挑战
      • 8.2.1 病态
      • 8.2.2 局部极小值
      • 8.2.3 8.2.3 高原、鞍点和其他平坦区域
      • 8.2.4 悬崖和梯度爆炸
      • 8.2.5 长期依赖
      • 8.2.6 非精确梯度
    • 8.3 基本算法
      • 8.3.1 随机梯度下降
      • 8.3.2 动量
      • 8.3.3 Nesterov 动量
    • 8.4 参数初始化策略
    • 8.5 自适应学习率算法
      • 8.5.1 AdaGrad
      • 8.5.2 RMSProp
      • 8.5.3 Adam
      • 8.5.4 选择正确的优化算法
    • 8.6 二阶近似方法
      • 8.6.1 牛顿法
      • 8.6.2 共轭梯度
      • 8.6.3 BFGS
    • 8.7 优化策略和元算法
      • 8.7.1 批标准化
      • 8.7.2 坐标下降
      • 8.7.3 Polyak 平均
      • 8.7.4 监督预训练
      • 8.7.5 设计有助于优化的模型
  • 第9章 卷积网络
    • 9.1 卷积运算
    • 9.2 动机
    • 9.3 池化
    • 9.4 卷积与池化作为一种无限强的先验
    • 9.5 基本卷积函数的变体
    • 9.6 结构化输出
    • 9.7 数据类型
  • 第10章 序列建模:循环和递归网络
    • 10.1 展开计算图
    • 10.2 循环神经网络
      • 10.2.1 导师驱动过程和输出循环网络
      • 10.2.2 计算循环神经网络的梯度
      • 10.2.3 作为有向图模型的循环网络
      • 10.2.4 基于上下文的RNN序列建模
    • 10.3 双向RNN
    • 10.4 基于编码 - 解码的序列到序列架构
    • 10.5 深度循环网络
    • 10.6 递归神经网络
    • 10.7 长期依赖的挑战
    • 10.9 渗漏单元和其他多时间尺度的策略
    • 10.10 长短期记忆和其他门控RNN
      • 10.10.1 LSTM
      • 10.10.2 其他门控RNN
    • 10.11 优化长期依赖
      • 10.11.1 梯度截断
      • 10.11.2 引导信息流的正则化
    • 10.12 外显记忆
  • 第11章 实践方法论
    • 11.1 性能度量
    • 11.2 默认的基准模型
    • 11.3 决定是否收集更多数据
    • 11.4 选择超参数
      • 11.4.1 手动选择超参数
      • 11.4.3 网络搜索
      • 11.4.4 随机搜索
    • 11.5 调试策略
Powered by GitBook
On this page

Was this helpful?

  1. 第8章 深度模型中的优化
  2. 8.2 神经网络优化中的挑战

8.2.1 病态

Previous8.2 神经网络优化中的挑战Next8.2.2 局部极小值

Last updated 5 years ago

Was this helpful?

[info] condition在这里应译为“状态”而不是“条件”。因此此处的“ill condition”译为病态。但在本书其它地方将它译为“状态条件”,这是不对的。

在优化凸函数时,会遇到一些挑战。 这其中最突出的是Hessian矩阵$H$的病态。 这是数值优化、凸优化或其他形式的优化中普遍存在的问题,更多细节请回顾\sec?。

病态问题一般被认为存在于神经网络训练过程中。 病态体现在随机梯度下降会"卡"在某些地方,此时即使很小的更新步长也会增加代价函数。

[success] 问:病态的原始定义为“输入的微小差异导致输出的巨大变化。”但病态在神经网络中的表现为“即使很小的更新步长也会增加代价函数。”这两者是怎么联系上的? 答:病态的H表现为f的等高线是同心椭圆。病态越严重,椭圆越扁,即长轴和短轴差别越大。 这种情况有点像没有做特征归一化的梯度下降法,在尺度比较大的特征上,学习率太小会难以收敛。在尺度较小的特征上,学习率太大会震荡而无法收敛。 这里的情况有点类似,在长轴方向上,学习率太小会难以收敛。在短轴方向上,学习率太大会震荡而无法收敛。 “即使很小的更新步长也会增加代价函数”就是在长轴方向上难以收敛的表现。 “输入的微小差异导致输出的巨大变化”就是在短轴方向上震荡的表现。 特征归一化可以解决特征不在同一尺度的问题,H的病态问题可以用类似的方法解决吗?

回顾公式4.9,代价函数的二阶泰勒级数展开预测梯度下降中的$-\epsilon g$步骤会增加

12ϵ2g⊤Hg−ϵg⊤g(8.10)\begin{aligned} \frac{1}{2} \epsilon^2 g^\top Hg - \epsilon g^\top g && (8.10) \end{aligned}21​ϵ2g⊤Hg−ϵg⊤g​​(8.10)​

到代价中。

[success]

f(x0−ϵg)≈f(x0)−ϵg⊤g+12ϵ2g⊤Hg(4.9)\begin{aligned} f(x^0-\epsilon g) \approx f(x^0) - \epsilon g^\top g + \frac{1}{2} \epsilon^2 g^\top Hg && (4.9) \end{aligned}f(x0−ϵg)≈f(x0)−ϵg⊤g+21​ϵ2g⊤Hg​​(4.9)​

公式4.9是f(x)在$x^0$处泰勒展开的二阶近似。 $f(x^0-\epsilon g)$为x0在负梯度方向移到一个步长得到的值。 由于是向负梯度的方向移到,理论上$f(x^0-\epsilon g) < f(x^0)$ 实际上$f(x^0-\epsilon g) - f(x^0) = \frac{1}{2} \epsilon^2 g^\top Hg - \epsilon g^\top g$,取决于公式8.10

当$\frac{1}{2} \epsilon^2 g^\top Hg$超过$\epsilon g^\top g$时,梯度的病态会成为问题。 我们可以通过监测平方梯度范数$g^\top g$和$g^\top Hg$,来判断病态是否不利于神经网络训练任务。

[success] 平方梯度范数以及下文中的梯度范数都是指$g^\top g$

在很多情况中,梯度范数不会在训练过程中显著缩小,但是$g^\top Hg$的增长会超过一个数量级。 其结果是尽管梯度很强,学习会变得非常缓慢,因为学习率必须收缩以弥补更强的曲率。

[success] 公式8.10中,$g^\top g$改变不大,但$g^\top Hg$会增长。 正常情况下,g大就应该学习快。g小就会学习慢。 但当H过大时,即使g大也会学习慢,因此称为病态。 解决方法:可以通过改变学习率来调节公式8.10中第一项与第二项的关系。 H代表曲率,更大的H就必须使用更小的$\epsilon$。

如\fig?所示,成功训练的神经网络中,梯度显著增加。

尽管病态还存在于除了神经网络训练的其他情况中,有些适用于其他情况的解决病态的技术并不适用于神经网络。 例如,牛顿法在解决带有病态条件的\,Hessian\,矩阵的凸优化问题时,是一个非常优秀的工具,

但是我们将会在以下小节中说明牛顿法运用到神经网络时需要很大的改动。

[success] 问:牛顿法为什么能解决H的病态问题? 答: 可以看出,牛顿法不需要指定学习率,而是根据$H^{-1}$计算出来一组值来作为学习率。 牛顿法的学习率是根据H算出来的,是适配于H矩阵的。即使是病态的H,而计算出合适这个H的学习率。 因此能解决H的病态问题。

病态矩阵
Hessian矩阵的病态问题
牛顿法 VS 梯度下降法
DL中解决H矩阵病态问题的方法