🎨
Bible-DeepLearning
  • Introduction
  • 第6章 深度前馈网络
    • 6.1 例子:学习XOR
    • 6.2 基于梯度的学习
      • 6.2.1 代价函数
        • 6.2.1.1 使用最大似然学习条件分布
        • 6.2.1.2 学习条件统计量
      • 6.2.2 输出单元
        • 6.2.2.1 用于高斯输出分布的线性神单元
        • 6.2.2.2 用于Bernoulli输出分布的sigmoid单元
        • 6.2.2.3 用于Multinoulli输出分布的softmax单元
    • 6.3 隐藏单元
      • 6.3.1 ReLU及其扩展
      • 6.3.2 logistic sigmoid与双曲正切函数
      • 6.3.3 其他隐藏单元
      • 李宏毅补充 SELU
    • 6.4 架构设计
    • 6.5 反向传播和其他的微分算法
      • 6.5.1 计算图
      • 6.5.2 微积分中的链式法则
      • 6.5.3 递归地使用链式法则来实现反向传播
      • 6.5.4 全连接MLP中的反向传播计算
      • 6.5.5 符号到符号的导数
      • 6.5.6 一般化的反向传播
      • 6.5.7 实例:用于MLP 训练的反向传播
      • 6.5.8 复杂化
  • 第7章 深度学习中的正则化
    • 7.1 参数范数惩罚
      • 7.1.1 L2参数正则化
      • 7.1.2 L1参数正则化
    • 7.2 作为约束的范数惩罚
    • 7.3 正则化和欠约束问题
    • 7.4 数据集增强
    • 7.5 噪声鲁棒性
    • 7.6 半监督学习
    • 7.7 多任务学习
    • 7.8 提前终止
    • 7.9 参数绑定和参数共享
    • 7.10 稀疏表示
    • 7.11 Bagging 和其他集成方法
    • 7.12 Dropout
    • 7.13 对抗训练
    • 7.14 切面距离、正切传播和流形正切分类器
    • Ag补充 一些能用于提升比赛成绩的方法
  • 第8章 深度模型中的优化
    • 8.1 学习和纯优化有什么不同
      • 8.1.1 经验风险最小化
      • 8.1.2 代理损失函数和提前终止
      • 8.1.3 批量算法和小批量算法
    • 8.2 神经网络优化中的挑战
      • 8.2.1 病态
      • 8.2.2 局部极小值
      • 8.2.3 8.2.3 高原、鞍点和其他平坦区域
      • 8.2.4 悬崖和梯度爆炸
      • 8.2.5 长期依赖
      • 8.2.6 非精确梯度
    • 8.3 基本算法
      • 8.3.1 随机梯度下降
      • 8.3.2 动量
      • 8.3.3 Nesterov 动量
    • 8.4 参数初始化策略
    • 8.5 自适应学习率算法
      • 8.5.1 AdaGrad
      • 8.5.2 RMSProp
      • 8.5.3 Adam
      • 8.5.4 选择正确的优化算法
    • 8.6 二阶近似方法
      • 8.6.1 牛顿法
      • 8.6.2 共轭梯度
      • 8.6.3 BFGS
    • 8.7 优化策略和元算法
      • 8.7.1 批标准化
      • 8.7.2 坐标下降
      • 8.7.3 Polyak 平均
      • 8.7.4 监督预训练
      • 8.7.5 设计有助于优化的模型
  • 第9章 卷积网络
    • 9.1 卷积运算
    • 9.2 动机
    • 9.3 池化
    • 9.4 卷积与池化作为一种无限强的先验
    • 9.5 基本卷积函数的变体
    • 9.6 结构化输出
    • 9.7 数据类型
  • 第10章 序列建模:循环和递归网络
    • 10.1 展开计算图
    • 10.2 循环神经网络
      • 10.2.1 导师驱动过程和输出循环网络
      • 10.2.2 计算循环神经网络的梯度
      • 10.2.3 作为有向图模型的循环网络
      • 10.2.4 基于上下文的RNN序列建模
    • 10.3 双向RNN
    • 10.4 基于编码 - 解码的序列到序列架构
    • 10.5 深度循环网络
    • 10.6 递归神经网络
    • 10.7 长期依赖的挑战
    • 10.9 渗漏单元和其他多时间尺度的策略
    • 10.10 长短期记忆和其他门控RNN
      • 10.10.1 LSTM
      • 10.10.2 其他门控RNN
    • 10.11 优化长期依赖
      • 10.11.1 梯度截断
      • 10.11.2 引导信息流的正则化
    • 10.12 外显记忆
  • 第11章 实践方法论
    • 11.1 性能度量
    • 11.2 默认的基准模型
    • 11.3 决定是否收集更多数据
    • 11.4 选择超参数
      • 11.4.1 手动选择超参数
      • 11.4.3 网络搜索
      • 11.4.4 随机搜索
    • 11.5 调试策略
Powered by GitBook
On this page
  • Sigmoid Unit和Tanh Unit
  • Sigmoid Unit VS Tanh Unit

Was this helpful?

  1. 第6章 深度前馈网络
  2. 6.3 隐藏单元

6.3.2 logistic sigmoid与双曲正切函数

Previous6.3.1 ReLU及其扩展Next6.3.3 其他隐藏单元

Last updated 5 years ago

Was this helpful?

Sigmoid Unit和Tanh Unit

在引入整流线性单元之前,大多数神经网络使用logistic sigmoid激活函数

g(z)=σ(z)g(z) = \sigma(z)g(z)=σ(z)

或者是双曲正切激活函数

g(z)=tanh(z).g(z) = \text{tanh}(z).g(z)=tanh(z).

这些激活函数紧密相关,因为tanh(z)=2σ(2z)−1\text{tanh}(z)=2\sigma(2z)-1tanh(z)=2σ(2z)−1。

我们已经看过sigmoid单元作为输出单元用来预测二值型变量取值为1的概率。

[success]

与分段线性单元不同,sigmoid单元在其大部分定义域内都饱和——当z取绝对值很大的正值时,它们饱和到一个高值,当z取绝对值很大的负值时,它们饱和到一个低值,并且仅仅当z接近0时它们才对输入强烈敏感。 sigmoid单元的广泛饱和性会使得基于梯度的学习变得非常困难。 因为这个原因,现在不鼓励将它们用作前馈网络中的隐藏单元。 当使用一个合适的代价函数来抵消sigmoid的饱和性时,它们作为输出单元可以与基于梯度的学习相兼容。

[success] 类似cross entropy这样的代价函数,仅能解决sigmoid作为输出层时的饱和问题,无法解决sigmoid作为中间层时的饱和问题。

Sigmoid Unit VS Tanh Unit

当必须要使用sigmoid激活函数时,双曲正切激活函数通常要比logistic sigmoid函数表现更好。

[success] 能用ReLU时尽量用ReLU。 只有在某些情况下不能使用ReLU,才考虑使用Sigmoid。 本文最后一段有关于这种情况的具体的例子。

在tanh(0)=0\text{tanh}(0)=0tanh(0)=0而σ(0)=12\sigma(0)=\frac{1}{2}σ(0)=21​的意义上,它更像是单位函数。 因为tanh\text{tanh}tanh在0附近与单位函数类似,训练深层神经网络y^=w⊤tanh(U⊤tanh(V⊤x))\hat{y}=w^\top \text{tanh}(U^\top \text{tanh}(V^\top x))y^​=w⊤tanh(U⊤tanh(V⊤x))类似于训练一个线性模型y^=w⊤U⊤V⊤x\hat{y}= w^\top U^\top V^\top xy^​=w⊤U⊤V⊤x,只要网络的激活能够被保持地很小。 这使得训练tanh\text{tanh}tanh网络更加容易。

[success] tanh优于sigmoid是因为它在0附近时类似于线性,具有线性模型的优点。

sigmoid激活函数在除了前馈网络以外的情景中更为常见。 循环网络、许多概率模型以及一些自编码器有一些额外的要求使得它们不能使用分段线性激活函数,这使得sigmoid单元更具有吸引力,尽管它存在饱和性的问题。

[warning] [?]一堆还没学到的术语。 循环网络、自编码器、额外的要求、不能使用分段线性激活函数

[success] 问:什么是梯度消失问题? 答: 网络靠前位置和靠后位置的梯度相差很大。(左边是前,右边是后)。 前面由于学得慢,参数还处于随机状态,后面部分就已经趋于收敛了。此时的收敛不是真正的收敛,因此它是基于随机值算出来的收敛值。 问:为什么靠前位置的梯度会消失? 答:从直觉上讲,$\frac{\partial C}{\partial w}$代表w的变化$\Delta w$对代价函数的变化$\Delta C$的影响程度。即$\frac{\partial C}{\partial w} = \text{?} \frac{\partial \Delta C}{\partial \Delta w}$ 每一层的$\Delta w$都要经过后面的很多层才会影响到最终的$\Delta C$。 由于sigmoid激活函数的特征,$\Delta w$每经过一层,其影响力都要减弱一点,到了最后对$\Delta C$的影响就很小了。 对应的数学上的表现就是梯度消失。 问:怎么解决梯度消失问题? 答:换一个激活函数。例如。

sigmoid unit作为输出单元
ReLU函数