🎨
Bible-DeepLearning
  • Introduction
  • 第6章 深度前馈网络
    • 6.1 例子:学习XOR
    • 6.2 基于梯度的学习
      • 6.2.1 代价函数
        • 6.2.1.1 使用最大似然学习条件分布
        • 6.2.1.2 学习条件统计量
      • 6.2.2 输出单元
        • 6.2.2.1 用于高斯输出分布的线性神单元
        • 6.2.2.2 用于Bernoulli输出分布的sigmoid单元
        • 6.2.2.3 用于Multinoulli输出分布的softmax单元
    • 6.3 隐藏单元
      • 6.3.1 ReLU及其扩展
      • 6.3.2 logistic sigmoid与双曲正切函数
      • 6.3.3 其他隐藏单元
      • 李宏毅补充 SELU
    • 6.4 架构设计
    • 6.5 反向传播和其他的微分算法
      • 6.5.1 计算图
      • 6.5.2 微积分中的链式法则
      • 6.5.3 递归地使用链式法则来实现反向传播
      • 6.5.4 全连接MLP中的反向传播计算
      • 6.5.5 符号到符号的导数
      • 6.5.6 一般化的反向传播
      • 6.5.7 实例:用于MLP 训练的反向传播
      • 6.5.8 复杂化
  • 第7章 深度学习中的正则化
    • 7.1 参数范数惩罚
      • 7.1.1 L2参数正则化
      • 7.1.2 L1参数正则化
    • 7.2 作为约束的范数惩罚
    • 7.3 正则化和欠约束问题
    • 7.4 数据集增强
    • 7.5 噪声鲁棒性
    • 7.6 半监督学习
    • 7.7 多任务学习
    • 7.8 提前终止
    • 7.9 参数绑定和参数共享
    • 7.10 稀疏表示
    • 7.11 Bagging 和其他集成方法
    • 7.12 Dropout
    • 7.13 对抗训练
    • 7.14 切面距离、正切传播和流形正切分类器
    • Ag补充 一些能用于提升比赛成绩的方法
  • 第8章 深度模型中的优化
    • 8.1 学习和纯优化有什么不同
      • 8.1.1 经验风险最小化
      • 8.1.2 代理损失函数和提前终止
      • 8.1.3 批量算法和小批量算法
    • 8.2 神经网络优化中的挑战
      • 8.2.1 病态
      • 8.2.2 局部极小值
      • 8.2.3 8.2.3 高原、鞍点和其他平坦区域
      • 8.2.4 悬崖和梯度爆炸
      • 8.2.5 长期依赖
      • 8.2.6 非精确梯度
    • 8.3 基本算法
      • 8.3.1 随机梯度下降
      • 8.3.2 动量
      • 8.3.3 Nesterov 动量
    • 8.4 参数初始化策略
    • 8.5 自适应学习率算法
      • 8.5.1 AdaGrad
      • 8.5.2 RMSProp
      • 8.5.3 Adam
      • 8.5.4 选择正确的优化算法
    • 8.6 二阶近似方法
      • 8.6.1 牛顿法
      • 8.6.2 共轭梯度
      • 8.6.3 BFGS
    • 8.7 优化策略和元算法
      • 8.7.1 批标准化
      • 8.7.2 坐标下降
      • 8.7.3 Polyak 平均
      • 8.7.4 监督预训练
      • 8.7.5 设计有助于优化的模型
  • 第9章 卷积网络
    • 9.1 卷积运算
    • 9.2 动机
    • 9.3 池化
    • 9.4 卷积与池化作为一种无限强的先验
    • 9.5 基本卷积函数的变体
    • 9.6 结构化输出
    • 9.7 数据类型
  • 第10章 序列建模:循环和递归网络
    • 10.1 展开计算图
    • 10.2 循环神经网络
      • 10.2.1 导师驱动过程和输出循环网络
      • 10.2.2 计算循环神经网络的梯度
      • 10.2.3 作为有向图模型的循环网络
      • 10.2.4 基于上下文的RNN序列建模
    • 10.3 双向RNN
    • 10.4 基于编码 - 解码的序列到序列架构
    • 10.5 深度循环网络
    • 10.6 递归神经网络
    • 10.7 长期依赖的挑战
    • 10.9 渗漏单元和其他多时间尺度的策略
    • 10.10 长短期记忆和其他门控RNN
      • 10.10.1 LSTM
      • 10.10.2 其他门控RNN
    • 10.11 优化长期依赖
      • 10.11.1 梯度截断
      • 10.11.2 引导信息流的正则化
    • 10.12 外显记忆
  • 第11章 实践方法论
    • 11.1 性能度量
    • 11.2 默认的基准模型
    • 11.3 决定是否收集更多数据
    • 11.4 选择超参数
      • 11.4.1 手动选择超参数
      • 11.4.3 网络搜索
      • 11.4.4 随机搜索
    • 11.5 调试策略
Powered by GitBook
On this page

Was this helpful?

  1. 第6章 深度前馈网络
  2. 6.3 隐藏单元

6.3.3 其他隐藏单元

Previous6.3.2 logistic sigmoid与双曲正切函数Next李宏毅补充 SELU

Last updated 5 years ago

Was this helpful?

也存在许多其他种类的隐藏单元,但它们并不常用。

一般来说,很多种类的可微函数都表现得很好。 许多未发布的激活函数与流行的激活函数表现得一样好。 为了提供一个具体的例子,作者在MNIST数据集上使用$h=\cos(Wx+b)$测试了一个前馈网络,并获得了小于1\%的误差率,这可以与更为传统的激活函数获得的结果相媲美。 在新技术的研究和开发期间,通常会测试许多不同的激活函数,并且会发现许多标准方法的变体表现非常好。 这意味着,通常新的隐藏单元类型只有在被明确证明能够提供显著改进时才会被发布。 新的隐藏单元类型如果与已有的隐藏单元表现大致相当的话,那么它们是非常常见的,不会引起别人的兴趣。

[success] 还有很多其它激活函数用作中间层神经元,效果也很好。 只有效果显著改进的激活函数才会被关注。

列出文献中出现的所有隐藏单元类型是不切实际的。 我们只对一些特别有用和独特的类型进行强调。

其中一种是完全没有激活函数$g(z)$。 也可以认为这是使用单位函数作为激活函数的情况。 我们已经看过线性单元可以用作神经网络的输出。 它也可以用作隐藏单元。 如果神经网络的每一层都仅由线性变换组成,那么网络作为一个整体也将是线性的。 然而,神经网络的一些层是纯线性也是可以接受的。 考虑具有$n$个输入和$p$个输出的神经网络层$h=g(W^\top x+b)$。 我们可以用两层来代替它,一层使用权重矩阵$U$,另一层使用权重矩阵$V$。 如果第一层没有激活函数,那么我们(用$U$和$V$替代$W$)实际上是对基于$W$的原始层的权重矩阵进行了因式分解。 分解方法是计算$h=g(V^\top U^\top x+b)$。 如果$U$产生了$q$个输出,那么$U$和$V$一起仅包含$(n+p)q$个参数,而$W$包含$np$个参数。 如果$q$很小,这可以在很大程度上节省参数。 这是以将线性变换约束为低秩的代价来实现的,但这些低秩关系往往是足够的。 线性隐藏单元因此提供了一种减少网络中参数数量的有效方法。

[success] 没有激活函数。g(z) = z 提供了一种减少网络中参数数量的有效方法。 例如size=[in, out],需要inout个参数 增加一层后为size=[in, mid, out],需要(in+out)mid个参数,如果mid非常小,需要的参数个数就会变少。

softmax单元是另外一种经常用作输出的单元(如\sec?中所描述的),但有时也可以用作隐藏单元。

[success] softmax单元很自然地表示具有$k$个可能值的离散型随机变量的概率分布,所以它们可以用作一种开关。 这些类型的隐藏单元通常仅用于明确地学习操作内存的高级结构中,将在第10.12节中描述。 [warning] 第10.12节关于softmax的部分没看懂

其他一些常见的隐藏单元类型包括:

  • 径向基函数:$hi = \exp \left (-\frac{1}{\sigma_i^2}|| W{:,i}-x||^2 \right )$。

    这个函数在$x$接近模板$W_{:,i}$时更加活跃。

    因为它对大部分$x$都饱和到0,因此很难优化。

    [success] 径向基函数神经网络: 三层的神经网络,第一层为输入层。第三层为输出层。第二层为隐藏层,使用高斯径向基函数作为激活函数函数:

    ϕ(x)=exp⁡(−∣∣x−μt∣∣2σt2)\phi(x) = \exp(-\frac{||x-\mu_t||^2}{\sigma_t^2})ϕ(x)=exp(−σt2​∣∣x−μt​∣∣2​)

t代表隐藏层中的第t个unit。$\mu_t$决定中心点,$\sigma_t$决定宽度。

  • \textbf{softplus}函数:$g(a)=\zeta(a)=\log(1+e^a)$。 这是整流线性单元的平滑版本,由{Dugas01}引入用于函数近似,由{Nair-2010-small}引入用于无向概率模型的条件分布。 {Glorot+al-AI-2011-small}比较了softplus和整流线性单元,发现后者的结果更好。 通常不鼓励使用softplus函数。 softplus表明隐藏单元类型的性能可能是非常反直觉的——因为它处处可导或者因为它不完全饱和,人们可能希望它具有优于整流线性单元的点,但根据经验来看,它并没有。

  • 硬双曲正切函数:它的形状和$\text{tanh}$以及整流线性单元类似,但是不同于后者,它是有界的,$g(a)=\max(-1, \min(1,a))$。 它由{Collobert04}引入。

隐藏单元的设计仍然是一个活跃的研究领域,许多有用的隐藏单元类型仍有待发现。

softmax
径向基函数