🎨
Bible-DeepLearning
  • Introduction
  • 第6章 深度前馈网络
    • 6.1 例子:学习XOR
    • 6.2 基于梯度的学习
      • 6.2.1 代价函数
        • 6.2.1.1 使用最大似然学习条件分布
        • 6.2.1.2 学习条件统计量
      • 6.2.2 输出单元
        • 6.2.2.1 用于高斯输出分布的线性神单元
        • 6.2.2.2 用于Bernoulli输出分布的sigmoid单元
        • 6.2.2.3 用于Multinoulli输出分布的softmax单元
    • 6.3 隐藏单元
      • 6.3.1 ReLU及其扩展
      • 6.3.2 logistic sigmoid与双曲正切函数
      • 6.3.3 其他隐藏单元
      • 李宏毅补充 SELU
    • 6.4 架构设计
    • 6.5 反向传播和其他的微分算法
      • 6.5.1 计算图
      • 6.5.2 微积分中的链式法则
      • 6.5.3 递归地使用链式法则来实现反向传播
      • 6.5.4 全连接MLP中的反向传播计算
      • 6.5.5 符号到符号的导数
      • 6.5.6 一般化的反向传播
      • 6.5.7 实例:用于MLP 训练的反向传播
      • 6.5.8 复杂化
  • 第7章 深度学习中的正则化
    • 7.1 参数范数惩罚
      • 7.1.1 L2参数正则化
      • 7.1.2 L1参数正则化
    • 7.2 作为约束的范数惩罚
    • 7.3 正则化和欠约束问题
    • 7.4 数据集增强
    • 7.5 噪声鲁棒性
    • 7.6 半监督学习
    • 7.7 多任务学习
    • 7.8 提前终止
    • 7.9 参数绑定和参数共享
    • 7.10 稀疏表示
    • 7.11 Bagging 和其他集成方法
    • 7.12 Dropout
    • 7.13 对抗训练
    • 7.14 切面距离、正切传播和流形正切分类器
    • Ag补充 一些能用于提升比赛成绩的方法
  • 第8章 深度模型中的优化
    • 8.1 学习和纯优化有什么不同
      • 8.1.1 经验风险最小化
      • 8.1.2 代理损失函数和提前终止
      • 8.1.3 批量算法和小批量算法
    • 8.2 神经网络优化中的挑战
      • 8.2.1 病态
      • 8.2.2 局部极小值
      • 8.2.3 8.2.3 高原、鞍点和其他平坦区域
      • 8.2.4 悬崖和梯度爆炸
      • 8.2.5 长期依赖
      • 8.2.6 非精确梯度
    • 8.3 基本算法
      • 8.3.1 随机梯度下降
      • 8.3.2 动量
      • 8.3.3 Nesterov 动量
    • 8.4 参数初始化策略
    • 8.5 自适应学习率算法
      • 8.5.1 AdaGrad
      • 8.5.2 RMSProp
      • 8.5.3 Adam
      • 8.5.4 选择正确的优化算法
    • 8.6 二阶近似方法
      • 8.6.1 牛顿法
      • 8.6.2 共轭梯度
      • 8.6.3 BFGS
    • 8.7 优化策略和元算法
      • 8.7.1 批标准化
      • 8.7.2 坐标下降
      • 8.7.3 Polyak 平均
      • 8.7.4 监督预训练
      • 8.7.5 设计有助于优化的模型
  • 第9章 卷积网络
    • 9.1 卷积运算
    • 9.2 动机
    • 9.3 池化
    • 9.4 卷积与池化作为一种无限强的先验
    • 9.5 基本卷积函数的变体
    • 9.6 结构化输出
    • 9.7 数据类型
  • 第10章 序列建模:循环和递归网络
    • 10.1 展开计算图
    • 10.2 循环神经网络
      • 10.2.1 导师驱动过程和输出循环网络
      • 10.2.2 计算循环神经网络的梯度
      • 10.2.3 作为有向图模型的循环网络
      • 10.2.4 基于上下文的RNN序列建模
    • 10.3 双向RNN
    • 10.4 基于编码 - 解码的序列到序列架构
    • 10.5 深度循环网络
    • 10.6 递归神经网络
    • 10.7 长期依赖的挑战
    • 10.9 渗漏单元和其他多时间尺度的策略
    • 10.10 长短期记忆和其他门控RNN
      • 10.10.1 LSTM
      • 10.10.2 其他门控RNN
    • 10.11 优化长期依赖
      • 10.11.1 梯度截断
      • 10.11.2 引导信息流的正则化
    • 10.12 外显记忆
  • 第11章 实践方法论
    • 11.1 性能度量
    • 11.2 默认的基准模型
    • 11.3 决定是否收集更多数据
    • 11.4 选择超参数
      • 11.4.1 手动选择超参数
      • 11.4.3 网络搜索
      • 11.4.4 随机搜索
    • 11.5 调试策略
Powered by GitBook
On this page
  • 什么是池化层
  • 池化的特性:平移不变性
  • 池化的好处1
  • 池化的好处2: 对不同大小的输入产生相同大小的输出
  • 怎样选择池化函数

Was this helpful?

  1. 第9章 卷积网络

9.3 池化

卷积网络中一个典型层包含三级(如图9.7所示)。 在第一级中,这一层并行地计算多个卷积产生一组线性激活响应。 在第二级中,每一个线性激活响应将会通过一个非线性的激活函数,例如整流线性激活函数。 这一级有时也被称为探测级(detector stage)。 在第三级中,我们使用池化函数(pooling function)来进一步调整这一层的输出。

[success] 卷积层:卷积操作、仿射变换 探测层:非线性变换 池化层:池化操作

[warning] 卷积操作和仿射变换是什么关系?

什么是池化层

池化函数使用某一位置的相邻输出的总体统计特征来代替网络在该位置的输出。

[success] 多通道图像每个通道分别池化。因此池化之后通道数不变。

例如,最大池化(max pooling)函数给出相邻矩形区域内的最大值。

[success] 问:为什么使用最大池化? 答:卷积结果的数字大代表filter匹配到的某个特征。使用max pooling,任何一个位置匹配到了特征,都能保留在输出里。 [平均池化]: Ag:例如在深度很深DL的中,用Average Pooling来分解7*7*1000的网络的表示层,得到1*1*1000

其他常用的池化函数包括相邻矩形区域内的平均值、$L^2$范数以及基于据中心像素距离的加权平均函数。

池化的特性:平移不变性

不管采用什么样的池化函数,当输入作出少量平移时,池化能够帮助输入的表示近似不变。

[success] 池化层具有平移不变性。 适用场合:只关心特征是否出现,不关心它在哪里 不适用场合:特征的具体位置很重要。

对于平移的不变性是指当我们对输入进行少量平移时,经过池化函数后的大多数输出并不会发生改变。 图9.8用了一个例子来说明这是如何实现的。 局部平移不变性是一个很有用的性质,尤其是当我们关心某个特征是否出现而不关心它出现的具体位置时。 例如,当判定一张图像中是否包含人脸时,我们并不需要知道眼睛的精确像素位置,我们只需要知道有一只眼睛在脸的左边,有一只在右边就行了。 但在一些其他领域,保存特征的具体位置却很重要。 例如当我们想要寻找一个由两条边相交而成的拐角时,我们就需要很好地保存边的位置来判定它们是否相交。

使用池化可以看作是增加了一个无限强的先验:这一层学得的函数必须具有对少量平移的不变性。 当这个假设成立时,池化可以极大地提高网络的统计效率。

对空间区域进行池化产生了平移不变性,但当我们对分离参数的卷积的输出进行池化时,特征能够学得应该对于哪种变换具有不变性(如图9.9所示)。

池化的好处1

[success] 对卷积进行池化的好处: 平移不变 旋转不变 提高网络的计算效率 减少参数存储的需求 Ag补充:只有2个超参数f,s,没有要学习的参数。通常f=2或3,s=2

因为池化综合了全部邻居的反馈,这使得池化单元少于探测单元成为可能,我们可以通过综合池化区域的$k$个像素的统计特征而不是单个像素来实现。 图9.10给出了一个例子。 这种方法提高了网络的计算效率,因为下一层少了约$k$ 倍的输入。 当下一层的参数数目是关于那一层输入大小的函数时(例如当下一层是全连接的基于矩阵乘法的网络层时),这种对于输入规模的减小也可以提高统计效率并且减少对于参数的存储需求。

池化的好处2: 对不同大小的输入产生相同大小的输出

在很多任务中,池化对于处理不同大小的输入具有重要作用。

[success] 池化的另一个作用: 通过调整池化区域的偏置大小,使得不管什么大小的输入,都能得到相同大小的输出。

例如我们想对不同大小的图像进行分类时,分类层的输入必须是固定的大小,而这通常通过调整池化区域的偏置大小来实现,这样分类层总是能接收到相同数量的统计特征而不管最初的输入大小了。 例如,最终的池化层可能会输出四组综合统计特征,每组对应着图像的一个象限,而与图像的大小无关。

怎样选择池化函数

一些理论工作对于在不同情况下应当使用哪种池化函数给出了一些指导。 将特征一起动态地池化也是可行的,例如,对于感兴趣特征的位置运行聚类算法。 这种方法对于每幅图像产生一个不同的池化区域集合。 另一种方法是先学习一个单独的池化结构,再应用到全部的图像中。

[warning] 这一段没看懂 为什么说是“对于感兴趣特征的位置运行聚类算法”是“动态地池化”? “先学习一个单独的池化结构,再应用到全部的图像中”是什么意思?

池化可能会使得一些利用自顶向下信息的神经网络结构变得复杂,例如玻尔兹曼机和自编码器。 这些问题将在本书第3部分中当我们遇到这些类型的网络时进一步讨论。 卷积玻尔兹曼机中的池化出现在第20.6节。 一些可微网络中需要的在池化单元上进行的类逆运算将在第20.10.6节中讨论。

图9.11给出了一些使用卷积和池化操作的用于分类的完整卷积网络结构的例子。

Previous9.2 动机Next9.4 卷积与池化作为一种无限强的先验

Last updated 5 years ago

Was this helpful?