🎨
Bible-DeepLearning
  • Introduction
  • 第6章 深度前馈网络
    • 6.1 例子:学习XOR
    • 6.2 基于梯度的学习
      • 6.2.1 代价函数
        • 6.2.1.1 使用最大似然学习条件分布
        • 6.2.1.2 学习条件统计量
      • 6.2.2 输出单元
        • 6.2.2.1 用于高斯输出分布的线性神单元
        • 6.2.2.2 用于Bernoulli输出分布的sigmoid单元
        • 6.2.2.3 用于Multinoulli输出分布的softmax单元
    • 6.3 隐藏单元
      • 6.3.1 ReLU及其扩展
      • 6.3.2 logistic sigmoid与双曲正切函数
      • 6.3.3 其他隐藏单元
      • 李宏毅补充 SELU
    • 6.4 架构设计
    • 6.5 反向传播和其他的微分算法
      • 6.5.1 计算图
      • 6.5.2 微积分中的链式法则
      • 6.5.3 递归地使用链式法则来实现反向传播
      • 6.5.4 全连接MLP中的反向传播计算
      • 6.5.5 符号到符号的导数
      • 6.5.6 一般化的反向传播
      • 6.5.7 实例:用于MLP 训练的反向传播
      • 6.5.8 复杂化
  • 第7章 深度学习中的正则化
    • 7.1 参数范数惩罚
      • 7.1.1 L2参数正则化
      • 7.1.2 L1参数正则化
    • 7.2 作为约束的范数惩罚
    • 7.3 正则化和欠约束问题
    • 7.4 数据集增强
    • 7.5 噪声鲁棒性
    • 7.6 半监督学习
    • 7.7 多任务学习
    • 7.8 提前终止
    • 7.9 参数绑定和参数共享
    • 7.10 稀疏表示
    • 7.11 Bagging 和其他集成方法
    • 7.12 Dropout
    • 7.13 对抗训练
    • 7.14 切面距离、正切传播和流形正切分类器
    • Ag补充 一些能用于提升比赛成绩的方法
  • 第8章 深度模型中的优化
    • 8.1 学习和纯优化有什么不同
      • 8.1.1 经验风险最小化
      • 8.1.2 代理损失函数和提前终止
      • 8.1.3 批量算法和小批量算法
    • 8.2 神经网络优化中的挑战
      • 8.2.1 病态
      • 8.2.2 局部极小值
      • 8.2.3 8.2.3 高原、鞍点和其他平坦区域
      • 8.2.4 悬崖和梯度爆炸
      • 8.2.5 长期依赖
      • 8.2.6 非精确梯度
    • 8.3 基本算法
      • 8.3.1 随机梯度下降
      • 8.3.2 动量
      • 8.3.3 Nesterov 动量
    • 8.4 参数初始化策略
    • 8.5 自适应学习率算法
      • 8.5.1 AdaGrad
      • 8.5.2 RMSProp
      • 8.5.3 Adam
      • 8.5.4 选择正确的优化算法
    • 8.6 二阶近似方法
      • 8.6.1 牛顿法
      • 8.6.2 共轭梯度
      • 8.6.3 BFGS
    • 8.7 优化策略和元算法
      • 8.7.1 批标准化
      • 8.7.2 坐标下降
      • 8.7.3 Polyak 平均
      • 8.7.4 监督预训练
      • 8.7.5 设计有助于优化的模型
  • 第9章 卷积网络
    • 9.1 卷积运算
    • 9.2 动机
    • 9.3 池化
    • 9.4 卷积与池化作为一种无限强的先验
    • 9.5 基本卷积函数的变体
    • 9.6 结构化输出
    • 9.7 数据类型
  • 第10章 序列建模:循环和递归网络
    • 10.1 展开计算图
    • 10.2 循环神经网络
      • 10.2.1 导师驱动过程和输出循环网络
      • 10.2.2 计算循环神经网络的梯度
      • 10.2.3 作为有向图模型的循环网络
      • 10.2.4 基于上下文的RNN序列建模
    • 10.3 双向RNN
    • 10.4 基于编码 - 解码的序列到序列架构
    • 10.5 深度循环网络
    • 10.6 递归神经网络
    • 10.7 长期依赖的挑战
    • 10.9 渗漏单元和其他多时间尺度的策略
    • 10.10 长短期记忆和其他门控RNN
      • 10.10.1 LSTM
      • 10.10.2 其他门控RNN
    • 10.11 优化长期依赖
      • 10.11.1 梯度截断
      • 10.11.2 引导信息流的正则化
    • 10.12 外显记忆
  • 第11章 实践方法论
    • 11.1 性能度量
    • 11.2 默认的基准模型
    • 11.3 决定是否收集更多数据
    • 11.4 选择超参数
      • 11.4.1 手动选择超参数
      • 11.4.3 网络搜索
      • 11.4.4 随机搜索
    • 11.5 调试策略
Powered by GitBook
On this page

Was this helpful?

  1. 第11章 实践方法论

11.1 性能度量

Previous第11章 实践方法论Next11.2 默认的基准模型

Last updated 5 years ago

Was this helpful?

[success] 这一节的思想类似于《高效能人士的七个习惯》中的“以终为始”。 首先要知道的自己的目标是什么,才能知道努力的方向对不对。 (1)确定使用什么 (2)确定这个性能度量的期望

确定目标,即使用什么误差度量,是必要的第一步,因为误差度量将指导接下来的所有工作。 同时我们也应该了解大概能得到什么级别的目标性能。

值得注意的是对于大多数应用而言,不可能实现绝对零误差。 即使你有无限的训练数据,并且恢复了真正的概率分布,贝叶斯误差仍定义了能达到的最小错误率。 这是因为输入特征可能无法包含输出变量的完整信息,或是因为系统可能本质上是随机的。 当然我们还会受限于有限的训练数据。

训练数据的数量会因为各种原因受到限制。 当目标是打造现实世界中最好的产品或服务时,我们通常需要收集更多的数据,但必须确定进一步减少误差的价值,并与收集更多数据的成本做权衡。 数据收集会耗费时间、金钱,或带来人体痛苦(例如,收集人体医疗测试数据)。 科研中,目标通常是在某个确定基准下探讨哪个算法更好,一般会固定训练集,不允许收集更多的数据。

如何确定合理的性能期望? 在学术界,通常我们可以根据先前公布的基准结果来估计预期错误率。 在现实世界中,一个应用的错误率有必要是安全的、具有成本效益的或吸引消费者的。 一旦你确定了想要达到的错误率,那么你的设计将由如何达到这个错误率来指导。

除了需要考虑性能度量之外,另一个需要考虑的是度量的选择。 我们有几种不同的性能度量,可以用来度量一个含有机器学习组件的完整应用的有效性。 这些性能度量通常不同于训练模型的代价函数。 如\sec?所述,我们通常会度量一个系统的准确率,或等价地,错误率。

然而,许多应用需要更高级的度量。

有时,一种错误可能会比另一种错误更严重。 例如,垃圾邮件检测系统会有两种错误:将正常邮件错误地归为垃圾邮件,将垃圾邮件错误地归为正常邮件。 阻止正常消息比允许可疑消息通过糟糕得多。 我们希望度量某种形式的总代价,其中拦截正常邮件比允许垃圾邮件通过的代价更高,而不是度量垃圾邮件分类的错误率。

有时,我们需要训练检测某些罕见事件的二元分类器。 例如,我们可能会为一种罕见疾病设计医疗测试。 假设每一百万人中只有一人患病。 我们只需要让分类器一直报告没有患者,就能轻易地在检测任务上实现$99.9999\%$的正确率。 显然,正确率很难描述这种系统的性能。 解决这个问题的方法是度量精度和召回率。 精度是模型报告的检测是正确的比率,而召回率则是真实事件被检测到的比率。 检测器永远报告没有患者,会得到一个完美的精度,但召回率为零。 而报告每个人都是患者的检测器会得到一个完美的召回率,但是精度会等于人群中患有该病的比例(在我们的例子是$0.0001\%$,每一百万人只有一人患病)。 当使用精度和召回率时,我们通常会画PR曲线,$y$轴表示精度,$x$轴表示召回率。 如果检测到的事件发生了,那么分类器会返回一个较高的得分。 例如,我们将前馈网络设计为检测一种疾病,估计一个医疗结果由特征$x$表示的人患病的概率为$\hat{y} = P(y=1\mid x)$。 每当这个得分超过某个阈值时,我们报告检测结果。 通过调整阈值,我们能权衡精度和召回率。 在很多情况下,我们希望用一个数而不是曲线来概括分类器的性能。 要做到这一点,我们可以将精度 $p$和召回率 $r$转换为F分数 \begin{aligned} F = \frac{2pr}{p+r}. \end{aligned} 另一种方法是报告\,PR曲线下方的总面积。

在一些应用中,机器学习系统可能会拒绝做出判断。 如果机器学习算法能够估计所作判断的置信度,这将会非常有用,特别是在错误判断会导致严重危害,而人工操作员能够偶尔接管的情况下。 街景转录系统可以作为这种情况的一个示例。 这个任务是识别照片上的地址号码,将照片拍摄地点对应到地图上的地址。%?? 翻译的很有问题 如果地图是不精确的,那么地图的价值会严重下降。 因此只在转录正确的情况下添加地址十分重要。 如果机器学习系统认为它不太能像人一样正确地转录,那么最好办法当然是让人来转录照片。 当然,只有当机器学习系统能够大量降低需要人工操作处理的图片时,它才是有用的。 在这种情况下,一种自然的性能度量是覆盖。 覆盖是机器学习系统能够产生响应的样本所占的比率。 我们权衡覆盖和精度。 一个系统可以通过拒绝处理任意样本的方式来达到$100\%$的精度,但是覆盖降到了$0\%$。 对于街景任务,该项目的目标是达到人类级别的转录精度,同时保持$95\%$的覆盖。 在这项任务中,人类级别的性能是$98\%$的精度。

还有许多其他的性能度量。 例如,我们可以度量点击率、收集用户满意度调查等等。 许多专业的应用领域也有特定的标准。

最重要的是首先要确定改进哪个性能度量,然后专心提高性能度量。 如果没有明确的目标,那么我们很难判断机器学习系统上的改动是否有所改进。

性能度量