📃
Nielsen-NNDL
  • Introduction
  • 第1章 使用神经网络识别手写数字
    • 感知机神经元
    • sigmoid神经元
    • 神经网络的架构
    • 用于识别手写数字的简单网络
    • 梯度下降学习法
      • 准备工作
      • 梯度下降法
      • 应用到神经网络
    • 实现数字分类的神经网络
      • 数据集
      • 初始化
      • 向后传递
      • 随机梯度下降
      • 总结
  • 第2章 反向传播算法的工作原理
    • 热身:一种矩阵方法快速计算神经网络的输出
    • 关于代价函数的两个假设
    • Hadamard积
    • 反向传播算法中的4个等式
      • 一个新的定义
      • 4个等式
      • 等式的意义
    • 4个等式的证明
    • 反向传播算法
    • 代码解读
    • 反向传播算法为什么这么快
  • 第3章 提升神经网络的学习方法
    • cross-entropy代价函数
      • 当前神经网络存在的问题
      • 引入cross-entropy代价函数
      • 使用cross-entropy分类手写数字
      • cross-entropy代价函数是怎么推出来的
      • cross-entropy的数学意义
      • softmaxt+loglikelihood
    • 过拟合和正则化
      • 过拟合
      • L2正则化
      • 在当前神经网络中使用L2正则化
      • 其它问题
      • L1正则化
      • dropout正则化
      • 人为扩充训练数据
    • weights初始化
    • 回到手势识别代码
    • 怎样选择超参数
      • broad策略
      • 学习率eta
      • 迭代次数epochs
      • 正则化参数lambda
      • minibatch样本数m
      • 自动化技术
    • 其它技术
      • Hessian技术
      • momentum技术
      • tanh神经元
      • RectifiedLinear神经元
  • 第5章 训练深度神经网络难以训练
    • 梯度消失问题
    • 梯度消失的原因
  • 第6章 深度学习
    • 卷积神经网络介绍
      • LocalReceptiveField
      • SharedWeights
      • pooling层
      • 组装到一起
    • 卷积神经网络的实践与改进
    • 其它深度神经网络的方法
  • 术语中英文对照
Powered by GitBook
On this page

Was this helpful?

  1. 第3章 提升神经网络的学习方法
  2. 过拟合和正则化

dropout正则化

PreviousL1正则化Next人为扩充训练数据

Last updated 5 years ago

Was this helpful?

过程: 1. 随机选择中间层中一半的神经元“删掉”。 2. 对剩下的神经元正向传播求z和a 3. 对剩下的神经元反向传播求w和b的偏导 4. 更新剩下的神经元的w和b 5. 恢复删掉的神经 6. 重复1-5步

[?]原文中这一段话没看懂

When we actually run the full network that means that twice as many hidden neurons will be active. To compensate for that, we halve the weights outgoing from the hidden neurons.

为什么drop out能抑制过拟合?

答1:如果同样的数据训练不同的网络,这些网络会产生不同的过拟合而得到不同的结果。 将所以网络的结果合起来,可以消除单个网络的过拟合。 drop out的过程相当于产生不同的网络。

答2:某个神经不应该过于依赖另一个神经元。 任意一个神经元的不存在,都不应该影响整体的结果。 这样的网络更具有鲁棒性。

drop out算法效果惊人且应用广泛。