📃
Nielsen-NNDL
  • Introduction
  • 第1章 使用神经网络识别手写数字
    • 感知机神经元
    • sigmoid神经元
    • 神经网络的架构
    • 用于识别手写数字的简单网络
    • 梯度下降学习法
      • 准备工作
      • 梯度下降法
      • 应用到神经网络
    • 实现数字分类的神经网络
      • 数据集
      • 初始化
      • 向后传递
      • 随机梯度下降
      • 总结
  • 第2章 反向传播算法的工作原理
    • 热身:一种矩阵方法快速计算神经网络的输出
    • 关于代价函数的两个假设
    • Hadamard积
    • 反向传播算法中的4个等式
      • 一个新的定义
      • 4个等式
      • 等式的意义
    • 4个等式的证明
    • 反向传播算法
    • 代码解读
    • 反向传播算法为什么这么快
  • 第3章 提升神经网络的学习方法
    • cross-entropy代价函数
      • 当前神经网络存在的问题
      • 引入cross-entropy代价函数
      • 使用cross-entropy分类手写数字
      • cross-entropy代价函数是怎么推出来的
      • cross-entropy的数学意义
      • softmaxt+loglikelihood
    • 过拟合和正则化
      • 过拟合
      • L2正则化
      • 在当前神经网络中使用L2正则化
      • 其它问题
      • L1正则化
      • dropout正则化
      • 人为扩充训练数据
    • weights初始化
    • 回到手势识别代码
    • 怎样选择超参数
      • broad策略
      • 学习率eta
      • 迭代次数epochs
      • 正则化参数lambda
      • minibatch样本数m
      • 自动化技术
    • 其它技术
      • Hessian技术
      • momentum技术
      • tanh神经元
      • RectifiedLinear神经元
  • 第5章 训练深度神经网络难以训练
    • 梯度消失问题
    • 梯度消失的原因
  • 第6章 深度学习
    • 卷积神经网络介绍
      • LocalReceptiveField
      • SharedWeights
      • pooling层
      • 组装到一起
    • 卷积神经网络的实践与改进
    • 其它深度神经网络的方法
  • 术语中英文对照
Powered by GitBook
On this page
  • 感知机的缺陷
  • 改进:sigmoid神经元
  • 函数
  • 激活函数 activation function

Was this helpful?

  1. 第1章 使用神经网络识别手写数字

sigmoid神经元

Previous感知机神经元Next神经网络的架构

Last updated 5 years ago

Was this helpful?

感知机的缺陷

要使网络有学习的能力,就要求神经元满足以下特点: 权重和偏移的轻微改变,导致网络最终输出的轻微改变。 但感知机神经元不满足这个特点: 权重和偏移的轻微改变,可能会使它自己的输出翻转,导致网络的最终输出不可控。

改进:sigmoid神经元

sigmoid神经元与感知机神经元类似,且满足网络对神经元的要求。

感知机神经元

sigmoid神经元

输入

0,1

[0,1]

输出

0,1

(0,1)

w, b

任意实数

任意实数

function

w*x+b

σ\sigmaσ函数

σ(z)=11+e−z\sigma(z)=\frac{1}{1+e^{-z}}σ(z)=1+e−z1​

它是感知机的平滑版本。 这就意味着小的改变Δw\Delta wΔw和Δb\Delta bΔb会导致小的改变Δ\DeltaΔoutput

\begin{eqnarray} \Delta \mbox{output} \approx \sum_j \frac{\partial \, \mbox{output}}{\partial w_j} \Delta w_j + \frac{\partial \, \mbox{output}}{\partial b} \Delta b, \tag{5}\end{eqnarray}

同时,Δ\DeltaΔoutput与Δw\Delta wΔw和Δb\Delta bΔb呈线性关系。这也意着可以通过选择Δw\Delta wΔw和Δb\Delta bΔb得到想要的Δ\DeltaΔoutput。

激活函数 activation function

sigmoid神经元中的\sigmoid(z)就是激活函数。 激活函数通常用f(*)表示。 可以选择不同的激活函数,这会导致公式(5)是的偏导部分不同。 \sigmoid(z)是最常用的激活函数。因为它在求偏导方法非常友好。

σ(w⋅x+b)\sigma(w\cdot x+b)σ(w⋅x+b)
σ(z)=11+e−z\sigma(z)=\frac{1}{1+e^{-z}}σ(z)=1+e−z1​
link