等式的意义

如果一个神经元的某个weight“学得慢”,可能是因为: 1. 它的参数(上一层的输入)是low-activation的。 2. 它的输出是饱和的(接近0或1)

参数是low-activation的

根据公式四:

(32)Cw=ainδout,

可知: 当ain0a_{\rm in} \approx 0时,C/w0\partial C / \partial w \approx 0 ain0a_{\rm in} \approx 0即参数来自low-activation的神经元 C/w0\partial C / \partial w \approx 0即对应的w会"学得慢"。

输出的饱和的

回顾一下σ()\sigma()的曲线:

a=σ(z)a接近01z非常大σ(z)0bw的偏导0学得慢a = \sigma(z)且a接近0或1 \\ \Rightarrow |z|非常大 \\ \Rightarrow \sigma'(z)\approx 0 \\ \Rightarrow b和w的偏导\approx 0 \\ \Rightarrow 学得慢

Last updated

Was this helpful?