等式的意义
如果一个神经元的某个weight“学得慢”,可能是因为: 1. 它的参数(上一层的输入)是low-activation的。 2. 它的输出是饱和的(接近0或1)
参数是low-activation的
根据公式四:
可知: 当时, 即参数来自low-activation的神经元 即对应的w会"学得慢"。
输出的饱和的
回顾一下的曲线:
Last updated
Was this helpful?
如果一个神经元的某个weight“学得慢”,可能是因为: 1. 它的参数(上一层的输入)是low-activation的。 2. 它的输出是饱和的(接近0或1)
根据公式四:
可知: 当时, 即参数来自low-activation的神经元 即对应的w会"学得慢"。
回顾一下的曲线:
Last updated
Was this helpful?