victory的博客

长安一片月,万户捣衣声

0%

CNN | BatchNormalization

BatchNormalization

由于深度神经网络涉及到很多层的叠加,而每一层的参数更新会导致上层的输入数据分布发生变化,
通过层层叠加,高层的输入分布变化会非常剧烈,这就使得高层需要不断去重新适应底层的参数更新。
为了训好模型,我们需要非常谨慎地去设定学习率、初始化权重、以及尽可能细致的参数更新策略。
也就是随是着网络加深,参数分布不断往激活函数两端移动(梯度变小),导致反向传播出现梯度消失,收敛困难。
原理:可在每层的激活函数前,加入BN,将参数重新拉回0-1正态分布,加速收敛。