CNN | BatchNormalization 发表于 2021-11-15 更新于 2024-07-11 分类于 AI , 深度学习 , 深度学习基础 , CNN , Batch Normalization BatchNormalization由于深度神经网络涉及到很多层的叠加,而每一层的参数更新会导致上层的输入数据分布发生变化,通过层层叠加,高层的输入分布变化会非常剧烈,这就使得高层需要不断去重新适应底层的参数更新。为了训好模型,我们需要非常谨慎地去设定学习率、初始化权重、以及尽可能细致的参数更新策略。也就是随是着网络加深,参数分布不断往激活函数两端移动(梯度变小),导致反向传播出现梯度消失,收敛困难。原理:可在每层的激活函数前,加入BN,将参数重新拉回0-1正态分布,加速收敛。