可视化的BatchNorm--它的工作方式以及为什么神经网络需要它

归一化输入数据






Batch Norm的必要性


BatchNorm是怎样起作用的





1.激活
2.计算均值和方差
3.归一化
4.缩放和移位
5.移动平均
Vector Shapes

前向传播后,我们照常进行梯度回传。 计算所有层权重以及Batch Norm层中所有beta和gamma参数的梯度并完成更新。
BatchNorm在推理阶段


Batch Norm层的放置顺序

在激活之前和之后,对于将Batch Norm层放置在体系结构中的位置有两种意见。尽管我认为您会发现文献中经常提到的两种选择,但原始论文还是放在了之前。有人说“之后”会带来更好的结果。

Conclusion

赞 (0)
