BatchNormalizationLayer是否被视为神经网络中的一层?例如,如果我们说Resnet50有50层,这是否意味着其中某些层可能是批归一化层?
在Keras中建立模型时,我认为它是额外的,类似于辍学层或添加“激活层”。但是BatchNormalization具有可训练的参数,所以...我很困惑
在深度学习文献中,X
层网络仅指构成网络表示能力的可学习层的使用。
不考虑激活层,归一化层(例如NLR,BatchNorm等),下采样层(例如Maxpooling等)。
层,例如CNN
,RNN
,FC
,,负责网络的代表能力和喜欢进行计数。
那就是我的问题出现的地方。我看到BatchNorm在Keras中具有可训练的参数。这是如何运作的?谢谢你里卡!
它具有专门用于规范化的可学习参数gamma和beta。它们不会增加网络的代表能力,它们会使训练变得更容易!让我们这样说吧,如果您仅在网络中使用BN层,您是否会学习描述输入数据的任何功能?另一方面,如果您在网络中使用任何形式的层,例如CNN,FC等,则实际上可以达到一组以新形式表示输入数据的功能。这就是文献中所考虑的。