Warm tip: This article is reproduced from serverfault.com, please click

其他-BatchNormalization是否算作网络中的一层?

(其他 - Does BatchNormalization count as a layer in a network?)

发布于 2020-12-05 23:46:41

BatchNormalizationLayer是否被视为神经网络中的一层?例如,如果我们说Resnet50有50层,这是否意味着其中某些层可能是批归一化层?

在Keras中建立模型时,我认为它是额外的,类似于辍学层或添加“激活层”。但是BatchNormalization具有可训练的参数,所以...我很困惑

Questioner
Liubove
Viewed
0
Rika 2020-12-07 13:26:13

在深度学习文献中,X层网络仅指构成网络表示能力的可学习层的使用。
不考虑激活层,归一化层(例如NLR,BatchNorm等),下采样层(例如Maxpooling等)。

层,例如CNNRNNFC,,负责网络的代表能力和喜欢进行计数。