BatchNorm3D
- class paddle.nn. BatchNorm3D ( num_features, momentum=0.9, epsilon=1e-05, weight_attr=None, bias_attr=None, data_format='NCDHW', use_global_stats=None, name=None ) [源代码] 
构建 BatchNorm3D 类的一个可调用对象,具体用法参照 代码示例。可以处理 4D 的 Tensor,实现了批归一化层(Batch Normalization Layer)的功能,可用作卷积和全连接操作的批归一化函数,根据当前批次数据按通道计算的均值和方差进行归一化。更多详情请参考:Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift
当训练时 \(\mu_{\beta}\) 和 \(\sigma_{\beta}^{2}\) 是 minibatch 的统计数据。计算公式如下:
- \(x\):批输入数据 
- \(m\):当前批次数据的大小 
当预测时,track_running_stats = True \(\mu_{\beta}\) 和 \(\sigma_{\beta}^{2}\) 是全局(或运行)统计数据(moving_mean 和 moving_variance),通常来自预先训练好的模型。计算公式如下:
归一化函数公式如下:
- \(\epsilon\):添加较小的值到方差中以防止除零 
- \(\gamma\):可训练的比例参数 
- \(\beta\):可训练的偏差参数 
参数
num_features (int) - 指明输入
Tensor的通道数量。
epsilon (float,可选) - 为了数值稳定加在分母上的值。默认值:1e-05。
momentum (float,可选) - 此值用于计算
moving_mean和moving_var。默认值:0.9。更新公式如上所示。
weight_attr (ParamAttr|bool,可选) - 指定权重参数属性的对象。如果为 False,则表示每个通道的伸缩固定为 1,不可改变。默认值为 None,表示使用默认的权重参数属性。具体用法请参见 ParamAttr 。
bias_attr (ParamAttr|bool,可选) - 指定偏置参数属性的对象。如果为 False,则表示每一个通道的偏移固定为 0,不可改变。默认值为 None,表示使用默认的偏置参数属性。具体用法请参见 ParamAttr 。
data_format (str,可选) - 指定输入数据格式,数据格式可以为
"NCDHW"或"NDHWC",其中 N 是批大小,C 是通道数,D 是特征深度,H 是特征高度,W 是特征宽度。默认值为"NCDHW"。
use_global_stats (bool|None,可选) – 指示是否使用全局均值和方差。若设置为 False,则使用一个 mini-batch 的统计数据。若设置为 True 时,将使用全局统计数据。若设置为 None,则会在测试阶段使用全局统计数据,在训练阶段使用一个 mini-batch 的统计数据。默认值为 None。
name (str,可选) - 具体用法请参见 api_guide_Name,一般无需设置,默认值为 None。
返回
无
形状
input:当 data_format 为
"NCDHW"时,形状为(批大小,通道数,维度,高度,宽度)的 5-D Tensor。当 data_format 为"NDHWC"时,形状为(批大小,维度,高度,宽度,通道数)的 5-D Tensor。
output:和输入形状一样。
备注
目前训练时设置 track_running_stats 为 False 是无效的,实际还是会按照 True 的方案保存全局均值和方差。之后的版本会修复此问题。
代码示例
>>> import paddle
>>> paddle.seed(100)
>>> x = paddle.rand((2, 1, 2, 2, 3))
>>> batch_norm = paddle.nn.BatchNorm3D(1)
>>> batch_norm_out = batch_norm(x)
>>> print(batch_norm_out)
Tensor(shape=[2, 1, 2, 2, 3], dtype=float32, place=Place(cpu), stop_gradient=False,
[[[[[ 0.28011751, -0.95211101, -1.64757574],
    [ 0.14573872, -0.39522290, -0.76082933]],
   [[-1.01646376,  0.31086648, -1.66019011],
    [ 1.08991623, -0.54664266,  1.53283834]]]],
 [[[[ 1.33958006,  1.71585774, -0.12862551],
    [-0.66051245,  1.32629418, -0.06402326]],
   [[-0.28699064,  0.87359405,  0.42558217],
    [-0.46636176,  1.09858704, -1.55342245]]]]])